Refine
Year of publication
Document Type
- Bachelor Thesis (148) (remove)
Has Fulltext
- yes (148)
Is part of the Bibliography
- no (148)
Keywords
- Benutzerfreundlichkeit (12)
- Bibliothek (11)
- Öffentliche Bibliothek (11)
- Usability (9)
- Wissenschaftliche Bibliothek (8)
- Digitalisierung (7)
- Marketing (7)
- Wissensmanagement (7)
- Soziale Software (6)
- Informationskompetenz (5)
Im Rahmen dieser Bachelorarbeit soll empirisch überprüft werden, welche Faktoren Einfluss auf die Glaubwürdigkeitszuschreibung von CSR-Kommunikation nehmen. Bei den untersuchten Faktoren handelt es sich um die Unternehmensreputation, die Motivattribution und das Fitting zwischen Unternehmenswerten und CSR-Maßnahmen.
Konzeption und Realisierung einer Anwendung zur Erstellung und Verwaltung von Server-Konfigurationen
(2021)
Die vorliegende Bachelorarbeit behandelt die Konzeption und Realisierung einer Anwendung zur Erstellung und Verwaltung von Server-Konfigurationen der Firma Hacon. Hierzu werden im Rahmen einer Anforderungsanalyse der Ist- und Soll-Zustand ermittelt sowie generelle Design-Prinzipien und Usability-Ziele aufgestellt. Nach der Auswahl der Architektur werden wesentliche Funktionalitäten der Anwendung umgesetzt und zuletzt die aufgestellten Anforderungen und Ziele mithilfe eines Usability-Tests evaluiert.
Eine belastbare Datengrundlage ist notwendig sowohl für die Planung und Integration von Publikationsfonds an Hochschulen als auch im Hinblick auf Transformationsverträge zwischen Bibliotheken und wissenschaftlichen Verlagen. In den letzten Jahren hat sich der Datenservice Unpaywall diesbezüglich zu einem wichtigen Instrument für die Identifizierung von Open Access entwickelt. In dieser Arbeit sollen die Zuverlässigkeit sowie die Belastbarkeit des Datenservices auf Grundlage der zeitlichen Transformation des Dienstes untersucht werden. In diesem Zusammenhang werden elf Datenbanksnapshots des Services, die zwischen 2018 und 2020 erschienen sind, ausgewertet und Modifikationen über einen längeren Zeitraum herausgestellt. Ferner soll anhand einer vollständigen Erhebung aller Zeitschriftenartikel der Publikationsjahre 2008 bis 2018 analysiert werden, inwiefern sich Open Access im Publikationsaufkommen zwischen verschiedenen Snapshots verändert hat.
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
Ein großer Teil der deutschen Bevölkerung nutzt täglich den öffentlichen Nahverkehr, um von A nach B zu kommen. Gerade in Städten existiert meist bereits ein großes Netz an Haltestellen und umfangreichen Fahrplänen. Da sich die Wenigsten diese auf Dauer in ihrer Gesamtheit merken können, wird heutzutage oft auf mobile Apps zurückgegriffen, die schnell und zuverlässig personalisierte Verbindungen anzeigen können. Diese „Fahrplan-Apps“ können unter anderem auch von sogenannten „digitalen Sprachassistenten“ gesteuert und verwendet werden. Einige der deutschen Bus- und Bahnhaltestellennamen sind dabei für Sprachassistenten schwierig zu verarbeiten, weil sie etwa Personennamen enthalten, die nicht geläufig in der deutschen Sprache sind (z.B. „Podbielskistraße“ oder „Poccistraße“), oder aus ihrer Schreibweise keine eindeutige Aussprache abgeleitet werden kann (z.B. „Aegidientorplatz“). Dies kann zu Problemen führen, wenn beispielsweise die Aussprache einer Haltestelle von dem Sprachassistenten nicht erkannt oder falsch erkannt wird und dieser deshalb keine zufriedenstellende Fahrplanauskunft geben kann.
Hierzu sollte eine Lösung entwickelt werden, die Nutzer*innen dazu motiviert, bei der Verbesserung der Aussprache von Haltestellennamen durch Sprachassistenten mitzuhelfen. Der erste Schritt ist hierbei, dass die Nutzer*innen verifizieren, ob die Aussprache einer Haltestelle richtig oder falsch ist. Wird sie als falsch bewertet, folgt zusätzlich der zweite Schritt: Die Nutzer*innen können zusätzlich die richtige Aussprache übermitteln.
In der Bachelorarbeit sollte also eine Incentivierungsmethode für diese beiden Schritte entwickelt werden. Die Softwarelösung sollte eine zusätzliche Funktion in der von der Projektionisten GmbH entwickelten Fahrplan-App "naNah" darstellen. Außerdem sollte der Fokus der Arbeit auf der Konzeption des Softwaremoduls liegen, da die Benutzerfreundlichkeit und das Interaktionsdesign einen erheblichen Einfluss auf die Wirksamkeit der Incentivierungsmethode hat.
Dazu wurden zunächst Interviews mit potenziellen Nutzer*innen sowie eine Umfrage durchgeführt. Die jeweiligen Ergebnisse wurden als Grundlage für die nächsten Konzeptionsschritte verwendet. Es wurden hieraus vorläufige Bedürfnisse und Anforderungen formuliert und Zielgruppen abgeleitet. Hieraus wurden wiederum Personas erstellt. Anschließend wurden passende User Journeys und User Stories entwickelt.
Im nächsten Schritt wurde eine Wettbewerbsanalyse durchgeführt, in der die Vor- und Nachteile anderer ähnlicher Software herausgearbeitet und für die weitere Entwicklung der eigenen Software bedacht wurden.
Nach der Ausarbeitung von Design- sowie technischen Anforderungen wurde ein Prototyp erstellt. Dazu wurde die bis hierhin herausgearbeitete Lösungsidee mithilfe von Skizzen veranschaulicht. Um die Idee detaillierter sowie wahrheitsgetreu darstellen zu können, wurde außerdem ein klickbares Mock-up erstellt, das den inhaltlichen Aufbau der Software hervorhebt. Anschließend wurde dessen Eignung mit einem Usability-Test überprüft und es wurden aus diesem folgende Verbesserungen an dem Clickdummy ausgeführt, sodass am Ende ein ausgereifter Prototyp vorlag. Dieser wurde schließlich in seinen Grundzügen technisch implementiert.
Das Ergebnis der Bachelorarbeit ist eine konzeptionell vollständig ausgearbeitete Softwarelösung sowie ein Proof of Concept.
In dieser Arbeit wurde ein System entwickelt, welches Übungsaufgaben der relationalen Algebra automatisch auswertet und dies in Form einer Punktevergabe bewertet. Darüber hinaus ist das System in der Lage lernunterstützende Feedbacks zu generieren. Dadurch sollen Studierende, die im Rahmen der Datenbank-Vorlesung relationale Algebra lernen, eine korrekte und optimierte Sprachanwendung im Bereich der relationalen Algebra lernen.
Die Bachelorarbeit befasst sich mit dem Generieren kurzer fröhlicher und harmonischer Musikstücke mittels des Einsatzes genetischer Algorithmen. Dabei werden die Evolutionsprozesse der Biologie nachgeahmt. In der Programmiersprache Java, unter der Verwendung der Open-Source-Programmierbibliothek JFugue, sind dafür die einzelnen Zyklusphasen entworfen und implementiert worden.
Die Vereinigung der Biologie, der Kunst und der Informatik wird damit erreicht, um etwas ästhetisch Wirksames zu schaffen und stellt den besonderen Reiz der Arbeit dar.
Öffentliche Bibliotheken sind in der Digitalen Bildung von großer Bedeutung. Sie vermitteln digitale Kompetenzen, nutzen zunehmend neue Technologien und verleihen digitale Medien. Die Arbeit befasst sich mit der Förderung und Finanzierung digitaler Angebote in Bibliotheken. Zu Beginn wird ein Überblick über die Bibliotheksgesetzgebung in Deutschland gegeben. In diesem Zusammenhang wird die Forderung der Bibliotheken nach einer Normierung zur Pflichtaufgabe für Kommunen erörtert und ein Vergleich mit den europäischen Ländern Dänemark und Finnland gezogen. Eine Untersuchung der Drittmittelförderung auf Landesebene, Bundesebene und der Europäischen Kommission zeigt die Verortung der Bibliotheken in Förderprogrammen auf. Im Anschluss werden anhand von Best-Practice-Beispielen alternative Finanzierungsmöglichkeiten dargestellt. Meinungen von Vertretern aus Bibliotheken weisen auf die Vorteile und Nachteile von Drittmittelförderung, Fundraising, Rechtsformwechsel, Integration in die Stadtentwicklung oder die Entwicklung von Bibliothekskonzeptionen, Bibliotheksentwicklungsplänen sowie die Regelung durch Kulturfördergesetze hin. Ausgehend von den Ergebnissen der untersuchten Finanzierungmöglichkeiten wird abschließend die Notwendigkeit von Bibliotheksgesetzen diskutiert. Hieraus ergibt sich, dass Bibliotheksgesetze für eine einheitliche und zukunftsfähige Entwicklung der Bibliotheken in der Digitalen Bildung notwendig sind. Zugleich wird deutlich, dass die derzeit bestehenden Gesetze diese Anforderungen nicht leisten.
Das Stufenmodell „Komplexitätsstufen von aktivierenden Lernressourcen“ wurde von einem Projektteam der Fachhochschule Hannover für die Produktion von E-Learning Materialien entwickelt. Die Bachelorarbeit soll beantworten, ob das Modell in der Praxis anwendbar ist. Hierfür wird eine Analyse des Stufenmodells angestrebt.
Um die Anwendbarkeit zu überprüfen, wird das Stufenmodell mit Beispielen aus wissenschaftlichen Bibliotheken abgeglichen. Die Beispiele basieren auf Lernressourcen, die aus Bibliotheken entnommen werden, die mittels E-Learning Informationskompetenz vermitteln.
Für die Analyse werden die Angebote anhand der Parameter und der Lernziele des Stufenmodells kategorisiert. Um die Ergebnisse anwendbar zu machen, wird weiterhin ein Konzept für die Förderung von Informationskompetenz mit E-Learning Werkzeugen vorgeschlagen.
Die Analyse des Stufenmodells zeigt auf, dass das Modell eine gute Orientierung ist, um E-Learning Ressourcen zu kategorisieren. Der Parameter Komplexität eignet sich, um die Ressourcen umfassend abzubilden, da die meisten Beispiele in das Modell einsortiert werden
können. Der Schwachpunkt des Modells besteht jedoch darin, dass zu viele Parameter berücksichtigt werden, die sich gegenseitig ausschließen können.
Die Ergebnisse der Analyse werden abschließend zu einem Konzept für Bibliotheken zusammengefasst. Die Theorien der Didaktik, sowie das Schwellenkonzept der Association of College & Research Libraries dienen hierbei als Grundlage. Dies zeigt auf, dass Informationskompetenz mit E-Learning Werkzeugen vermittelt werden und das Stufenmodell als Instrument dienlich sein kann.
Die Gesellschaft ist geprägt von einem zunehmenden Bedürfnis nach Mitbestimmung und damit auch Beteiligung. In Zeiten mangelnder Wohnangebote ist das Interesse besonders groß, wenn bedeutsame Baumaßnahmen thematisiert werden und große Veränderungen mit sich bringen.
Die positive Resonanz auf innerstädtische Immobilienprojekte ist alles andere als selbstverständlich, dabei liegen die Interessen häufig eng beieinander. "Man wird natürlich nie alle zufriedenstellen können" aber häufig mangelt es an ausreichender Kommunikation und Aufklärungsarbeit.
Die Wissenschaftsarbeit beschäftigt sich mit der Frage, welche Ansprüche an Bürgerkommunikation bestehen und welche Chancen sich daraus für die Kommunikation von Bauprojekten ergeben. Daraus resultiert ein Lösungsansatz für die Immobilien-Public-Relations (PR).
Die Anzahl an mit dem HI-Virus Neuinfizierten sinkt aufgrund der stetig voranschreitenden Forschung im Bereich der Therapie der HIV-Infektion kontinuierlich. Durch die erforschten HIV-Medikamente, wie zum Beispiel Biktarvy®, Atripla®, Eviplera® oder Genvoya® kann bei nicht vorliegenden Resistenzen oftmals ein bemerkenswerter Therapieerfolg erzielt werden. Doch der Therapieerfolg wird von vielen verschiedenen Faktoren beeinflusst. Um dies genauer zu analysieren, handelt die vorliegende Bachelorarbeit von der Untersuchung des Einflusses verschiedener Parameter auf den Therapieerfolg von HIV-Infizierten. Da es zahlreiche Einflussfaktoren gibt, wurde eine engere Auswahl getroffen. In dieser Arbeit wurde daher der Einfluss von dem Geschlecht, der Therapiekombination, der Altersgruppe, den vergangenen Jahren seit der gestellten Diagnose sowie der Dauer der bereits eingenommenen Therapie auf die Laborwerte „Viruslast“ und „CD4-Zellzahl“ untersucht. Ziel der Bachelorarbeit war es, mehr Daten zu gewinnen, die Ergebnisse des Einflusses der soeben genannten Kenngrößen enthalten. Für die statistische Vergleichsanalyse wurden Daten aus der seit knapp 20 Jahren bestehenden HIV-Datenbank der Medizinischen Hochschule Hannover, Abteilung Rheumatologie und Immunologie, herangezogen. Um die Ergebnisse dieser Bachelorarbeit zusammenzufassen, lässt sich resümieren, dass bei mehr als der Hälfte der Patienten, genauer gesagt bei 51 anhand der Viruslast und 57 von je 72 Patienten anhand der CD4-Zellen, ein Therapieerfolg erzielt werden konnte. Vor allem bei den Einflussgrößen Geschlecht und Therapiekombination konnte ein bemerkenswerter Einfluss auf den Therapieerfolg festgestellt werden. Bei den weiteren Parametern Altersgruppe, Diagnosedauer und Therapiedauer ist kein statistisch signifikanter Unterschied ermittelt worden.
Unter Crowdsensing versteht man Anwendungen, in denen Sensordaten kollaborativ von einer Menge von Freiwilligen erhoben werden. So kann Crowdsensing eingesetzt werden um die Luftqualität an Orten zu messen, an denen keine fest installierten Sensoren verfügbar sind. In Crowdsensing-Systemen müssen die Teilnehmer koordiniert und die Messdaten verarbeitet werden, um relevante Daten zu erhalten. Im Rahmen der Abschlussarbeit wurde ein System konzipiert und prototypisch umgesetzt, das auf einem Raspberry Pi (unter Einsatz geeigneter Sensoren) Sensordaten erhebt und mit der Complex Event Processing Technologie verarbeitet.
Die Nutzung von Messenger-Diensten hat die Nutzung von sozialen Medien übertroffen. Diese Mediennutzung bringt veränderte Erwartungen an Unternehmen mit sich. Unternehmen begegnen den Erwartungen ihrer Kund*innen in der Online-Kundenkommunikation mit dem Einsatz textbasierter Dialogsysteme. Im Facebook-Messenger wurden 2018 bereits über 300.000 Chatbots angeboten. Das Problem ist, dass Studien seit mehreren Jahren aufzeigen, dass diese Kommunikationstechnologie sich bei den Kund*innen noch nicht durchgesetzt hat und häufig noch skeptisch betrachtet wird. Für Unternehmen ist es daher notwendig zu verstehen, welche Kriterien erfüllt sein müssen, um die Akzeptanzbildung der Kund*innen gegenüber textbasierten Dialogsystemen positiv zu beeinflussen.
Das Ziel dieser Arbeit ist es zu betrachten, inwiefern die Eigenschaften textbasierter Dialogsysteme die Akzeptanzkriterien der Kund*innen erfüllen können. Dazu wird die folgende Forschungsfrage gestellt: Wie akzeptieren Kunden den Einsatz textbasierter Dialogsysteme in der Online-Kundenkommunikation von Unternehmen?
Um die Forschungsfrage zu beantworten, wird eine Literaturanalyse durchgeführt. Die Literatur wird mit Studienergebnissen verglichen, um Übereinstimmungen und Abweichungen herauszuarbeiten.
Eine Akzeptanzanalyse hat ergeben, dass Kund*innen textbasierte Dialogsysteme vor allem akzeptieren, wenn sie darin einen Nutzen erkennen. Jedoch beeinflussen neben nutzenorientierten Faktoren auch emotionale Faktoren die Akzeptanz.
Auf dieser Grundlage ist es empfehlenswert, positive und negative Einflussfaktoren des Akzeptanzprozesses zu identifizieren und die Gestaltung textbasierter Dialogsysteme an die Kund*innen anzupassen, bevor diese eingesetzt werden.
Der Autobewerter Graja, der in der Lehre zum Bewerten studentischer Java-Programme verwendet wird, stellt ein komplexes Softwaresystem dar. Aufgrund einer kaum vorhandenen Testabdeckung durch Modul- und Integrationstests, ist die Gewährleistung der fehlerfreien Funktionalität in Hinsicht auf die Weiterentwicklung nicht garantiert. Da sich Graja auf das ProFormA-Aufgabenformat stützt, stellt sich die Frage, inwiefern sich die im ProFormA-Aufgabenformat vorausgesetzten Musterlösungen, für einen automatisierten Regressionstestmechanismus eignen.
Das Ziel dieser Forschung ist es ein Konzept, für einen solchen Regressionstestmechanismus zu erstellen und mithilfe einer Referenzimplementierung als Graja-Erweiterung in die Praxis umzusetzen. Der daraus entstandene Mechanismus operiert durch Verhaltensaufzeichnung und Verhaltensabgleich und konvertiert so das in Graja beobachtete Bewertungsverhalten einer Musterlösung in einen Testfall. In der Testphase findet anschließend ein Abgleich des Soll-Verhaltens eines Testfalls und des beobachteten Ist-Verhaltens einer Musterlösung statt. Die Differenzen dieses Abgleichs sind als potenzielle Regressionen zu behandeln, da diese eine semantische Änderung des Bewertungsergebnisses darstellen.
Um diesen Verhaltensabgleich robust und mit möglichst wenigen Fehlalarme zu realisieren, wurden die in Graja verwendeten Datenmodelle auf Eignung bezüglich einer Verhaltensaufzeichnung untersucht. Außerdem fand eine Datenaufzeichnung mit einer Teilmenge der Musterlösungen statt. Nachfolgend wurde eine Analyse dieser Rohdaten, mit dem Ziel potenzielles Rauschen innerhalb der Aufzeichnungen zu detektieren, durchgeführt. So konnte letztendlich eine Strategie für eine Rauschunterdrückung innerhalb der Verhaltensaufzeichnung entwickelt werden.
Abschließend wurde ein Datenmodell entwickelt, das erlaubt, die durch den Verhaltensabgleich detektierten Regressionen verständlich und lokalisierbar darzustellen. Der durch diese Arbeit entstandene automatisierte Regressionstestmechanismus stellt somit eine Grundlage für die Gewährleistung der korrekten Bewertungsfunktionalität innerhalb des Graja-Entwicklungsprozesses dar. Durch das Detektieren von Regressionen mithilfe der Musterlösungen, lassen sich nun Änderungen an Graja gewissenhaft in eine Produktionsumgebung übernehmen.
Die Nutzerverfolgung im Internet durch die Verwendung von Browsercookies ist gängige Praxis, doch haben diverse datenschutzrechtliche Entwicklungen der letzten Jahre zugunsten der Verbraucher diese Form des Trackings in vielerlei Hinsicht eingeschränkt und auch die Usability von Websites maßgeblich beeinträchtigt. Um weiterhin eine Personalisierung von Werbung und anderen Inhalten unter Wahrung der Nutzbarkeit und Rechte der Nutzer zu gewährleisten, ist es unausweichlich, eine neue Methode zur Identifizierung von Besuchern zu etablieren. Das Ziel dieser Arbeit ist, verschiedene Trackingtechnologien unter Berücksichtigung gegebener Rahmenbedingungen im Rechtsraum der Europäischen Union in ihrer Funktionsweise zu vergleichen und die nach derzeitigem Stand realistische Nachfolgetechnologie zum Tracking via Cookies zu benennen – Fingerprinting. Dieses überzeugt in Bezug auf seine Langlebigkeit und rechtliche Vereinbarkeit, den Implementierungsaufwand sowie den Umfang der sammelbaren Daten. Darauf aufbauend ist eine statistische Untersuchung zur Verbreitung von Methoden aus dem Feld des Fingerprintings auf den meistgenutzten Internetseiten durchgeführt worden. Dabei ergibt sich, dass Informationen, die zur Erstellung eines Fingerprints genutzt werden können, von fast allen Websites abgefragt werden, jedoch durchschnittlich nur wenige verschiedene Arten von Fingerprints genutzt werden. Auf einigen Websites werden durch größere dritte Unternehmen Fingerprints erfasst, der Opt-in-Status hingegen hat in den meisten Fällen für die Praktizierung von Fingerprinting keine Relevanz. Da Fingerprinting auch für schädliche Zwecke, zum Beispiel das Verteilen von potenterer Schadsoftware, verwendet werden kann, ist die Reaktion von Browserentwicklern und -nutzern auf die Entwicklung von derzeitigen und zukünftigen Fingerprintingkonzepten ungewiss, und auch die rechtliche Lage der nächste Jahre hängt von angekündigten Verordnungen ab, die in ihrem Inhalt noch nicht bekannt sind.
Die Bachelorarbeit "Content-Strategien im Luxusmodemarketing" befasst sich mit den jeweiligen Besonderheiten von Content-Strategie und Luxusmodemarketing. Diese Ansatzpunkte werden zur Hilfe genommen, um die jeweiligen Disziplinen aufeinander zu beziehen. Dabei spielen bei der Content-Strategie die Faktoren Zielgruppe, Zeitpunkt, Inhalt, Kanäle und Formate eine übergeordnete Rolle, während im Luxusmodemarketing die Symbolkraft der Marke, die Saisonalität der Mode, die Visualität sowie die Akzeptanz seitens des Konsumenten von Bedeutung sind. Mithilfe dieser Kernaspekte, die in dieser Arbeit anhand von Theorien und Modellen untersucht werden, können Bezugspunkte zu den beiden Disziplinen hergestellt werden.
Der Theorieteil erläutert diese Facetten und arbeitet heraus, welche genauen Muster innerhalb der Content-Strategie sowie des Luxusmodemarketings vorliegen. Schließlich beschreibt der Anwendungsteil, wie die relevanten Zielgruppen, die passenden Inhalte, der richtige Zeitpunkt, die erforderlichen Kanäle und die angemessenen Formate auszusehen haben, um eine Content-Strategie erfolgreich im Luxusmodemarketing zu implementieren. Diese Arbeit versucht dies anhand der gewonnenen theoretischen Erkenntnisse sowie entsprechenden Praxisbeispielen näher zu betrachten.
Durch den Wandel des bibliothekarischen Selbstverständnisses zum zunehmend wirtschaftlich geführten Dienstleistungsbetrieb gewinnt die Nutzerorientierung im Bibliothekssektor an Bedeutung. Insbesondere Nutzerzufriedenheit ist in diesem Kontext ein wichtiges Ziel von zukunftsorientierten Bibliotheken. Für die Bibliothek der Hochschule Hannover ist aus diesem Grund im Mai 2020 eine empirische Zufriedenheitsstudie unter den Mitgliedern der Hochschule durchgeführt worden. Es wurden Nutzungseigenschaften sowie Ansichten bezüglich Dienstleistungen, Lokalitäten und Gesamteindrücken erhoben. Ergänzend zur Auswertung dieser Ergebnisse wird in dieser Arbeit ein Vergleich mit denen der bis dato jüngsten Zufriedenheitsstudie von 2009 gezogen. Ziel der onlinebasierten Befragung sowie des Vergleichs ist die Ermittlung von Nutzerbedürfnissen und Kritikpunkten, um eine fundierte
Entwicklungsempfehlung für die Bibliothek erstellen zu können. Maßnahmen, die auf dieser Empfehlung basieren, sollen eine Steigerung der Nutzerzufriedenheit ermöglichen. Die Analyse der Antworten lässt vor allem auf einen Mangel des selbstständigen Informierens über die Angebote der Bibliothek sowie deren Nutzung für das wissenschaftliche Arbeiten schließen. Daher werden insbesondere eine Verbesserung der aktiven Kommunikation mit den Zielgruppen und die Förderung der Informationskompetenz der Nutzer empfohlen.
Das Ziel dieser Bachelorarbeit ist es, ein einfach verständliches Simulationsmodell zur Darstellung der Wirkung von Kabelschirmen bei Betrachtung verschiedener Schirmauflageverfahren zu entwickeln. Die erarbeiteten Ergebnisse decken sich mit der allgemein vertretenen Meinung, dass die beste Schirmwirkung durch eine beidseitige und flächige Schirmauflage erzielt wird. Zuerst werden Grundlagen erklärt, wobei sich auf relevante Literatur bezogen wird. Daraus wird das Simulationsmodell hergeleitet, dessen Ergebnisse anhand von theoretischen Überlegungen und praktischen Messungen überprüft werden. Die vorliegende Arbeit ist interessant für Ingenieurinnen und Ingenieure der Automatisierungstechnik in der Prozess- und Fertigungsindustrie, die ein grundlegendes Verständnis für relevante Effekte der Kabelschirmung bilden wollen.
Zur Verbesserung der IT-Sicherheit im klassischen Büroumfeld wird bereits eine neue Firewall-Technologie, die sogenannte Next Generation Firewall verwendet. Um diese Technologie im Produktionsbereich einzusetzen, muss sie vorher getestet werden, da sich die Priorisierung der Schutzziele im Produktionsbereich und im Büroumfeld unterscheidet. In dieser Arbeit werden das Einsatzgebiet und die Wirkungsweise von Firewalls in industriellen Automatisierungssystemen im Allgemeinen und spezifisch für Next Generation Firewalls untersucht. Die Untersuchung geht auf die Aufgaben der einzelnen Firewalls in einem Produktionsunternehmen ein und prüft, welche Firewall durch eine Next Generation Firewall ergänzt werden kann. Dazu werden die konventionellen Firewall-Technologien mit der neuen Firewall-Technologie verglichen und bewertet. Der Nutzen der Next Generation Firewall in der Produktionsumgebung wird am Beispiel eines ausgewählten Angriffsszenarios erklärt. Abschließend werden Empfehlungen für dessen Einsatz in industriellen Automatisierungssystemen gegeben.
Plugins erweitern die Funktionalität von WordPress und helfen Webseitenbetreibern beim Hinzufügen neuer Elemente oder Funktionen. Dabei muss der Betreiber selbst keinen komplexen Programmcode schreiben. Auch können diese Erweiterungen als Erleichterung bei der Pflege von Informationen und Inhalten dienen. In der vorliegenden Bachelorarbeit wird die Konzipierung, Umsetzung und Anwendung eines solchen Plugins für den Vergleich von Veranstaltungen beschrieben. Dabei findet es Anwendung auf einer Internetseite zum Thema Festivals. Die Informationen bezüglich der Festivals werden per Import in einer Tabelle gespeichert und für den Vergleich dargestellt. Eintragungen können auch händisch getätigt werden, woraus sich schließlich ergibt, dass das Plugin mit seiner Importfunktion eine zeitsparende und sinnvolle Erweiterung ist.
Vergleich von nativer App- und Cross-Platform-Entwicklung (Facebook React Native und Google Flutter)
(2020)
Die Entwicklung mobiler Applikationen für iOS und Android ist in der Regel mit viel Arbeit verbunden, da man für beide Plattformen gezwungenermaßen unterschiedlichen Quelltext schreiben muss. Abhilfe für dieses Problem schaffen Cross-Platform-Frameworks wie React Native von Facebook oder Flutter von Google. Anhand dieser Frameworks lassen sich Apps für beide Plattformen mit nur einer Codebase entwickeln. Eine kritische Stelle und oft gebrauchtes Kontra-Argument gegen die Entwicklung mit Cross-Platform-Frameworks ist die Hardwarenähe der nativen Applikationen, an welcher es den Frameworks vermeintlich mangelt. Doch wie ist der Stand der Dinge im Jahr 2020? Können Cross-Platform-Frameworks inzwischen performant und einfach auf Hardwarekomponenten zugreifen und machen damit die mühsame, native Entwicklung für iOS und Android vor allem in Anbetracht der Entwicklung von größerer Enterprise-Software obsolet?
Dieser Frage wird in dieser Arbeit nachgegangen und generell überprüft wie tauglich die Cross-Platform-Entwicklung ist. Nach dem Lesen dieser Bachelorarbeit sollte entschieden werden können, ob Cross-Platform-Frameworks für das Anwendungsproblem des Lesers geeignet sind. Um die Forschungsfrage zu beantworten, wurden je zwei Applikationen im Rahmen einer Fallstudie für je iOS und Android entwickelt, damit geprüft werden konnte, wie förderlich die zuvor genannten Frameworks sind. Der Fokus der Arbeit liegt also auf der Güte bzw. dem heutigen Stand der Cross-Platform-Entwicklung, vor allem im Bezug auf die Benutzung von Hardwarekomponenten bzw. betriebssystemspezifischen Diensten (Bluetooth, Kamera, etc.).
Die Ergebnisse der Fallstudie zeigen, dass es stets auf den Kontext und die Komplexität der zu realisierenden Anwendung ankommt inwiefern Cross-Platform-Frameworks verwendet werden können. In simplen Anwendungsfällen können Frameworks meist zu einer erheblichen Kostenminimierung und Zeitersparnis führen, wohingegen bei komplexeren Anwendungen relativ schnell Grenzen und starke Abhängigkeiten erreicht werden.
Der ständige Wandel der Gesellschaft hinsichtlich der Bedürfnisse und Arbeitsgewohnheiten, stellt eine Herausforderung dar, mit der sich auch Behördenbibliotheken auseinandersetzen müssen. Diese stetigen Veränderungen führen zu einem erhöhten Innovationsbedarf in diesen Bibliotheken. Die Arbeit setzt sich mit zwei möglichen nutzerorientierten Innovationsmethoden auseinander. Jene können dazu beitragen, dass die veränderten Bedürfnisse der Bibliotheksnutzer unmittelbar in Innovationsprojekte der Behördenbibliotheken mit einfließen. Im ersten Teil der Arbeit werden die theoretischen Grundlagen von Innovationen sowie der zwei Methoden, Open Innovation und Design Thinking, dargestellt. Open Innovation und Design Thinking werden darüber hinaus anhand von Praxisbeispielen aus Bibliotheken näher erläutert. Außerdem werden sowohl die Aufgaben als auch die allgemeinen Herausforderungen in Behördenbibliotheken dargestellt. Im zweiten Teil der Arbeit wird die durchgeführte empirische Untersuchung beschrieben, die einen Aufschluss über den aktuellen Stand von Innovationen in Behördenbibliotheken geben soll. Abschließend werden, anhand der theoretischen Grundlagen sowie der gewonnenen Erkenntnisse, Erfolgskriterien und Handlungsempfehlungen für die Durchführung von nutzerintegrierten Innovationsprojekten für Behördenbibliotheken gegeben.
Die allgemeine Digitalisierung und besonders die IT Branche in Hannover, stellen Arbeitgeber_innen und Arbeitnehmer_innen vor große Herausforderungen. Berufsbezeichnungen im IT Sektor zeichnen sich im Gegensatz zu klassischen Berufsfeldern nicht dadurch aus, dass sie vereinheitlicht sind. Unterschiedlichste Berufsbezeichnungen verlangen oftmals identische Kompetenzen. Die Kompetenzen und Fähigkeiten der Arbeitnehmer_innen stehen ebenso immer mehr im Fokus der Arbeitgeber_innen, wie die Bereitschaft der permanenten Weiterbildung.
Zielgebend der vorliegenden Abschlussarbeit ist eine Datenbasis für ein kompetenzbasiertes IT Tool zu liefern, welches den Anspruch hat, die bereits beschriebenen Herausforderungen zu analysieren und zu klassifizieren. Zunächst ist daher eine Klassifikation, der auf dem hannoverschen Jobmarkt gesuchten IT Kompetenzen, zu erstellen. Vorbereitend wird eine Marktanalyse angefertigt, die sowohl Jobsuchmaschinen auf ihre Kompetenzorientierung als auch IT Kompetenzklassifikationen untersucht. Die erstellte Klassifikation bildet anschließend die Grundlage für das Kompetenzmatching zwischen Klassifikation und den Kompetenzen, die hannoversche IT Studierende erlernen, um zu verdeutlichen, in welchen Kompetenzen Weiterbildungsbedarf besteht. Die entstandene Datenbasis wird in einer MySQL Datenbank präsentiert, um eine möglichst flexible Verwendung und Weiterentwicklung des Datenbestands zu ermöglichen.
Die Dunkle Triade besteht aus den Konstrukten Machiavellismus, Narzissmus sowie Psychopathie. Nachfolgend wird eine Untersuchung des Zusammenhangs zwischen den Konstrukten der Dunklen Triade und Studienerfolg berichtet. Studienerfolg wurde mittels Durchschnittsnote, Studiendauer, Kompetenzerwerb sowie Studienzufriedenheit operationalisiert und jeweils separat überprüft. Insgesamt wurden 98 Studierende der Hochschule Hannover befragt. Es konnten keine statistisch signifikanten Zusammenhänge zwischen den drei Konstrukten der Dunklen Triade und Durchschnittsnote sowie Studiendauer festgestellt werden. Ebenfalls konnten keine statistisch signifikanten Zusammenhänge zwischen Machiavellismus und Kompetenzerwerb sowie Studienzufriedenheit festgestellt werden. Auch für Narzissmus konnten keine statistisch signifikanten Zusammenhänge mit Kompetenzerwerb sowie Studienzufriedenheit festgestellt werden. Die Effekte dieser statistisch insignifikanten Ergebnisse sind in ihrer Höhe gering (r < 0,10). Als statistisch signifikant erwiesen sich die Zusammenhänge zwischen Psychopathie und Kompetenzerwerb (p = 0,01, r = -0,23) sowie zwischen Psychopathie und Studienzufriedenheit (p = 0,03, r = -0,20).
Die Reproduzierbarkeit von Studien ist wichtig, um ihre Ergebnisse prüfen zu können. Auch bei Forschung, die auf frühere Ergebnisse aufbaut, wird zuweilen ein Zugang zu den alten Daten oder dem Source Code benötigt. Diese Arbeit analysiert Studien aus der Computerlinguistik hinsichtlich ihrer Reproduzierbarkeit. Zunächst werden die Begrifflichkeiten zu diesem speziellen Gebiet definiert und im folgenden Schritt wird ein Datensatz erstellt, in dem ausgewählte Open-Access-Studien aus dem Jahre 2018 auf der Basis zuvor festgelegter Kriterien bewertet werden. Diese sind unter anderem die Zugänglichkeit des benutzten Materials, der angewendeten Methoden und der Ergebnisse. Neben den Kriterien werden auch Hypothesen zu diesem Datensatz aufgestellt. Schließlich werden die Ergebnisse visualisiert und hinsichtlich besagter Hypothesen interpretiert. Basierend auf der resultierenden Auswertung sind die meisten Studien reproduzierbar. Im Ausblick werden mögliche Weiterführungen und Erweiterungen dieser Untersuchung erläutert.
An der Hochschule Hannover soll die Lernplattform LON-CAPA von Moodle-STACK abgelöst werden. Dazu werden Aufgaben von LON-CAPA nach Moodle-STACK konvertiert. Durch die Entwicklung eines Konverters kann ein großer Teil dieser Arbeit automatisiert erfolgen. Aufgrund der potentiellen Komplexität von LON-CAPA-Aufgaben ist nicht jede Aufgabe in vollem Umfang zu übersetzen und eine manuelle Nacharbeit notwendig.
In dieser Arbeit werden die LON-CAPA-Antworttypen numerical, formula und math response analysiert. Es wird untersucht, wie LON-CAPA-Aufgabenelemente einzeln umgewandelt werden können und welche Parameter im Moodle-STACK-Format gesetzt werden müssen, um eine äquivalente Aufgabe in Moodle-STACK zu erhalten.
Die technische Umsetzung erfolgt in Java. Der modulare Aufbau sieht Wartbarkeit und Weiterentwicklung vor. Auf GitHub steht die Implementierung unter der GPL (GNU General Public License) zur Verfügung: https://github.com/kiliandangendorf/lc2mdl
Das wissenschaftliche Publikationswesen befindet sich in einem Transformationsprozess, weg von der Bezahlung des lesenden Zugriffs durch den Kauf von Lizenzen durch Bibliotheken, hin zu der Vergütung der Verlagsleistungen durch Publikationsgebühren. Ziel ist der freie Zugang zu Forschungsergebnissen in wissenschaftlichen Publikationen und den dazugehörigen Forschungsdaten. Dieser freie Zugang zu wissenschaftlicher Literatur wird weltweit, unter dem Begriff Open Access gefördert und vorangebracht. Veränderungen in der Wissenschaft bedeuten auch immer Änderungen in den Arbeitsabläufen und im Aufgabenbereich wissenschaftlicher Bibliotheken. Diese Arbeit beschäftigt sich mit der Fragestellung, welche Angebote medizinische Fachbibliotheken in Deutschland, Österreich und der Schweiz den Wissenschaftlern ihrer Institution im Bereich des Open Access Publizierens bieten. Aufbauend auf den Ergebnissen einer Webseitenanalyse, werden Handlungsempfehlungen für die Ärztliche Zentralbibliothek im Universitätsklinikum Hamburg-Eppendorf für den Aufbau von Publikationsdiensten, insbesondere für Open Access, erstellt.
In der vorliegenden Bachelorarbeit wird thematisiert, wie Coding zu Zwecken der sich im Umbruch befindenden MINT-Bildung eingesetzt werden kann und welche Kompetenzen durch das Erlernen von Programmierfähigkeiten gefördert werden. Darüber hinaus wird ein Bezug zur Informatik als Herkunftswissenschaft des Coding hergestellt und die Relevanz einer frühzeitigen Aneignung von Programmierfähigkeiten in einer digitalen Gesellschaft beleuchtet. Eine Analyse der webbasierten Programmierplattformen Open Roberta Lab, Scratch, Sprite Lab von Code.org und TurtleCoder, die zur Vermittlung von Programmier-fähigkeiten bei Kindern genutzt werden können, gibt Aufschluss darüber, ob sich die benannten Programmierplattformen auch für den Einsatz in außerschulischen Bildungseinrichtungen, wie etwa öffentliche Bibliotheken, eignen.
In den letzten Jahren wurden verstärkt neue Forschungsinformationssysteme (FIS) geplant, aufgebaut und in Betrieb genommen. Da diese IT-gestützten Informationssysteme eine Vielzahl an Forschungsinformationen beinhalten sowie verschiedenen Zielen dienen können, bietet eine Sammlungsrichtlinie die Möglichkeit, die Entscheidungen auf inhaltlicher Ebene verbindlich und transparent darzustellen. Derartige Richtlinien existieren zum Beispiel bereits für Sammlungen in Bibliotheken und Museen. Die Bachelorarbeit zieht Parallelen zu diesen Bereichen und beschreibt deren Ziele und Inhalte.
In einem praxisbezogenen Teil wurde die Sammlungsrichtlinie für das Informationssystem Göttingen Research Online (GRO) erstellt. Die Vorgehensweise, Hindernisse und Erfahrungen werden zusammenfassend wiedergegeben. Ergänzt werden die Erkenntnisse durch eine Befragung unter deutschen Hochschulen und Forschungseinrichtungen.
Abschließend ist eine Empfehlung für eine FIS-Sammlungsrichtlinie entstanden, die Hinweise, Bestandteile und Best Practices enthält und somit anderen Institutionen als Leitfaden dienen kann.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Bibliotheken sind Lernorte. Der interne Organisationsaufbau von Bibliotheken weist hingegen bisher wenige Strukturen einer Lernenden Organisation auf. Um die Bereitstellung von Medien und Informationen für Bibliotheksnutzer aufrechtzuerhalten und stetig an deren Bedürfnissen auszurichten (z. B. im Kontext der fortschreitenden Digitalisierung), bedarf es eines gut ausgebildeten Bibliothekspersonals. Klassische Fortbildungskonzepte gehören ebenso dazu, wie der kontinuierliche, persönliche Lernprozess eines jeden Bibliotheksmitarbeiters. Die Methode „Working Out Loud“ kann eingesetzt werden, um diese persönlichen Fähigkeiten auszubauen und eine agile Arbeitsweise anzuregen. Daher wird überprüft, inwiefern Working Out Loud die Lernende Organisation unterstützen kann. Zunächst wird die Methode Working Out Loud und deren Anwendung bei Unternehmen vorgestellt. Dann werden die Kennzeichen von Lernenden Organisationen definiert und auf Bibliotheken angewandt. Angeschlossen wird eine Betrachtung des zwölf Wochenprogramms von Working Out Loud und deren Potential zur Unterstützung der Lernenden Bibliothek. Working Out Loud vermittelt Bibliotheksmitarbeitern durch gezielte Übungen eine offenere Arbeitseinstellung, die sie mit ihren Kollegen innerhalb und außerhalb der Bibliothek zu teilen lernen.
Content-Gestaltung und Einsatzmöglichkeiten von Augmented Reality in Öffentlichen Bibliotheken
(2019)
Augmented Reality (AR), die Erweiterung der Realität durch computergenerierte Zusatzobjekte, kommt bisher hauptsächlich in Wissenschaftlichen Bibliotheken (WB) zum Einsatz. Diese Arbeit beschäftigt sich deshalb mit den Einsatzmöglichkeiten von AR in Öffentlichen Bibliotheken (ÖB). Betrachtet wird dabei die Realisierung von AR über eigenständig gestalteten Content mittels Anbietern im Internet und dazugehörigen Browser-Apps. Dies stellt eine kostengünstige und barrierefreie Alternative zur Programmierung von Apps dar. Dafür wird zunächst ein theoretischer Überblick gegeben, indem AR definiert wird und die technischen Grundlagen, wie Trackingverfahren und Interfaces, erläutert werden. Darauf folgen, zur Un-termauerung der Diskrepanz zwischen WB und ÖB, Beispiele für umgesetzte Projekte aus beiden Sparten. Anschließend wird auf die allgemeinen Einsatzgebiete und Potenziale von AR sowie die Aufgaben von ÖBs eingegangen. Die daraus abgeleiteten Einsatzmöglichkeiten von AR für Öffentliche Bibliotheken, Navigation und Orientierung, Bestandserweiterung, Veranstaltungen, Öffentlichkeitsarbeit/Marketing/Werbung sowie Informationskompetenz, werden erläutert. Zur Content-Gestaltung werden zunächst Grundvoraussetzungen genannt und die Funktionsweise der AR-Anbieter im Internet erklärt. Im Anschluss werden die Anbieter Blippar, HP Reveal, Layar, ROAR, Wikitude und Zappar, auf Grundlage eines zuvor erstellten Kriterienkatalogs, hinsichtlich ihres Funktionsumfangs verglichen. Im Ergebnis zeigt sich, dass sich die Anbieter zwar alle ähneln, bezüglich spezieller Funktionen und Kosten aber unterscheiden. Am besten schneidet dabei Zappar ab. Ergänzend werden danach die verschiedenen Arten von Content näher betrachtet. Zur Veranschaulichung der leichten Realisierbarkeit von AR werden zwei praktische Beispiele umgesetzt. Zum Abschluss werden Grenzen und Probleme, auch aus rechtlicher Perspektive, betrachtet. Diese schränken die Content-Gestaltung und die Einsatzmöglichkeiten nur wenig ein, womit die Content-Gestaltung von AR für den Einsatz in ÖBs sehr gut geeignet ist.
Sustainable tourism is a niche market that has been growing in recent years. At the same time, companies in the mass tourism market have increasingly marketed themselves with a “green” image, although this market is not sustainable. In order to successfully market sustainability, targeted marketing tactics are needed.
The aim of this research is to establish appropriate marketing tactics for sustainable tourism in the niche market and in the mass market. The purpose is to uncover current marketing tactics for both the mass tourism market and the sustainable tourism niche market. It also intends to explore how consumers who are more interested in sustainability differ from consumers with less interest in sustainability in terms of their perception of sustainability in tourism. Furthermore, this research paper will assess the trustworthiness of sustainable travel offers and the trustworthiness of quality seals in sustainable tourism. For this purpose, an online survey was conducted, which was addressed at German-speaking consumers. The survey showed, that consumers with more general interest in sustainability also consider sustainability to be more relevant in tourism. Offers for sustainable travel and quality seals were perceived as not very trustworthy. Moreover, no link could be found between the interest in sustainability and the perception of trustworthiness.
On the basis of the above, it is advisable to directly advertise sustainability in the niche market and to mention sustainability in the mass market only as an accompaniment or not at all. Further research could be undertaken to identify which factors influence the trustworthiness of offers, and trustworthiness of quality seals in sustainable tourism.
In der Lehre kommen seit einiger Zeit Autobewerter zum Einsatz, um automatisiert oder teilautomatisiert Lösungen von Lernenden zu Programmieraufgaben zu bewerten. Aus Sicht eines Betreibers von Autobewerter-Systemen erfordert letzteres meist die Ausführung von fremdem Programmcode in der eigenen Server-Umgebung. Hierbei ist Vorsicht geboten, da fehlerhafter oder angriffslustiger Programmcode verbotene Aktionen ausführen könnte.
An der Hochschule Hannover können Studierende Lösungen zu Programmieraufgaben verschiedener Programmiersprachen über das Lernmanagementsystem "moodle" einreichen. Die angeschlossene Middleware Grappa nimmt Lösungen anschließend entgegen und leitet diese an einen Autobewerter der zugehörigen Programmiersprache weiter.
Diese Arbeit befasst sich damit, Sicherheitsrisiken bei der Ausführung von fremdem Programmcode durch Autobewerter zu identifizieren und zu vermeiden. Hierzu gilt es, mögliche Angriffe herauszustellen und aktuelle, angemessene Technologien zu finden, um diese zu verhindern. Anschließend findet mit einer Technologie die Entwicklung einer abgesicherten Ausführungsumgebung für beliebige an die Middleware Grappa angebundene Autobewerter statt. Die exemplarische Einbettung der beiden Autobewerter Graja und Praktomat in die entwickelte Ausführungsumgebung soll unter Beweis stellen, dass es sich um eine generische Lösung mit wenig Overhead handelt.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Die vorliegende Ausarbeitung befasst sich mit der Digitalisierung und der Öffnung des Kulturerbes. Anhand einer theoretischen und qualitativen Untersuchung mit Experteninterviews soll verdeutlicht werden, warum einige Kulturerbeinstitutionen wenig motiviert sind, ihre Sammlungen und Artefakte digital zu öffnen. Mit Hilfe von sieben Experteninterviews aus unterschiedlichen kulturellen Digitalisierungsbereichen soll erforscht werden, wo die Kulturerbedigitalisierung aktuell steht und welche Chancen und Risiken Digitalisierungsmaßnahmen fördern oder hemmen. Weiter werden die Ergebnisse geprüft, um daraus mobilisierende Maßnahmen zu erkennen.
Im Social Web wird der Gatekeeper zum Gatewatcher. Unternehmen können medial eigene Inhalte an die relevanten Bezugsgruppen vermitteln, ohne auf einen Gatekeeper angewiesen zu sein. Die Relevanz der Inhalte wird allerdings durch das Publikum bestimmt. Die Nachrichtenwerttheorie, die ursprünglich auf die Selektion von Journalisten von Nachrichten geprägt war, muss uminterpretiert werden, um aktuell zu bleiben. Welche Nachrichtenfaktoren bestimmen also die Interaktion des Publikums und sorgen für wahre Relevanz in den Sozialen Medien?
Zu einer Vielzahl von Vorlesungen gibt es Übungsaufgaben, anhand derer das theoretisch erlernte Wissen noch weiter vertieft, gefestigt oder praktisch angewandt werden kann. Klassischerweise erhalten alle Studierende hierfür dieselbe Aufgabe. Allerdings gibt es gute Gründe, für alle eine jeweils individualisierte Variante zu erstellen. Da es für eine einzelne Lehrperson unmöglich ist, für alle Studierenden individuelle Aufgaben zu konzipieren, wurden in anderen Arbeiten bereits Möglichkeiten entwickelt, variable Aufgaben zu formulieren, aus denen viele unterschiedliche Varianten generiert werden können. Diese Bachelorarbeit befasst sich mit dem Entwurf und der Implementierung eines Services, der diese Generierung automatisiert durchführen kann. Er soll unabhängig von einem konkreten Frontend sein und mit beliebigen Gradern zusammenarbeiten können.
Die Einführung von Discovery-Systemen in wissenschaftlichen Bibliotheken ist aktuell ein viel diskutiertes Thema in der deutschen Bibliothekslandschaft. In dieser Bachelorarbeit wird die konkrete Implementierung des Discovery-Systems in der Herzog August Bibliothek (HAB) in Wolfenbüttel betrachtet. Hierfür wird zunächst ein generelles Verständnis für Bibliothekskatalogsysteme geschaffen. Eine vergleichende Studie der Recherchequalität zwischen dem Discovery-System und dem bestehenden OPAC (Online Public Access Catalogue) wird durchgeführt, um zum einen Empfehlungen für notwendige Anpassungen an dem Discovery-System auszusprechen und zum anderen letztendlich eine Aussage über die Möglichkeit einer Abschaltung des OPACs zu treffen. Eine Abschaltung des OPACs ist aufgrund der Ergebnisse nur dann erfolgreich möglich, wenn die HAB ihre Viel- und Intensivnutzer in den Implementierungsprozess mit einbezieht und deren Anforderungen und Wünsche an das Discovery-System umsetzt. Die Studie zeigt, dass die Benutzer der HAB an den OPAC gewohnt sind und für die HAB daher die Herausforderung in der Akzeptanzschaffung für das neue System liegt.
Die vorliegende Arbeit befasst sich mit den Zielen sozialpädagogischer Intervention und Prävention im Spannungsfeld zwischen Individualität und sozialer Verbundenheit. Die Zielsetzung einer Intervention der Sozialen Arbeit basiert entscheidend auf ihrem theoretischen Verständnis, das auf sehr unterschiedlichen Ansätzen beruht. Je nach theoretischem Verständnis, wird der Auftrag bzw. werden die Aufträge formuliert und damit die Zielsetzung bestimmt. Die Auseinandersetzung soll durch die Konfrontation von Fabian Kessls Theorieansatz der Gouvernementalität Sozialer Arbeit und den kultursensitiven Erkenntnissen aus den Analysen von Alltagskulturen der Erziehung von Heidi Keller vollzogen werden.
Das Potenzial von Kessls Theorie der Gouvernementalität liegt in der Verbindung zwischen systematischen Analysen abstrakter politischer Rationalitäten und Führungsformen und den individuellen Alltags- und Selbstpraktiken, sowie der radikal (selbst-)kritischen Haltung und der unermüdlichen Herangehensweise, die Legitimationstraditionen sozialpädagogischer Interaktion zu analysieren und zu reflektieren. Die Arbeiten Kessls werden aber in (alltags-)kultureller Hinsicht nicht explizit genug reflektiert und bleiben daher im Spektrum westlicher (stark auf Kognition zentrierter) Autonomieorientierungen, in der Tradition der Aufklärung.
Durch die Konfrontation mit Kellers Modellen kultureller Alltagsstrategien, wird deutlich, wie weit das gesamte Spektrum möglicherweise ist und welche Anteile bisher wenig Beachtung gefunden hat. Dabei ist dies für Soziale Arbeit nicht nur interessant in Hinsicht auf Migrationsbewegungen. Interessant ist vor allem die Tatsache der Abhängigkeit vom formalen Bildungsniveau und dem sozioökonomischen Standard, die die Modelle der hierarchischen Verbundenheit und der psychologischen Autonomie für Soziale Arbeit im wohlfahrtsstaatlichen Arrangements beachtenswert macht. Allerdings fehlen in den Arbeiten von Keller die machtanalytischen Reflexionen, wodurch sich der Bogen zu Kessl wieder schließen lässt; nun auf einer (alltags-)kulturell erweiterten Ebene.
Die Konfrontation der beiden Ansätze knüpft an Analogien an, die sich in den Polen von Selbstbestimmung und sozialem Verwobensein widerspiegeln und in den Analysen der gesellschaftlichen Veränderungsphase seit den 1970er Jahren. Während Kessl das theoretisch-philosophische Fundament für das hier eingenommene Verständnis von Sozialer Arbeit bereitstellt, veranschaulichen Kellers Erkenntnisse die kulturelle Bedingtheit der von Kessl benannten dominierenden Denk-, Deutungs- und Handlungsweisen von Sozialer Arbeit im Bereich der Erziehung und Subjektwerdungs- prozesse. Mit den Erkenntnissen aus der Konfrontation der beiden Ansätze soll die machtanalytische Perspektive Sozialer Arbeit kultursensitiv erweitert werden und die Arbeiten von Heidi Keller für die Soziale Arbeit (machtanalytisch) fruchtbar gemacht werden.
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
Forschungsgegenstand der Bachelorarbeit ist der politisch gefärbte und direktiv gestaltete Aushandlungs- und Planungsprozess für die Bebauung eines zentralen innerstädtischen Platzes in Hannover. Entlang der Leitfrage, wie der demokratische Anspruch nach Bürger*innenbeteiligung in Stadtentwicklungsprozessen aus den Konzepten in die Umsetzung gelangt und welche Bevölkerungsgruppen in eben diesen Prozessen Ein- und Ausschlüsse erfahren, welche sie reproduzieren, finden eine mehrschichtige Verlaufsuntersuchung und eine Rückbindung in mögliche Betätigungsfelder der Sozialen Arbeit statt.
Der Bachelorarbeit vorangegangen ist ein Praxisseminar zur Gemeinwesenarbeit und Öffentlichkeit, in welchem eine Feldanalyse stattfand. Anhand von angekündigten leitfadengestützen Expert*inneninterviews und qualitativen Interviews auf dem besagten Platz kristallisierte sich die offensichtliche Unkenntnis der Passant*innen über die Bebauungspläne heraus: Ein von offizieller Seite betontes Beteiligungsverfahren zur Neugestaltung ist den Nutzer*innen vielfach nicht bekannt gewesen.
Methodisch wurde anhand des Governancekonzepts nach Baum (2012), Klöti (2016) und Walk (2011) und der „unternehmerischen Stadt“ nach Harvey (1989) die Einbindung von Sozialer Arbeit in Stadtentwicklungsprozesse analysiert. Ausgewertet wurden die Dokumentationen der Innenstadtforen im Rahmen des Policykonzepts „Hannover City 2020+“. Festzuhalten gilt, dass die zentrale Aufgabe der Sozialen Arbeit in diesem Zusammenhang benannt werden kann als die Thematisierung von sozialem Ausschluss (Anhorn & Bettinger 2005) und den hohen Voraussetzungen für den Zugang zu Beteiligung und Mitgestaltung des öffentlichen Raumes. Gezeigt wird, dass das erste Beteiligungsverfahren einer Scheinbeteiligung (Arnstein 1969) zur Legitimation von Ergebnissen aus Behörden- und Expert*innenenrunden diente; viele der eigentlichen Nutzer*innen des Platzes wurden nicht erreicht und beteiligt, da die Strukturen des Partizipationsangebotes zu hochschwellig und exklusiv angelegt waren. Es wird deutlich, dass die öffentlichen Verfahren bestenfalls der Information gedient haben.
Diese Arbeit ist ein Plädoyer für eine planungsbezogene Soziale Arbeit (Drilling & Oehler 2013), welche sich räumlich-reflexiv und aktiv in die Gestaltung und Planung von Stadt einbringt, anstatt nur im Nachhinein daraus entstandene Konflikte und Probleme wie Ausschluss und Verdrängung von Randgruppen zu bearbeiten. Im bisherigen Prozess hat Soziale Arbeit die Aufgabe, sich kritisch im Interesse der marginalisierten Nutzer*innengruppen einzubringen und advokatisch tätig zu sein, bzw. darüber hinaus diese dabei zu unterstützen sich wirkungsvoll einzubringen, nicht wahrgenommen. In dem kommenden Verfahren 2018 bietet sich die Chance einer inkludierenderen Beteiligung durch Methoden der Bürger*innenbeteiligung wie bspw. der Zukunftswerkstatt (Dienel 2011: 208ff) direkt auf dem Platz, in denen gegebenenfalls mehr Menschen zu Wort kommen als bei den bisherigen Verfahren.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.
Demografieorientiertes Personalmanagement in kleinen und mittleren wissenschaftlichen Bibliotheken
(2017)
Der demografische Wandel stellt für das Personalmanagement eine Herausforderung dar, mit der sich auch Bibliotheken auseinandersetzen müssen. Die vorliegende Arbeit setzt sich mit der Frage auseinander, welche Maßnahmen des Personalmanagements kleine und mittlere wissenschaftliche Bibliotheken anwenden und inwiefern sie damit auf den demografischen Wandel vorbereitet sind. Der erste Teil der Arbeit umfasst die theoretischen Grundlagen. Dafür werden zunächst die zentralen Begriffe demografischer Wandel, Personalmanagement sowie Personalentwicklung definiert. Anschließend werden Handlungsfelder sowie deren Bedeutung für ein demografieorientiertes Personalmanagement dargestellt. Diese umfassen die Altersstrukturanalyse, die Personalgewinnung, die Personalbindung, die Personalentwicklung, die Gesundheitsförderung und das Gesundheitsmanagement sowie den Wissenstransfer. Sie beinhalten außerdem auch Beispiele von Maßnahmen aus größeren wissenschaftlichen sowie öffentlichen Bibliotheken. Die aus einer Befragung gewonnenen Erkenntnisse über die Maßnahmen des Personalmanagements in kleinen und mittleren wissenschaftlichen Bibliotheken werden im zweiten Teil der Arbeit beschrieben. Abschließend werden anhand der theoretischen Grundlagen sowie der gewonnenen Erkenntnisse Handlungsempfehlungen für die Zielgruppe der kleinen und mittleren wissenschaftlichen Bibliotheken gegeben.
Die Digitalisierung birgt sowohl für den Unternehmer, als auch für den Kunden diverse Vorteile. Als Instrument zur Veranschaulichung dieser Vorteile dienen vor allem Service-Apps, welche bereits von großen Unternehmen beispielsweise zur Produktnachverfolgung etabliert wurden. Das Mittelstand 4.0 – Kompetenzzentrum Hannover legt den Fokus auf kleine und mittelständische Produktionsbetriebe und vermittelt das Potenzial der Digitalisierung im Rahmen von Industrie 4.0. Dies geschieht anhand einer Produktionslinie personalisierter Kugelschreiber und einer zu Demonstrationszwecken entwickelten App für mobile Endgeräte. Konzeptionierung, Entwicklung und Umsetzung dieser App werden genauestens aufgeführt und erläutert. Die App wurde unter dem Betriebssystem Android entwickelt und gliedert sich in sieben Phasen, beginnend mit der Anforderungsanalyse bis hin zur Veröffentlichung im Google Play Store. Während der Unternehmer die Möglichkeit geboten bekommt, Rückschlüsse als Entscheidungshilfe zur effizienteren Gestaltung der Produktion zu nutzen, ist der Kunde in der Lage, seine Aufträge echtzeitnah in der Produktion nachzuverfolgen und gegebenenfalls Änderungen vorzunehmen.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines generischen XML-Editors für das ProFormA-Aufgabenformat. ProFormA ermöglicht einen Aufgabenaustausch zwischen Hochschulen, Lernmanagementsystemen und Gradern. Aufgaben werden von Lehrkräften genutzt und für ihren individuellen Lehrkontext angepasst. Weil das manuelle Editieren von ProFormA-Aufgaben durch XML, Erweiterbarkeit und Komplexität des Formats erschwert wird, muss ein XML-Editor entwickelt werden, der generische Mechanismen implementiert, die das Anzeigen, Editieren, Hinzufügen und Entfernen von ProFormA- und Fremdformatelementen ermöglichen.
Metriken und Leistungskennzahlen zur Steuerung eines Startups mit einem Abonnement-Geschäftsmodell
(2017)
Diese Ausarbeitung schlüsselt wesentliche Metriken und Kennzahlen für Startups mit Abonnement-Geschäftsmodellen auf. Der Schwerpunkt liegt auf der Erklärung von Kennzahlen, welche innerhalb von neu gegründeten Startups mit einem Abonnement-Geschäftsmodell Anwendung finden sollten. Nach Einführung in die terminologischen Grundlagen, also nachdem die Begriffe Startup, Abonnement-Geschäftsmodelle und die Grundlagen von Kennzahlen erklärt wurden, werden zahlreiche Kennzahlen wie beispielsweise Average Revenue per User, Customer Churn Rate oder Customer Lifetime Value im Detail erklärt und anhand von Beispielrechnungen nahegebracht.
Open Educational Resources (OER) sind sich in Deutschland bisher hauptsächlich im Bereich der schulischen Bildung im Gespräch. Ihr Potential innerhalb der deutschen Hochschullehre wurde zwar bereits erkannt, wird aber bisher noch nicht genutzt.
Die Arbeit gibt einen Überblick über die terminologischen Grundlagen von OER und ihren Entwicklungsmöglichkeiten im Hochschulbereich. In einer Zusammenfassung werden die Förderung von OER durch die Europäische Kommission und in Deutschland, sowie ihre Entwicklung im deutschen Hochschulbereich dargestellt. In einem theoretischen Abgleich aktueller Studien und Fachliteratur wird eine Bestandsaufnahme zu neuen Aufgabenbereichen für Wissenschaftlicher Bibliotheken durch OER durchgeführt.
Eine Expertenbefragung, die beispielhaft unter Lehrenden der Leibniz Universität Hannover (LUH) durchgeführt wurde, gibt Aufschluss über deren aktuellen Nutzungsstand von OER. Die wird ergänzt durch eine Untersuchung zweier Sharingdienste (Zenodo und SlideShare) nach freien Lehrmaterialien von Angehörigen der LUH.
Abschließend werden auf der Basis der theoretischen Möglichkeiten sowie der individuellen Bedürfnisse der Lehrenden Empfehlungen für neue Dienstleistungen und Serviceangebote Wissenschaftlicher Bibliotheken zur Unterstützung der Hochschulen bei der Einführung, Herstellung und Verbreitung von OER am Beispiel der Technischen Informationsbibliothek Hannover (TIB) gegeben, sowie neue Aufgabenbereiche für Hochschulbibliotheken skizziert, die sich daraus ergeben.