Refine
Year of publication
Document Type
- Bachelor Thesis (148) (remove)
Has Fulltext
- yes (148)
Is part of the Bibliography
- no (148)
Keywords
- Benutzerfreundlichkeit (12)
- Bibliothek (11)
- Öffentliche Bibliothek (11)
- Usability (9)
- Wissenschaftliche Bibliothek (8)
- Digitalisierung (7)
- Marketing (7)
- Wissensmanagement (7)
- Soziale Software (6)
- Informationskompetenz (5)
Die Gewaltschutzarbeit mit Betroffenen, die auf das Asylsystem angewiesen sind, birgt regelmäßig widersprüchliche Logiken: Feministische Systemkritik an patriarchalen gesellschaftlichen Strukturen stößt auf die primär funktionale Logik institutionalisierter Sozialer Arbeit. Diese mehrheitlich von einer weißen# Dominanzgesellschaft bestimmten unterstützungsgebenden Strukturen, reproduzieren strukturelle sowie institutionelle Alltagsrassismen und vervielfältigen somit soziale Ungleichheit. Feministische Arbeit zeichnet sich jedoch durch den Abbau eben dieser aus. Entsprechend ist das Thematisieren von intersektionalen Unterdrückungsstrukturen, die sich gegenseitig verstärken für eine feministisch orientierte Frauen*hausarbeit obligatorisch.
Es geht in der Frauen*hausarbeit nicht mehr nur um das Schaffen eines Schutzraumes, sondern um viele weitere Aspekte die z. T. auf den ersten Blick diffus wirken. Umso wichtiger scheint es, sich mit aktuellem sozialarbeiterischem Fachwissen auseinanderzusetzen, damit die kritisch feministische Arbeit den erwünschten Effekt erzielt. Was genau dieser Effekt sein soll und kann, könnte durch ein adäquates Konzept zur Qualitätssicherung gemeinsam mit den beteiligten Akteur*innen bestimmt werden.
In dieser Untersuchung wird der Frage nachgegangen mit welchen Mitteln eine Qualitätssicherung aus der Perspektive eines rassismuskritisch systemischen Professionsverständnisses in Autonomen Frauenhäusern dauerhaft unter Berücksichtigung der Souveränität gelingen kann.
In dieser Bachelorarbeit werden zwei Ziele verfolgt. Ein Ziel ist es anhand einer Karriere-Seite mit einem Bewerbungsformular einzuordnen, ob die Gestaltung dieser mit der mobile-first Philosophie einen Einfluss auf die Usability und bezüglich der Benutzbarkeit von Interaktionselementen im Desktop-Kontext hat. Ein weiteres Ziel ist, bedingt durch die COVID-19 Pandemie, eine prototypische Software-Lösung zu entwickeln, welche den kompletten Lösungsversuch im Rahmen eines Usability-Tests einer Versuchsperson inklusive der Blickpositionen, ohne den Einsatz spezieller Hardware, aufnimmt und diese Aufnahme für eine Auswertung auch wieder abspielen kann.
Die Arbeit setzt sich dabei aus zwei praktischen Teilen zusammen. Der erste Teil umfasst die Konzeption und Entwicklung der Karriere-Seite unter Einsatz der mobile-first Philosophie für das betreuende Unternehmen, frobese GmbH. Im zweiten Teil der Arbeit wird die Auswirkung der mobile-first Philosophie auf die Usability im Desktop-Kontext empirisch untersucht. Dies geschieht im Rahmen eines remote Usability-Tests mithilfe der dafür entwickelten Software-Lösung. Diese nimmt die Lösungsversuche mitsamt der Blickpositionen der Versuchspersonen auf und fordert sie anschließend auf, einen Fragebogen auszufüllen. Abschließend werden die Ergebnisse, der Versuchsaufbau und die Ergebnisse kritisch gewürdigt.
Der remote Usability-Test im zweiten Teil der Arbeit wurde mit insgesamt 30 Versuchspersonen durchgeführt. Sie wurden dabei in zwei Gruppen aufgeteilt, eine mobile Gruppe und eine Desktop Gruppe. Im Rahmen des Usability-Tests mussten sie eine Aufgabe auf der prototypischen Karriere-Seite vom ersten praktischen Teil dieser Arbeit erledigen. Die entwickelte remote Lösung erlaubte auch unter Pandemiebedingungen eine einfache Rekrutierung der Versuchspersonen und Durchführung der Versuche. Mithilfe eines Auswertungs-Clients konnten die Versuchsaufnahmen im Nachhinein wieder abgespielt werden und in Form von Heatmaps visualisiert werden. Die Auswertung zeigte, dass mithilfe der mobile-first Philosophie eine exzellente Usability im mobilen Kontext erreicht werden konnte, die sich auch auf den Desktop übertragen hat. Es konnte aber auch ein signifikanter Unterschied in den Bearbeitungszeiten zwischen beiden Gruppen festgestellt werden. Hier konnten die Versuchsaufnahmen Indizien auf die Ursachen dieser Diskrepanz geben.
Öffentliche Bibliotheken sind in der Digitalen Bildung von großer Bedeutung. Sie vermitteln digitale Kompetenzen, nutzen zunehmend neue Technologien und verleihen digitale Medien. Die Arbeit befasst sich mit der Förderung und Finanzierung digitaler Angebote in Bibliotheken. Zu Beginn wird ein Überblick über die Bibliotheksgesetzgebung in Deutschland gegeben. In diesem Zusammenhang wird die Forderung der Bibliotheken nach einer Normierung zur Pflichtaufgabe für Kommunen erörtert und ein Vergleich mit den europäischen Ländern Dänemark und Finnland gezogen. Eine Untersuchung der Drittmittelförderung auf Landesebene, Bundesebene und der Europäischen Kommission zeigt die Verortung der Bibliotheken in Förderprogrammen auf. Im Anschluss werden anhand von Best-Practice-Beispielen alternative Finanzierungsmöglichkeiten dargestellt. Meinungen von Vertretern aus Bibliotheken weisen auf die Vorteile und Nachteile von Drittmittelförderung, Fundraising, Rechtsformwechsel, Integration in die Stadtentwicklung oder die Entwicklung von Bibliothekskonzeptionen, Bibliotheksentwicklungsplänen sowie die Regelung durch Kulturfördergesetze hin. Ausgehend von den Ergebnissen der untersuchten Finanzierungmöglichkeiten wird abschließend die Notwendigkeit von Bibliotheksgesetzen diskutiert. Hieraus ergibt sich, dass Bibliotheksgesetze für eine einheitliche und zukunftsfähige Entwicklung der Bibliotheken in der Digitalen Bildung notwendig sind. Zugleich wird deutlich, dass die derzeit bestehenden Gesetze diese Anforderungen nicht leisten.
Die Bachelorarbeit befasst sich mit dem Generieren kurzer fröhlicher und harmonischer Musikstücke mittels des Einsatzes genetischer Algorithmen. Dabei werden die Evolutionsprozesse der Biologie nachgeahmt. In der Programmiersprache Java, unter der Verwendung der Open-Source-Programmierbibliothek JFugue, sind dafür die einzelnen Zyklusphasen entworfen und implementiert worden.
Die Vereinigung der Biologie, der Kunst und der Informatik wird damit erreicht, um etwas ästhetisch Wirksames zu schaffen und stellt den besonderen Reiz der Arbeit dar.
In dieser Arbeit wurde ein System entwickelt, welches Übungsaufgaben der relationalen Algebra automatisch auswertet und dies in Form einer Punktevergabe bewertet. Darüber hinaus ist das System in der Lage lernunterstützende Feedbacks zu generieren. Dadurch sollen Studierende, die im Rahmen der Datenbank-Vorlesung relationale Algebra lernen, eine korrekte und optimierte Sprachanwendung im Bereich der relationalen Algebra lernen.
Ein großer Teil der deutschen Bevölkerung nutzt täglich den öffentlichen Nahverkehr, um von A nach B zu kommen. Gerade in Städten existiert meist bereits ein großes Netz an Haltestellen und umfangreichen Fahrplänen. Da sich die Wenigsten diese auf Dauer in ihrer Gesamtheit merken können, wird heutzutage oft auf mobile Apps zurückgegriffen, die schnell und zuverlässig personalisierte Verbindungen anzeigen können. Diese „Fahrplan-Apps“ können unter anderem auch von sogenannten „digitalen Sprachassistenten“ gesteuert und verwendet werden. Einige der deutschen Bus- und Bahnhaltestellennamen sind dabei für Sprachassistenten schwierig zu verarbeiten, weil sie etwa Personennamen enthalten, die nicht geläufig in der deutschen Sprache sind (z.B. „Podbielskistraße“ oder „Poccistraße“), oder aus ihrer Schreibweise keine eindeutige Aussprache abgeleitet werden kann (z.B. „Aegidientorplatz“). Dies kann zu Problemen führen, wenn beispielsweise die Aussprache einer Haltestelle von dem Sprachassistenten nicht erkannt oder falsch erkannt wird und dieser deshalb keine zufriedenstellende Fahrplanauskunft geben kann.
Hierzu sollte eine Lösung entwickelt werden, die Nutzer*innen dazu motiviert, bei der Verbesserung der Aussprache von Haltestellennamen durch Sprachassistenten mitzuhelfen. Der erste Schritt ist hierbei, dass die Nutzer*innen verifizieren, ob die Aussprache einer Haltestelle richtig oder falsch ist. Wird sie als falsch bewertet, folgt zusätzlich der zweite Schritt: Die Nutzer*innen können zusätzlich die richtige Aussprache übermitteln.
In der Bachelorarbeit sollte also eine Incentivierungsmethode für diese beiden Schritte entwickelt werden. Die Softwarelösung sollte eine zusätzliche Funktion in der von der Projektionisten GmbH entwickelten Fahrplan-App "naNah" darstellen. Außerdem sollte der Fokus der Arbeit auf der Konzeption des Softwaremoduls liegen, da die Benutzerfreundlichkeit und das Interaktionsdesign einen erheblichen Einfluss auf die Wirksamkeit der Incentivierungsmethode hat.
Dazu wurden zunächst Interviews mit potenziellen Nutzer*innen sowie eine Umfrage durchgeführt. Die jeweiligen Ergebnisse wurden als Grundlage für die nächsten Konzeptionsschritte verwendet. Es wurden hieraus vorläufige Bedürfnisse und Anforderungen formuliert und Zielgruppen abgeleitet. Hieraus wurden wiederum Personas erstellt. Anschließend wurden passende User Journeys und User Stories entwickelt.
Im nächsten Schritt wurde eine Wettbewerbsanalyse durchgeführt, in der die Vor- und Nachteile anderer ähnlicher Software herausgearbeitet und für die weitere Entwicklung der eigenen Software bedacht wurden.
Nach der Ausarbeitung von Design- sowie technischen Anforderungen wurde ein Prototyp erstellt. Dazu wurde die bis hierhin herausgearbeitete Lösungsidee mithilfe von Skizzen veranschaulicht. Um die Idee detaillierter sowie wahrheitsgetreu darstellen zu können, wurde außerdem ein klickbares Mock-up erstellt, das den inhaltlichen Aufbau der Software hervorhebt. Anschließend wurde dessen Eignung mit einem Usability-Test überprüft und es wurden aus diesem folgende Verbesserungen an dem Clickdummy ausgeführt, sodass am Ende ein ausgereifter Prototyp vorlag. Dieser wurde schließlich in seinen Grundzügen technisch implementiert.
Das Ergebnis der Bachelorarbeit ist eine konzeptionell vollständig ausgearbeitete Softwarelösung sowie ein Proof of Concept.
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
Im Zuge des Zweiten Weltkrieges wurden zahlreiche sowjetische Museen, Archive und Bibliotheken ausgeraubt oder zerstört. Als Antwort auf diese Schäden wurden im Februar 1945 seitens der Sowjetregierung die sog. Trophäenbrigaden gegründet, die mit der Ausfuhr der deutschen Kulturgüter als Kompensation für entstandene Verluste beauftragt waren. Entgegen der Vereinbarungen der Potsdamer Konferenz, die solche Konfiskationen nur in Ausnahmsfällen erlaubte, organisierten die sowjetischen Besatzer flächendeckende Beschlagnahmungen und Abtransporte der deutschen Kulturgüter als Kriegsbeute in die UdSSR. Die vorliegende Arbeit untersucht den sowjetischen Kunst- und Kulturraub im besetzten Deutschland. Eine besondere Aufmerksamkeit wird den Konfiskationen der deutschen Bücher und deren Verteilung in die sowjetischen Bibliotheken gewidmet. Am Ende der Arbeit soll ein Überblick über die komplizierten deutsch-russischen Restitutionsverhandlungen, die bis heute zu keinem Ergebnis geführt haben, gegeben werden.
Der Autobewerter Graja, der in der Lehre zum Bewerten studentischer Java-Programme verwendet wird, stellt ein komplexes Softwaresystem dar. Aufgrund einer kaum vorhandenen Testabdeckung durch Modul- und Integrationstests, ist die Gewährleistung der fehlerfreien Funktionalität in Hinsicht auf die Weiterentwicklung nicht garantiert. Da sich Graja auf das ProFormA-Aufgabenformat stützt, stellt sich die Frage, inwiefern sich die im ProFormA-Aufgabenformat vorausgesetzten Musterlösungen, für einen automatisierten Regressionstestmechanismus eignen.
Das Ziel dieser Forschung ist es ein Konzept, für einen solchen Regressionstestmechanismus zu erstellen und mithilfe einer Referenzimplementierung als Graja-Erweiterung in die Praxis umzusetzen. Der daraus entstandene Mechanismus operiert durch Verhaltensaufzeichnung und Verhaltensabgleich und konvertiert so das in Graja beobachtete Bewertungsverhalten einer Musterlösung in einen Testfall. In der Testphase findet anschließend ein Abgleich des Soll-Verhaltens eines Testfalls und des beobachteten Ist-Verhaltens einer Musterlösung statt. Die Differenzen dieses Abgleichs sind als potenzielle Regressionen zu behandeln, da diese eine semantische Änderung des Bewertungsergebnisses darstellen.
Um diesen Verhaltensabgleich robust und mit möglichst wenigen Fehlalarme zu realisieren, wurden die in Graja verwendeten Datenmodelle auf Eignung bezüglich einer Verhaltensaufzeichnung untersucht. Außerdem fand eine Datenaufzeichnung mit einer Teilmenge der Musterlösungen statt. Nachfolgend wurde eine Analyse dieser Rohdaten, mit dem Ziel potenzielles Rauschen innerhalb der Aufzeichnungen zu detektieren, durchgeführt. So konnte letztendlich eine Strategie für eine Rauschunterdrückung innerhalb der Verhaltensaufzeichnung entwickelt werden.
Abschließend wurde ein Datenmodell entwickelt, das erlaubt, die durch den Verhaltensabgleich detektierten Regressionen verständlich und lokalisierbar darzustellen. Der durch diese Arbeit entstandene automatisierte Regressionstestmechanismus stellt somit eine Grundlage für die Gewährleistung der korrekten Bewertungsfunktionalität innerhalb des Graja-Entwicklungsprozesses dar. Durch das Detektieren von Regressionen mithilfe der Musterlösungen, lassen sich nun Änderungen an Graja gewissenhaft in eine Produktionsumgebung übernehmen.
Die Nutzung von Messenger-Diensten hat die Nutzung von sozialen Medien übertroffen. Diese Mediennutzung bringt veränderte Erwartungen an Unternehmen mit sich. Unternehmen begegnen den Erwartungen ihrer Kund*innen in der Online-Kundenkommunikation mit dem Einsatz textbasierter Dialogsysteme. Im Facebook-Messenger wurden 2018 bereits über 300.000 Chatbots angeboten. Das Problem ist, dass Studien seit mehreren Jahren aufzeigen, dass diese Kommunikationstechnologie sich bei den Kund*innen noch nicht durchgesetzt hat und häufig noch skeptisch betrachtet wird. Für Unternehmen ist es daher notwendig zu verstehen, welche Kriterien erfüllt sein müssen, um die Akzeptanzbildung der Kund*innen gegenüber textbasierten Dialogsystemen positiv zu beeinflussen.
Das Ziel dieser Arbeit ist es zu betrachten, inwiefern die Eigenschaften textbasierter Dialogsysteme die Akzeptanzkriterien der Kund*innen erfüllen können. Dazu wird die folgende Forschungsfrage gestellt: Wie akzeptieren Kunden den Einsatz textbasierter Dialogsysteme in der Online-Kundenkommunikation von Unternehmen?
Um die Forschungsfrage zu beantworten, wird eine Literaturanalyse durchgeführt. Die Literatur wird mit Studienergebnissen verglichen, um Übereinstimmungen und Abweichungen herauszuarbeiten.
Eine Akzeptanzanalyse hat ergeben, dass Kund*innen textbasierte Dialogsysteme vor allem akzeptieren, wenn sie darin einen Nutzen erkennen. Jedoch beeinflussen neben nutzenorientierten Faktoren auch emotionale Faktoren die Akzeptanz.
Auf dieser Grundlage ist es empfehlenswert, positive und negative Einflussfaktoren des Akzeptanzprozesses zu identifizieren und die Gestaltung textbasierter Dialogsysteme an die Kund*innen anzupassen, bevor diese eingesetzt werden.
Unter Crowdsensing versteht man Anwendungen, in denen Sensordaten kollaborativ von einer Menge von Freiwilligen erhoben werden. So kann Crowdsensing eingesetzt werden um die Luftqualität an Orten zu messen, an denen keine fest installierten Sensoren verfügbar sind. In Crowdsensing-Systemen müssen die Teilnehmer koordiniert und die Messdaten verarbeitet werden, um relevante Daten zu erhalten. Im Rahmen der Abschlussarbeit wurde ein System konzipiert und prototypisch umgesetzt, das auf einem Raspberry Pi (unter Einsatz geeigneter Sensoren) Sensordaten erhebt und mit der Complex Event Processing Technologie verarbeitet.
Plugins erweitern die Funktionalität von WordPress und helfen Webseitenbetreibern beim Hinzufügen neuer Elemente oder Funktionen. Dabei muss der Betreiber selbst keinen komplexen Programmcode schreiben. Auch können diese Erweiterungen als Erleichterung bei der Pflege von Informationen und Inhalten dienen. In der vorliegenden Bachelorarbeit wird die Konzipierung, Umsetzung und Anwendung eines solchen Plugins für den Vergleich von Veranstaltungen beschrieben. Dabei findet es Anwendung auf einer Internetseite zum Thema Festivals. Die Informationen bezüglich der Festivals werden per Import in einer Tabelle gespeichert und für den Vergleich dargestellt. Eintragungen können auch händisch getätigt werden, woraus sich schließlich ergibt, dass das Plugin mit seiner Importfunktion eine zeitsparende und sinnvolle Erweiterung ist.
Zur Verbesserung der IT-Sicherheit im klassischen Büroumfeld wird bereits eine neue Firewall-Technologie, die sogenannte Next Generation Firewall verwendet. Um diese Technologie im Produktionsbereich einzusetzen, muss sie vorher getestet werden, da sich die Priorisierung der Schutzziele im Produktionsbereich und im Büroumfeld unterscheidet. In dieser Arbeit werden das Einsatzgebiet und die Wirkungsweise von Firewalls in industriellen Automatisierungssystemen im Allgemeinen und spezifisch für Next Generation Firewalls untersucht. Die Untersuchung geht auf die Aufgaben der einzelnen Firewalls in einem Produktionsunternehmen ein und prüft, welche Firewall durch eine Next Generation Firewall ergänzt werden kann. Dazu werden die konventionellen Firewall-Technologien mit der neuen Firewall-Technologie verglichen und bewertet. Der Nutzen der Next Generation Firewall in der Produktionsumgebung wird am Beispiel eines ausgewählten Angriffsszenarios erklärt. Abschließend werden Empfehlungen für dessen Einsatz in industriellen Automatisierungssystemen gegeben.
Das Ziel dieser Bachelorarbeit ist es, ein einfach verständliches Simulationsmodell zur Darstellung der Wirkung von Kabelschirmen bei Betrachtung verschiedener Schirmauflageverfahren zu entwickeln. Die erarbeiteten Ergebnisse decken sich mit der allgemein vertretenen Meinung, dass die beste Schirmwirkung durch eine beidseitige und flächige Schirmauflage erzielt wird. Zuerst werden Grundlagen erklärt, wobei sich auf relevante Literatur bezogen wird. Daraus wird das Simulationsmodell hergeleitet, dessen Ergebnisse anhand von theoretischen Überlegungen und praktischen Messungen überprüft werden. Die vorliegende Arbeit ist interessant für Ingenieurinnen und Ingenieure der Automatisierungstechnik in der Prozess- und Fertigungsindustrie, die ein grundlegendes Verständnis für relevante Effekte der Kabelschirmung bilden wollen.
Die Gesellschaft ist geprägt von einem zunehmenden Bedürfnis nach Mitbestimmung und damit auch Beteiligung. In Zeiten mangelnder Wohnangebote ist das Interesse besonders groß, wenn bedeutsame Baumaßnahmen thematisiert werden und große Veränderungen mit sich bringen.
Die positive Resonanz auf innerstädtische Immobilienprojekte ist alles andere als selbstverständlich, dabei liegen die Interessen häufig eng beieinander. "Man wird natürlich nie alle zufriedenstellen können" aber häufig mangelt es an ausreichender Kommunikation und Aufklärungsarbeit.
Die Wissenschaftsarbeit beschäftigt sich mit der Frage, welche Ansprüche an Bürgerkommunikation bestehen und welche Chancen sich daraus für die Kommunikation von Bauprojekten ergeben. Daraus resultiert ein Lösungsansatz für die Immobilien-Public-Relations (PR).
Vergleich von nativer App- und Cross-Platform-Entwicklung (Facebook React Native und Google Flutter)
(2020)
Die Entwicklung mobiler Applikationen für iOS und Android ist in der Regel mit viel Arbeit verbunden, da man für beide Plattformen gezwungenermaßen unterschiedlichen Quelltext schreiben muss. Abhilfe für dieses Problem schaffen Cross-Platform-Frameworks wie React Native von Facebook oder Flutter von Google. Anhand dieser Frameworks lassen sich Apps für beide Plattformen mit nur einer Codebase entwickeln. Eine kritische Stelle und oft gebrauchtes Kontra-Argument gegen die Entwicklung mit Cross-Platform-Frameworks ist die Hardwarenähe der nativen Applikationen, an welcher es den Frameworks vermeintlich mangelt. Doch wie ist der Stand der Dinge im Jahr 2020? Können Cross-Platform-Frameworks inzwischen performant und einfach auf Hardwarekomponenten zugreifen und machen damit die mühsame, native Entwicklung für iOS und Android vor allem in Anbetracht der Entwicklung von größerer Enterprise-Software obsolet?
Dieser Frage wird in dieser Arbeit nachgegangen und generell überprüft wie tauglich die Cross-Platform-Entwicklung ist. Nach dem Lesen dieser Bachelorarbeit sollte entschieden werden können, ob Cross-Platform-Frameworks für das Anwendungsproblem des Lesers geeignet sind. Um die Forschungsfrage zu beantworten, wurden je zwei Applikationen im Rahmen einer Fallstudie für je iOS und Android entwickelt, damit geprüft werden konnte, wie förderlich die zuvor genannten Frameworks sind. Der Fokus der Arbeit liegt also auf der Güte bzw. dem heutigen Stand der Cross-Platform-Entwicklung, vor allem im Bezug auf die Benutzung von Hardwarekomponenten bzw. betriebssystemspezifischen Diensten (Bluetooth, Kamera, etc.).
Die Ergebnisse der Fallstudie zeigen, dass es stets auf den Kontext und die Komplexität der zu realisierenden Anwendung ankommt inwiefern Cross-Platform-Frameworks verwendet werden können. In simplen Anwendungsfällen können Frameworks meist zu einer erheblichen Kostenminimierung und Zeitersparnis führen, wohingegen bei komplexeren Anwendungen relativ schnell Grenzen und starke Abhängigkeiten erreicht werden.
Der ständige Wandel der Gesellschaft hinsichtlich der Bedürfnisse und Arbeitsgewohnheiten, stellt eine Herausforderung dar, mit der sich auch Behördenbibliotheken auseinandersetzen müssen. Diese stetigen Veränderungen führen zu einem erhöhten Innovationsbedarf in diesen Bibliotheken. Die Arbeit setzt sich mit zwei möglichen nutzerorientierten Innovationsmethoden auseinander. Jene können dazu beitragen, dass die veränderten Bedürfnisse der Bibliotheksnutzer unmittelbar in Innovationsprojekte der Behördenbibliotheken mit einfließen. Im ersten Teil der Arbeit werden die theoretischen Grundlagen von Innovationen sowie der zwei Methoden, Open Innovation und Design Thinking, dargestellt. Open Innovation und Design Thinking werden darüber hinaus anhand von Praxisbeispielen aus Bibliotheken näher erläutert. Außerdem werden sowohl die Aufgaben als auch die allgemeinen Herausforderungen in Behördenbibliotheken dargestellt. Im zweiten Teil der Arbeit wird die durchgeführte empirische Untersuchung beschrieben, die einen Aufschluss über den aktuellen Stand von Innovationen in Behördenbibliotheken geben soll. Abschließend werden, anhand der theoretischen Grundlagen sowie der gewonnenen Erkenntnisse, Erfolgskriterien und Handlungsempfehlungen für die Durchführung von nutzerintegrierten Innovationsprojekten für Behördenbibliotheken gegeben.
Durch den Wandel des bibliothekarischen Selbstverständnisses zum zunehmend wirtschaftlich geführten Dienstleistungsbetrieb gewinnt die Nutzerorientierung im Bibliothekssektor an Bedeutung. Insbesondere Nutzerzufriedenheit ist in diesem Kontext ein wichtiges Ziel von zukunftsorientierten Bibliotheken. Für die Bibliothek der Hochschule Hannover ist aus diesem Grund im Mai 2020 eine empirische Zufriedenheitsstudie unter den Mitgliedern der Hochschule durchgeführt worden. Es wurden Nutzungseigenschaften sowie Ansichten bezüglich Dienstleistungen, Lokalitäten und Gesamteindrücken erhoben. Ergänzend zur Auswertung dieser Ergebnisse wird in dieser Arbeit ein Vergleich mit denen der bis dato jüngsten Zufriedenheitsstudie von 2009 gezogen. Ziel der onlinebasierten Befragung sowie des Vergleichs ist die Ermittlung von Nutzerbedürfnissen und Kritikpunkten, um eine fundierte
Entwicklungsempfehlung für die Bibliothek erstellen zu können. Maßnahmen, die auf dieser Empfehlung basieren, sollen eine Steigerung der Nutzerzufriedenheit ermöglichen. Die Analyse der Antworten lässt vor allem auf einen Mangel des selbstständigen Informierens über die Angebote der Bibliothek sowie deren Nutzung für das wissenschaftliche Arbeiten schließen. Daher werden insbesondere eine Verbesserung der aktiven Kommunikation mit den Zielgruppen und die Förderung der Informationskompetenz der Nutzer empfohlen.
Die Bachelorarbeit "Content-Strategien im Luxusmodemarketing" befasst sich mit den jeweiligen Besonderheiten von Content-Strategie und Luxusmodemarketing. Diese Ansatzpunkte werden zur Hilfe genommen, um die jeweiligen Disziplinen aufeinander zu beziehen. Dabei spielen bei der Content-Strategie die Faktoren Zielgruppe, Zeitpunkt, Inhalt, Kanäle und Formate eine übergeordnete Rolle, während im Luxusmodemarketing die Symbolkraft der Marke, die Saisonalität der Mode, die Visualität sowie die Akzeptanz seitens des Konsumenten von Bedeutung sind. Mithilfe dieser Kernaspekte, die in dieser Arbeit anhand von Theorien und Modellen untersucht werden, können Bezugspunkte zu den beiden Disziplinen hergestellt werden.
Der Theorieteil erläutert diese Facetten und arbeitet heraus, welche genauen Muster innerhalb der Content-Strategie sowie des Luxusmodemarketings vorliegen. Schließlich beschreibt der Anwendungsteil, wie die relevanten Zielgruppen, die passenden Inhalte, der richtige Zeitpunkt, die erforderlichen Kanäle und die angemessenen Formate auszusehen haben, um eine Content-Strategie erfolgreich im Luxusmodemarketing zu implementieren. Diese Arbeit versucht dies anhand der gewonnenen theoretischen Erkenntnisse sowie entsprechenden Praxisbeispielen näher zu betrachten.
Die Nutzerverfolgung im Internet durch die Verwendung von Browsercookies ist gängige Praxis, doch haben diverse datenschutzrechtliche Entwicklungen der letzten Jahre zugunsten der Verbraucher diese Form des Trackings in vielerlei Hinsicht eingeschränkt und auch die Usability von Websites maßgeblich beeinträchtigt. Um weiterhin eine Personalisierung von Werbung und anderen Inhalten unter Wahrung der Nutzbarkeit und Rechte der Nutzer zu gewährleisten, ist es unausweichlich, eine neue Methode zur Identifizierung von Besuchern zu etablieren. Das Ziel dieser Arbeit ist, verschiedene Trackingtechnologien unter Berücksichtigung gegebener Rahmenbedingungen im Rechtsraum der Europäischen Union in ihrer Funktionsweise zu vergleichen und die nach derzeitigem Stand realistische Nachfolgetechnologie zum Tracking via Cookies zu benennen – Fingerprinting. Dieses überzeugt in Bezug auf seine Langlebigkeit und rechtliche Vereinbarkeit, den Implementierungsaufwand sowie den Umfang der sammelbaren Daten. Darauf aufbauend ist eine statistische Untersuchung zur Verbreitung von Methoden aus dem Feld des Fingerprintings auf den meistgenutzten Internetseiten durchgeführt worden. Dabei ergibt sich, dass Informationen, die zur Erstellung eines Fingerprints genutzt werden können, von fast allen Websites abgefragt werden, jedoch durchschnittlich nur wenige verschiedene Arten von Fingerprints genutzt werden. Auf einigen Websites werden durch größere dritte Unternehmen Fingerprints erfasst, der Opt-in-Status hingegen hat in den meisten Fällen für die Praktizierung von Fingerprinting keine Relevanz. Da Fingerprinting auch für schädliche Zwecke, zum Beispiel das Verteilen von potenterer Schadsoftware, verwendet werden kann, ist die Reaktion von Browserentwicklern und -nutzern auf die Entwicklung von derzeitigen und zukünftigen Fingerprintingkonzepten ungewiss, und auch die rechtliche Lage der nächste Jahre hängt von angekündigten Verordnungen ab, die in ihrem Inhalt noch nicht bekannt sind.
Die vorliegende Arbeit befasst sich mit dem Trend "Gamification" und untersucht an Hand einer Szenario-Analyse, wie sich der Trend auf die Standgestaltung der B2B-Messen im Jahr 2030 auswirken wird.
Hierfür wurde intensive Literaturrecherche betrieben zu den Kernthemen: Gamification, Design, B2B-Messe und Trends im Messewesen.
Nach einer Auswertung dieser Themen in Bezug auf deren Kernelemente und Schlüsselkombinationen wurden 15 Zukunftsprojektionen erstellt, welche anschließend in 3 Szenarien zu Zukunftsbildern ausformuliert wurden.
Fazit der Arbeit ist, dass der Trend Gamification zwar an Bedeutung gewinnt, das Standdesign jedoch nur geringfügig beeinflussen wird. Andere Trendthemen wie Nachhaltigkeit, Sicherheit und die generelle Digitalisierung sowie ein Drang zu Kommunikation werden stärkeren Einfluss auf die Zukunft des Messewesens, und dadurch auch die Standgestaltung bei B2B-Messen, nehmen.
Bibliotheken sind Lernorte. Der interne Organisationsaufbau von Bibliotheken weist hingegen bisher wenige Strukturen einer Lernenden Organisation auf. Um die Bereitstellung von Medien und Informationen für Bibliotheksnutzer aufrechtzuerhalten und stetig an deren Bedürfnissen auszurichten (z. B. im Kontext der fortschreitenden Digitalisierung), bedarf es eines gut ausgebildeten Bibliothekspersonals. Klassische Fortbildungskonzepte gehören ebenso dazu, wie der kontinuierliche, persönliche Lernprozess eines jeden Bibliotheksmitarbeiters. Die Methode „Working Out Loud“ kann eingesetzt werden, um diese persönlichen Fähigkeiten auszubauen und eine agile Arbeitsweise anzuregen. Daher wird überprüft, inwiefern Working Out Loud die Lernende Organisation unterstützen kann. Zunächst wird die Methode Working Out Loud und deren Anwendung bei Unternehmen vorgestellt. Dann werden die Kennzeichen von Lernenden Organisationen definiert und auf Bibliotheken angewandt. Angeschlossen wird eine Betrachtung des zwölf Wochenprogramms von Working Out Loud und deren Potential zur Unterstützung der Lernenden Bibliothek. Working Out Loud vermittelt Bibliotheksmitarbeitern durch gezielte Übungen eine offenere Arbeitseinstellung, die sie mit ihren Kollegen innerhalb und außerhalb der Bibliothek zu teilen lernen.
In der vorliegenden Bachelorarbeit wird thematisiert, wie Coding zu Zwecken der sich im Umbruch befindenden MINT-Bildung eingesetzt werden kann und welche Kompetenzen durch das Erlernen von Programmierfähigkeiten gefördert werden. Darüber hinaus wird ein Bezug zur Informatik als Herkunftswissenschaft des Coding hergestellt und die Relevanz einer frühzeitigen Aneignung von Programmierfähigkeiten in einer digitalen Gesellschaft beleuchtet. Eine Analyse der webbasierten Programmierplattformen Open Roberta Lab, Scratch, Sprite Lab von Code.org und TurtleCoder, die zur Vermittlung von Programmier-fähigkeiten bei Kindern genutzt werden können, gibt Aufschluss darüber, ob sich die benannten Programmierplattformen auch für den Einsatz in außerschulischen Bildungseinrichtungen, wie etwa öffentliche Bibliotheken, eignen.
Sustainable tourism is a niche market that has been growing in recent years. At the same time, companies in the mass tourism market have increasingly marketed themselves with a “green” image, although this market is not sustainable. In order to successfully market sustainability, targeted marketing tactics are needed.
The aim of this research is to establish appropriate marketing tactics for sustainable tourism in the niche market and in the mass market. The purpose is to uncover current marketing tactics for both the mass tourism market and the sustainable tourism niche market. It also intends to explore how consumers who are more interested in sustainability differ from consumers with less interest in sustainability in terms of their perception of sustainability in tourism. Furthermore, this research paper will assess the trustworthiness of sustainable travel offers and the trustworthiness of quality seals in sustainable tourism. For this purpose, an online survey was conducted, which was addressed at German-speaking consumers. The survey showed, that consumers with more general interest in sustainability also consider sustainability to be more relevant in tourism. Offers for sustainable travel and quality seals were perceived as not very trustworthy. Moreover, no link could be found between the interest in sustainability and the perception of trustworthiness.
On the basis of the above, it is advisable to directly advertise sustainability in the niche market and to mention sustainability in the mass market only as an accompaniment or not at all. Further research could be undertaken to identify which factors influence the trustworthiness of offers, and trustworthiness of quality seals in sustainable tourism.
Content-Gestaltung und Einsatzmöglichkeiten von Augmented Reality in Öffentlichen Bibliotheken
(2019)
Augmented Reality (AR), die Erweiterung der Realität durch computergenerierte Zusatzobjekte, kommt bisher hauptsächlich in Wissenschaftlichen Bibliotheken (WB) zum Einsatz. Diese Arbeit beschäftigt sich deshalb mit den Einsatzmöglichkeiten von AR in Öffentlichen Bibliotheken (ÖB). Betrachtet wird dabei die Realisierung von AR über eigenständig gestalteten Content mittels Anbietern im Internet und dazugehörigen Browser-Apps. Dies stellt eine kostengünstige und barrierefreie Alternative zur Programmierung von Apps dar. Dafür wird zunächst ein theoretischer Überblick gegeben, indem AR definiert wird und die technischen Grundlagen, wie Trackingverfahren und Interfaces, erläutert werden. Darauf folgen, zur Un-termauerung der Diskrepanz zwischen WB und ÖB, Beispiele für umgesetzte Projekte aus beiden Sparten. Anschließend wird auf die allgemeinen Einsatzgebiete und Potenziale von AR sowie die Aufgaben von ÖBs eingegangen. Die daraus abgeleiteten Einsatzmöglichkeiten von AR für Öffentliche Bibliotheken, Navigation und Orientierung, Bestandserweiterung, Veranstaltungen, Öffentlichkeitsarbeit/Marketing/Werbung sowie Informationskompetenz, werden erläutert. Zur Content-Gestaltung werden zunächst Grundvoraussetzungen genannt und die Funktionsweise der AR-Anbieter im Internet erklärt. Im Anschluss werden die Anbieter Blippar, HP Reveal, Layar, ROAR, Wikitude und Zappar, auf Grundlage eines zuvor erstellten Kriterienkatalogs, hinsichtlich ihres Funktionsumfangs verglichen. Im Ergebnis zeigt sich, dass sich die Anbieter zwar alle ähneln, bezüglich spezieller Funktionen und Kosten aber unterscheiden. Am besten schneidet dabei Zappar ab. Ergänzend werden danach die verschiedenen Arten von Content näher betrachtet. Zur Veranschaulichung der leichten Realisierbarkeit von AR werden zwei praktische Beispiele umgesetzt. Zum Abschluss werden Grenzen und Probleme, auch aus rechtlicher Perspektive, betrachtet. Diese schränken die Content-Gestaltung und die Einsatzmöglichkeiten nur wenig ein, womit die Content-Gestaltung von AR für den Einsatz in ÖBs sehr gut geeignet ist.
Die Dunkle Triade besteht aus den Konstrukten Machiavellismus, Narzissmus sowie Psychopathie. Nachfolgend wird eine Untersuchung des Zusammenhangs zwischen den Konstrukten der Dunklen Triade und Studienerfolg berichtet. Studienerfolg wurde mittels Durchschnittsnote, Studiendauer, Kompetenzerwerb sowie Studienzufriedenheit operationalisiert und jeweils separat überprüft. Insgesamt wurden 98 Studierende der Hochschule Hannover befragt. Es konnten keine statistisch signifikanten Zusammenhänge zwischen den drei Konstrukten der Dunklen Triade und Durchschnittsnote sowie Studiendauer festgestellt werden. Ebenfalls konnten keine statistisch signifikanten Zusammenhänge zwischen Machiavellismus und Kompetenzerwerb sowie Studienzufriedenheit festgestellt werden. Auch für Narzissmus konnten keine statistisch signifikanten Zusammenhänge mit Kompetenzerwerb sowie Studienzufriedenheit festgestellt werden. Die Effekte dieser statistisch insignifikanten Ergebnisse sind in ihrer Höhe gering (r < 0,10). Als statistisch signifikant erwiesen sich die Zusammenhänge zwischen Psychopathie und Kompetenzerwerb (p = 0,01, r = -0,23) sowie zwischen Psychopathie und Studienzufriedenheit (p = 0,03, r = -0,20).
Die allgemeine Digitalisierung und besonders die IT Branche in Hannover, stellen Arbeitgeber_innen und Arbeitnehmer_innen vor große Herausforderungen. Berufsbezeichnungen im IT Sektor zeichnen sich im Gegensatz zu klassischen Berufsfeldern nicht dadurch aus, dass sie vereinheitlicht sind. Unterschiedlichste Berufsbezeichnungen verlangen oftmals identische Kompetenzen. Die Kompetenzen und Fähigkeiten der Arbeitnehmer_innen stehen ebenso immer mehr im Fokus der Arbeitgeber_innen, wie die Bereitschaft der permanenten Weiterbildung.
Zielgebend der vorliegenden Abschlussarbeit ist eine Datenbasis für ein kompetenzbasiertes IT Tool zu liefern, welches den Anspruch hat, die bereits beschriebenen Herausforderungen zu analysieren und zu klassifizieren. Zunächst ist daher eine Klassifikation, der auf dem hannoverschen Jobmarkt gesuchten IT Kompetenzen, zu erstellen. Vorbereitend wird eine Marktanalyse angefertigt, die sowohl Jobsuchmaschinen auf ihre Kompetenzorientierung als auch IT Kompetenzklassifikationen untersucht. Die erstellte Klassifikation bildet anschließend die Grundlage für das Kompetenzmatching zwischen Klassifikation und den Kompetenzen, die hannoversche IT Studierende erlernen, um zu verdeutlichen, in welchen Kompetenzen Weiterbildungsbedarf besteht. Die entstandene Datenbasis wird in einer MySQL Datenbank präsentiert, um eine möglichst flexible Verwendung und Weiterentwicklung des Datenbestands zu ermöglichen.
Die Reproduzierbarkeit von Studien ist wichtig, um ihre Ergebnisse prüfen zu können. Auch bei Forschung, die auf frühere Ergebnisse aufbaut, wird zuweilen ein Zugang zu den alten Daten oder dem Source Code benötigt. Diese Arbeit analysiert Studien aus der Computerlinguistik hinsichtlich ihrer Reproduzierbarkeit. Zunächst werden die Begrifflichkeiten zu diesem speziellen Gebiet definiert und im folgenden Schritt wird ein Datensatz erstellt, in dem ausgewählte Open-Access-Studien aus dem Jahre 2018 auf der Basis zuvor festgelegter Kriterien bewertet werden. Diese sind unter anderem die Zugänglichkeit des benutzten Materials, der angewendeten Methoden und der Ergebnisse. Neben den Kriterien werden auch Hypothesen zu diesem Datensatz aufgestellt. Schließlich werden die Ergebnisse visualisiert und hinsichtlich besagter Hypothesen interpretiert. Basierend auf der resultierenden Auswertung sind die meisten Studien reproduzierbar. Im Ausblick werden mögliche Weiterführungen und Erweiterungen dieser Untersuchung erläutert.
Das wissenschaftliche Publikationswesen befindet sich in einem Transformationsprozess, weg von der Bezahlung des lesenden Zugriffs durch den Kauf von Lizenzen durch Bibliotheken, hin zu der Vergütung der Verlagsleistungen durch Publikationsgebühren. Ziel ist der freie Zugang zu Forschungsergebnissen in wissenschaftlichen Publikationen und den dazugehörigen Forschungsdaten. Dieser freie Zugang zu wissenschaftlicher Literatur wird weltweit, unter dem Begriff Open Access gefördert und vorangebracht. Veränderungen in der Wissenschaft bedeuten auch immer Änderungen in den Arbeitsabläufen und im Aufgabenbereich wissenschaftlicher Bibliotheken. Diese Arbeit beschäftigt sich mit der Fragestellung, welche Angebote medizinische Fachbibliotheken in Deutschland, Österreich und der Schweiz den Wissenschaftlern ihrer Institution im Bereich des Open Access Publizierens bieten. Aufbauend auf den Ergebnissen einer Webseitenanalyse, werden Handlungsempfehlungen für die Ärztliche Zentralbibliothek im Universitätsklinikum Hamburg-Eppendorf für den Aufbau von Publikationsdiensten, insbesondere für Open Access, erstellt.
An der Hochschule Hannover soll die Lernplattform LON-CAPA von Moodle-STACK abgelöst werden. Dazu werden Aufgaben von LON-CAPA nach Moodle-STACK konvertiert. Durch die Entwicklung eines Konverters kann ein großer Teil dieser Arbeit automatisiert erfolgen. Aufgrund der potentiellen Komplexität von LON-CAPA-Aufgaben ist nicht jede Aufgabe in vollem Umfang zu übersetzen und eine manuelle Nacharbeit notwendig.
In dieser Arbeit werden die LON-CAPA-Antworttypen numerical, formula und math response analysiert. Es wird untersucht, wie LON-CAPA-Aufgabenelemente einzeln umgewandelt werden können und welche Parameter im Moodle-STACK-Format gesetzt werden müssen, um eine äquivalente Aufgabe in Moodle-STACK zu erhalten.
Die technische Umsetzung erfolgt in Java. Der modulare Aufbau sieht Wartbarkeit und Weiterentwicklung vor. Auf GitHub steht die Implementierung unter der GPL (GNU General Public License) zur Verfügung: https://github.com/kiliandangendorf/lc2mdl
Die Anzahl an mit dem HI-Virus Neuinfizierten sinkt aufgrund der stetig voranschreitenden Forschung im Bereich der Therapie der HIV-Infektion kontinuierlich. Durch die erforschten HIV-Medikamente, wie zum Beispiel Biktarvy®, Atripla®, Eviplera® oder Genvoya® kann bei nicht vorliegenden Resistenzen oftmals ein bemerkenswerter Therapieerfolg erzielt werden. Doch der Therapieerfolg wird von vielen verschiedenen Faktoren beeinflusst. Um dies genauer zu analysieren, handelt die vorliegende Bachelorarbeit von der Untersuchung des Einflusses verschiedener Parameter auf den Therapieerfolg von HIV-Infizierten. Da es zahlreiche Einflussfaktoren gibt, wurde eine engere Auswahl getroffen. In dieser Arbeit wurde daher der Einfluss von dem Geschlecht, der Therapiekombination, der Altersgruppe, den vergangenen Jahren seit der gestellten Diagnose sowie der Dauer der bereits eingenommenen Therapie auf die Laborwerte „Viruslast“ und „CD4-Zellzahl“ untersucht. Ziel der Bachelorarbeit war es, mehr Daten zu gewinnen, die Ergebnisse des Einflusses der soeben genannten Kenngrößen enthalten. Für die statistische Vergleichsanalyse wurden Daten aus der seit knapp 20 Jahren bestehenden HIV-Datenbank der Medizinischen Hochschule Hannover, Abteilung Rheumatologie und Immunologie, herangezogen. Um die Ergebnisse dieser Bachelorarbeit zusammenzufassen, lässt sich resümieren, dass bei mehr als der Hälfte der Patienten, genauer gesagt bei 51 anhand der Viruslast und 57 von je 72 Patienten anhand der CD4-Zellen, ein Therapieerfolg erzielt werden konnte. Vor allem bei den Einflussgrößen Geschlecht und Therapiekombination konnte ein bemerkenswerter Einfluss auf den Therapieerfolg festgestellt werden. Bei den weiteren Parametern Altersgruppe, Diagnosedauer und Therapiedauer ist kein statistisch signifikanter Unterschied ermittelt worden.
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
In den letzten Jahren wurden verstärkt neue Forschungsinformationssysteme (FIS) geplant, aufgebaut und in Betrieb genommen. Da diese IT-gestützten Informationssysteme eine Vielzahl an Forschungsinformationen beinhalten sowie verschiedenen Zielen dienen können, bietet eine Sammlungsrichtlinie die Möglichkeit, die Entscheidungen auf inhaltlicher Ebene verbindlich und transparent darzustellen. Derartige Richtlinien existieren zum Beispiel bereits für Sammlungen in Bibliotheken und Museen. Die Bachelorarbeit zieht Parallelen zu diesen Bereichen und beschreibt deren Ziele und Inhalte.
In einem praxisbezogenen Teil wurde die Sammlungsrichtlinie für das Informationssystem Göttingen Research Online (GRO) erstellt. Die Vorgehensweise, Hindernisse und Erfahrungen werden zusammenfassend wiedergegeben. Ergänzt werden die Erkenntnisse durch eine Befragung unter deutschen Hochschulen und Forschungseinrichtungen.
Abschließend ist eine Empfehlung für eine FIS-Sammlungsrichtlinie entstanden, die Hinweise, Bestandteile und Best Practices enthält und somit anderen Institutionen als Leitfaden dienen kann.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Zu einer Vielzahl von Vorlesungen gibt es Übungsaufgaben, anhand derer das theoretisch erlernte Wissen noch weiter vertieft, gefestigt oder praktisch angewandt werden kann. Klassischerweise erhalten alle Studierende hierfür dieselbe Aufgabe. Allerdings gibt es gute Gründe, für alle eine jeweils individualisierte Variante zu erstellen. Da es für eine einzelne Lehrperson unmöglich ist, für alle Studierenden individuelle Aufgaben zu konzipieren, wurden in anderen Arbeiten bereits Möglichkeiten entwickelt, variable Aufgaben zu formulieren, aus denen viele unterschiedliche Varianten generiert werden können. Diese Bachelorarbeit befasst sich mit dem Entwurf und der Implementierung eines Services, der diese Generierung automatisiert durchführen kann. Er soll unabhängig von einem konkreten Frontend sein und mit beliebigen Gradern zusammenarbeiten können.
Im Social Web wird der Gatekeeper zum Gatewatcher. Unternehmen können medial eigene Inhalte an die relevanten Bezugsgruppen vermitteln, ohne auf einen Gatekeeper angewiesen zu sein. Die Relevanz der Inhalte wird allerdings durch das Publikum bestimmt. Die Nachrichtenwerttheorie, die ursprünglich auf die Selektion von Journalisten von Nachrichten geprägt war, muss uminterpretiert werden, um aktuell zu bleiben. Welche Nachrichtenfaktoren bestimmen also die Interaktion des Publikums und sorgen für wahre Relevanz in den Sozialen Medien?
Die vorliegende Ausarbeitung befasst sich mit der Digitalisierung und der Öffnung des Kulturerbes. Anhand einer theoretischen und qualitativen Untersuchung mit Experteninterviews soll verdeutlicht werden, warum einige Kulturerbeinstitutionen wenig motiviert sind, ihre Sammlungen und Artefakte digital zu öffnen. Mit Hilfe von sieben Experteninterviews aus unterschiedlichen kulturellen Digitalisierungsbereichen soll erforscht werden, wo die Kulturerbedigitalisierung aktuell steht und welche Chancen und Risiken Digitalisierungsmaßnahmen fördern oder hemmen. Weiter werden die Ergebnisse geprüft, um daraus mobilisierende Maßnahmen zu erkennen.
In der Lehre kommen seit einiger Zeit Autobewerter zum Einsatz, um automatisiert oder teilautomatisiert Lösungen von Lernenden zu Programmieraufgaben zu bewerten. Aus Sicht eines Betreibers von Autobewerter-Systemen erfordert letzteres meist die Ausführung von fremdem Programmcode in der eigenen Server-Umgebung. Hierbei ist Vorsicht geboten, da fehlerhafter oder angriffslustiger Programmcode verbotene Aktionen ausführen könnte.
An der Hochschule Hannover können Studierende Lösungen zu Programmieraufgaben verschiedener Programmiersprachen über das Lernmanagementsystem "moodle" einreichen. Die angeschlossene Middleware Grappa nimmt Lösungen anschließend entgegen und leitet diese an einen Autobewerter der zugehörigen Programmiersprache weiter.
Diese Arbeit befasst sich damit, Sicherheitsrisiken bei der Ausführung von fremdem Programmcode durch Autobewerter zu identifizieren und zu vermeiden. Hierzu gilt es, mögliche Angriffe herauszustellen und aktuelle, angemessene Technologien zu finden, um diese zu verhindern. Anschließend findet mit einer Technologie die Entwicklung einer abgesicherten Ausführungsumgebung für beliebige an die Middleware Grappa angebundene Autobewerter statt. Die exemplarische Einbettung der beiden Autobewerter Graja und Praktomat in die entwickelte Ausführungsumgebung soll unter Beweis stellen, dass es sich um eine generische Lösung mit wenig Overhead handelt.
Die vorliegende Arbeit befasst sich mit den Zielen sozialpädagogischer Intervention und Prävention im Spannungsfeld zwischen Individualität und sozialer Verbundenheit. Die Zielsetzung einer Intervention der Sozialen Arbeit basiert entscheidend auf ihrem theoretischen Verständnis, das auf sehr unterschiedlichen Ansätzen beruht. Je nach theoretischem Verständnis, wird der Auftrag bzw. werden die Aufträge formuliert und damit die Zielsetzung bestimmt. Die Auseinandersetzung soll durch die Konfrontation von Fabian Kessls Theorieansatz der Gouvernementalität Sozialer Arbeit und den kultursensitiven Erkenntnissen aus den Analysen von Alltagskulturen der Erziehung von Heidi Keller vollzogen werden.
Das Potenzial von Kessls Theorie der Gouvernementalität liegt in der Verbindung zwischen systematischen Analysen abstrakter politischer Rationalitäten und Führungsformen und den individuellen Alltags- und Selbstpraktiken, sowie der radikal (selbst-)kritischen Haltung und der unermüdlichen Herangehensweise, die Legitimationstraditionen sozialpädagogischer Interaktion zu analysieren und zu reflektieren. Die Arbeiten Kessls werden aber in (alltags-)kultureller Hinsicht nicht explizit genug reflektiert und bleiben daher im Spektrum westlicher (stark auf Kognition zentrierter) Autonomieorientierungen, in der Tradition der Aufklärung.
Durch die Konfrontation mit Kellers Modellen kultureller Alltagsstrategien, wird deutlich, wie weit das gesamte Spektrum möglicherweise ist und welche Anteile bisher wenig Beachtung gefunden hat. Dabei ist dies für Soziale Arbeit nicht nur interessant in Hinsicht auf Migrationsbewegungen. Interessant ist vor allem die Tatsache der Abhängigkeit vom formalen Bildungsniveau und dem sozioökonomischen Standard, die die Modelle der hierarchischen Verbundenheit und der psychologischen Autonomie für Soziale Arbeit im wohlfahrtsstaatlichen Arrangements beachtenswert macht. Allerdings fehlen in den Arbeiten von Keller die machtanalytischen Reflexionen, wodurch sich der Bogen zu Kessl wieder schließen lässt; nun auf einer (alltags-)kulturell erweiterten Ebene.
Die Konfrontation der beiden Ansätze knüpft an Analogien an, die sich in den Polen von Selbstbestimmung und sozialem Verwobensein widerspiegeln und in den Analysen der gesellschaftlichen Veränderungsphase seit den 1970er Jahren. Während Kessl das theoretisch-philosophische Fundament für das hier eingenommene Verständnis von Sozialer Arbeit bereitstellt, veranschaulichen Kellers Erkenntnisse die kulturelle Bedingtheit der von Kessl benannten dominierenden Denk-, Deutungs- und Handlungsweisen von Sozialer Arbeit im Bereich der Erziehung und Subjektwerdungs- prozesse. Mit den Erkenntnissen aus der Konfrontation der beiden Ansätze soll die machtanalytische Perspektive Sozialer Arbeit kultursensitiv erweitert werden und die Arbeiten von Heidi Keller für die Soziale Arbeit (machtanalytisch) fruchtbar gemacht werden.
Die Digitalisierung birgt sowohl für den Unternehmer, als auch für den Kunden diverse Vorteile. Als Instrument zur Veranschaulichung dieser Vorteile dienen vor allem Service-Apps, welche bereits von großen Unternehmen beispielsweise zur Produktnachverfolgung etabliert wurden. Das Mittelstand 4.0 – Kompetenzzentrum Hannover legt den Fokus auf kleine und mittelständische Produktionsbetriebe und vermittelt das Potenzial der Digitalisierung im Rahmen von Industrie 4.0. Dies geschieht anhand einer Produktionslinie personalisierter Kugelschreiber und einer zu Demonstrationszwecken entwickelten App für mobile Endgeräte. Konzeptionierung, Entwicklung und Umsetzung dieser App werden genauestens aufgeführt und erläutert. Die App wurde unter dem Betriebssystem Android entwickelt und gliedert sich in sieben Phasen, beginnend mit der Anforderungsanalyse bis hin zur Veröffentlichung im Google Play Store. Während der Unternehmer die Möglichkeit geboten bekommt, Rückschlüsse als Entscheidungshilfe zur effizienteren Gestaltung der Produktion zu nutzen, ist der Kunde in der Lage, seine Aufträge echtzeitnah in der Produktion nachzuverfolgen und gegebenenfalls Änderungen vorzunehmen.
Demografieorientiertes Personalmanagement in kleinen und mittleren wissenschaftlichen Bibliotheken
(2017)
Der demografische Wandel stellt für das Personalmanagement eine Herausforderung dar, mit der sich auch Bibliotheken auseinandersetzen müssen. Die vorliegende Arbeit setzt sich mit der Frage auseinander, welche Maßnahmen des Personalmanagements kleine und mittlere wissenschaftliche Bibliotheken anwenden und inwiefern sie damit auf den demografischen Wandel vorbereitet sind. Der erste Teil der Arbeit umfasst die theoretischen Grundlagen. Dafür werden zunächst die zentralen Begriffe demografischer Wandel, Personalmanagement sowie Personalentwicklung definiert. Anschließend werden Handlungsfelder sowie deren Bedeutung für ein demografieorientiertes Personalmanagement dargestellt. Diese umfassen die Altersstrukturanalyse, die Personalgewinnung, die Personalbindung, die Personalentwicklung, die Gesundheitsförderung und das Gesundheitsmanagement sowie den Wissenstransfer. Sie beinhalten außerdem auch Beispiele von Maßnahmen aus größeren wissenschaftlichen sowie öffentlichen Bibliotheken. Die aus einer Befragung gewonnenen Erkenntnisse über die Maßnahmen des Personalmanagements in kleinen und mittleren wissenschaftlichen Bibliotheken werden im zweiten Teil der Arbeit beschrieben. Abschließend werden anhand der theoretischen Grundlagen sowie der gewonnenen Erkenntnisse Handlungsempfehlungen für die Zielgruppe der kleinen und mittleren wissenschaftlichen Bibliotheken gegeben.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.
Forschungsgegenstand der Bachelorarbeit ist der politisch gefärbte und direktiv gestaltete Aushandlungs- und Planungsprozess für die Bebauung eines zentralen innerstädtischen Platzes in Hannover. Entlang der Leitfrage, wie der demokratische Anspruch nach Bürger*innenbeteiligung in Stadtentwicklungsprozessen aus den Konzepten in die Umsetzung gelangt und welche Bevölkerungsgruppen in eben diesen Prozessen Ein- und Ausschlüsse erfahren, welche sie reproduzieren, finden eine mehrschichtige Verlaufsuntersuchung und eine Rückbindung in mögliche Betätigungsfelder der Sozialen Arbeit statt.
Der Bachelorarbeit vorangegangen ist ein Praxisseminar zur Gemeinwesenarbeit und Öffentlichkeit, in welchem eine Feldanalyse stattfand. Anhand von angekündigten leitfadengestützen Expert*inneninterviews und qualitativen Interviews auf dem besagten Platz kristallisierte sich die offensichtliche Unkenntnis der Passant*innen über die Bebauungspläne heraus: Ein von offizieller Seite betontes Beteiligungsverfahren zur Neugestaltung ist den Nutzer*innen vielfach nicht bekannt gewesen.
Methodisch wurde anhand des Governancekonzepts nach Baum (2012), Klöti (2016) und Walk (2011) und der „unternehmerischen Stadt“ nach Harvey (1989) die Einbindung von Sozialer Arbeit in Stadtentwicklungsprozesse analysiert. Ausgewertet wurden die Dokumentationen der Innenstadtforen im Rahmen des Policykonzepts „Hannover City 2020+“. Festzuhalten gilt, dass die zentrale Aufgabe der Sozialen Arbeit in diesem Zusammenhang benannt werden kann als die Thematisierung von sozialem Ausschluss (Anhorn & Bettinger 2005) und den hohen Voraussetzungen für den Zugang zu Beteiligung und Mitgestaltung des öffentlichen Raumes. Gezeigt wird, dass das erste Beteiligungsverfahren einer Scheinbeteiligung (Arnstein 1969) zur Legitimation von Ergebnissen aus Behörden- und Expert*innenenrunden diente; viele der eigentlichen Nutzer*innen des Platzes wurden nicht erreicht und beteiligt, da die Strukturen des Partizipationsangebotes zu hochschwellig und exklusiv angelegt waren. Es wird deutlich, dass die öffentlichen Verfahren bestenfalls der Information gedient haben.
Diese Arbeit ist ein Plädoyer für eine planungsbezogene Soziale Arbeit (Drilling & Oehler 2013), welche sich räumlich-reflexiv und aktiv in die Gestaltung und Planung von Stadt einbringt, anstatt nur im Nachhinein daraus entstandene Konflikte und Probleme wie Ausschluss und Verdrängung von Randgruppen zu bearbeiten. Im bisherigen Prozess hat Soziale Arbeit die Aufgabe, sich kritisch im Interesse der marginalisierten Nutzer*innengruppen einzubringen und advokatisch tätig zu sein, bzw. darüber hinaus diese dabei zu unterstützen sich wirkungsvoll einzubringen, nicht wahrgenommen. In dem kommenden Verfahren 2018 bietet sich die Chance einer inkludierenderen Beteiligung durch Methoden der Bürger*innenbeteiligung wie bspw. der Zukunftswerkstatt (Dienel 2011: 208ff) direkt auf dem Platz, in denen gegebenenfalls mehr Menschen zu Wort kommen als bei den bisherigen Verfahren.
Metriken und Leistungskennzahlen zur Steuerung eines Startups mit einem Abonnement-Geschäftsmodell
(2017)
Diese Ausarbeitung schlüsselt wesentliche Metriken und Kennzahlen für Startups mit Abonnement-Geschäftsmodellen auf. Der Schwerpunkt liegt auf der Erklärung von Kennzahlen, welche innerhalb von neu gegründeten Startups mit einem Abonnement-Geschäftsmodell Anwendung finden sollten. Nach Einführung in die terminologischen Grundlagen, also nachdem die Begriffe Startup, Abonnement-Geschäftsmodelle und die Grundlagen von Kennzahlen erklärt wurden, werden zahlreiche Kennzahlen wie beispielsweise Average Revenue per User, Customer Churn Rate oder Customer Lifetime Value im Detail erklärt und anhand von Beispielrechnungen nahegebracht.
Open Educational Resources (OER) sind sich in Deutschland bisher hauptsächlich im Bereich der schulischen Bildung im Gespräch. Ihr Potential innerhalb der deutschen Hochschullehre wurde zwar bereits erkannt, wird aber bisher noch nicht genutzt.
Die Arbeit gibt einen Überblick über die terminologischen Grundlagen von OER und ihren Entwicklungsmöglichkeiten im Hochschulbereich. In einer Zusammenfassung werden die Förderung von OER durch die Europäische Kommission und in Deutschland, sowie ihre Entwicklung im deutschen Hochschulbereich dargestellt. In einem theoretischen Abgleich aktueller Studien und Fachliteratur wird eine Bestandsaufnahme zu neuen Aufgabenbereichen für Wissenschaftlicher Bibliotheken durch OER durchgeführt.
Eine Expertenbefragung, die beispielhaft unter Lehrenden der Leibniz Universität Hannover (LUH) durchgeführt wurde, gibt Aufschluss über deren aktuellen Nutzungsstand von OER. Die wird ergänzt durch eine Untersuchung zweier Sharingdienste (Zenodo und SlideShare) nach freien Lehrmaterialien von Angehörigen der LUH.
Abschließend werden auf der Basis der theoretischen Möglichkeiten sowie der individuellen Bedürfnisse der Lehrenden Empfehlungen für neue Dienstleistungen und Serviceangebote Wissenschaftlicher Bibliotheken zur Unterstützung der Hochschulen bei der Einführung, Herstellung und Verbreitung von OER am Beispiel der Technischen Informationsbibliothek Hannover (TIB) gegeben, sowie neue Aufgabenbereiche für Hochschulbibliotheken skizziert, die sich daraus ergeben.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines generischen XML-Editors für das ProFormA-Aufgabenformat. ProFormA ermöglicht einen Aufgabenaustausch zwischen Hochschulen, Lernmanagementsystemen und Gradern. Aufgaben werden von Lehrkräften genutzt und für ihren individuellen Lehrkontext angepasst. Weil das manuelle Editieren von ProFormA-Aufgaben durch XML, Erweiterbarkeit und Komplexität des Formats erschwert wird, muss ein XML-Editor entwickelt werden, der generische Mechanismen implementiert, die das Anzeigen, Editieren, Hinzufügen und Entfernen von ProFormA- und Fremdformatelementen ermöglichen.
Usability-Studie des TIB-Portals: eine Evaluation der Website der Technischen Informationsbibliothek
(2017)
In den letzten Jahren gewinnt das Thema Usability von Websites auch für Bibliotheken zunehmend an Bedeutung. In dieser Bachelorarbeit wird die Benutzerfreundlichkeit des neugestalteten Internetauftritts der Technischen Informationsbibliothek (TIB) in Hannover für die Zielgruppe der Studierenden der Leibniz Universität Hannover (LUH) untersucht. Auslöser für die Neugestaltung stellt die Stiftungswerdung der TIB dar. Im theoretischen Teil der Arbeit werden Grundlagen und Anwendungsbereiche von Usability in verschiedenen Normen dargestellt. Mit den empirischen Methoden der heuristischen Evaluation, dem Experteninterview und dem Usability-Testing, das von der Thinking-Aloud-Methode begleitet wird, werden Stärken und Schwächen des TIB-Portals analysiert. Im Anschluss werden Empfehlungen zur Verbesserung der Anwenderfreundlichkeit des Webauftritts der TIB benannt. Die Studie zeigt, dass die Aufmachung der Website durchaus noch Verbesserungspotential für die Zielgruppe der Studierenden aufweist. Zugleich wird festgestellt, dass neben der Anwenderfreundlichkeit auch noch andere Aspekte die Gestaltung der Webpräsenz der TIB beeinflussen.