Refine
Year of publication
Document Type
- Bachelor Thesis (140) (remove)
Language
- German (140) (remove)
Has Fulltext
- yes (140)
Is part of the Bibliography
- no (140)
Keywords
- Benutzerfreundlichkeit (12)
- Bibliothek (11)
- Öffentliche Bibliothek (11)
- Usability (9)
- Wissenschaftliche Bibliothek (8)
- Wissensmanagement (7)
- Digitalisierung (6)
- Marketing (6)
- Soziale Software (6)
- Informationskompetenz (5)
In den letzten Jahren ist, nicht zuletzt aufgrund der schnellen und einfachen Verfügbarkeit von Daten und Informationen, ein Anstieg an veröffentlichter Literatur zu beobachten. Bibliotheken stehen vor der Herausforderung, diese Ressourcen zu erschließen und damit verfügbar zu machen. Ein Teilaspekt ist hierbei die Klassifizierung. Die Arbeit untersucht Voraussetzungen und Möglichkeiten der automatischen Klassifizierung am Beispiel medizinischer Literatur. Der erste, theoretische Teil beinhaltet die Beschreibung der Grundlagen der Inhaltserschließung, des Data Mining und der automatischen Klassifizierung sowie eine umfassende Übersicht über den aktuellen Forschungsstand in diesem Bereich. Im zweiten Teil wird die Auswahl, Aufbereitung und Analyse eines aus Katalogdatensätzen der Bibliothek der Medizinischen Hochschule Hannover bestehenden Datenbestandes erläutert. Die Anwendung von Verfahren des maschinellen Lernens zur Klassifizierung bibliographischer Datensätze wird am Beispiel des Algorithmus k-nearest-neighbours verdeutlicht. Hierbei lässt sich eine korrekte Klassifizierung von rund 58 % der Dokumente erreichen. Abschließend werden Optimierungsansätze (z.B. semi-automatische Verfahren) und Herausforderungen automatischer Klassifizierungsverfahren (z.B. uneinheitlich erschlossene Datensätze oder ungleiche Verteilung der Klassen einer Systematik in den Dokumenten) aufgezeigt.
Die Nutzung von Messenger-Diensten hat die Nutzung von sozialen Medien übertroffen. Diese Mediennutzung bringt veränderte Erwartungen an Unternehmen mit sich. Unternehmen begegnen den Erwartungen ihrer Kund*innen in der Online-Kundenkommunikation mit dem Einsatz textbasierter Dialogsysteme. Im Facebook-Messenger wurden 2018 bereits über 300.000 Chatbots angeboten. Das Problem ist, dass Studien seit mehreren Jahren aufzeigen, dass diese Kommunikationstechnologie sich bei den Kund*innen noch nicht durchgesetzt hat und häufig noch skeptisch betrachtet wird. Für Unternehmen ist es daher notwendig zu verstehen, welche Kriterien erfüllt sein müssen, um die Akzeptanzbildung der Kund*innen gegenüber textbasierten Dialogsystemen positiv zu beeinflussen.
Das Ziel dieser Arbeit ist es zu betrachten, inwiefern die Eigenschaften textbasierter Dialogsysteme die Akzeptanzkriterien der Kund*innen erfüllen können. Dazu wird die folgende Forschungsfrage gestellt: Wie akzeptieren Kunden den Einsatz textbasierter Dialogsysteme in der Online-Kundenkommunikation von Unternehmen?
Um die Forschungsfrage zu beantworten, wird eine Literaturanalyse durchgeführt. Die Literatur wird mit Studienergebnissen verglichen, um Übereinstimmungen und Abweichungen herauszuarbeiten.
Eine Akzeptanzanalyse hat ergeben, dass Kund*innen textbasierte Dialogsysteme vor allem akzeptieren, wenn sie darin einen Nutzen erkennen. Jedoch beeinflussen neben nutzenorientierten Faktoren auch emotionale Faktoren die Akzeptanz.
Auf dieser Grundlage ist es empfehlenswert, positive und negative Einflussfaktoren des Akzeptanzprozesses zu identifizieren und die Gestaltung textbasierter Dialogsysteme an die Kund*innen anzupassen, bevor diese eingesetzt werden.
Die vorliegenden Bachelorarbeit befasst sich mit der Analyse und der zunehmenden Wichtigkeit von Social Media im emotionalen Wirtschaftszweig Profifußball. Hierzu werden verschiedenste Social-Media- und Web 2.0-Angebote vorgestellt und Fakten zum Einsatz in der freien Wirtschaft präsentiert. Unter Berücksichtigung des Wandels zu mehr Kommerzialisierung im Profifußball, fällt die Analyse der aktuellen Präsenz der Bundesligisten auf Facebook, Twitter und Co kritisch aus. Besonders im Vergleich mit europäischen Vereinen zeigt sich ein großer Nachholbedarf deutscher Clubs. Abschließend folgt der Versuch einer Strategiebewertung anhand des Bundesligisten SV Werder Bremen. Die Auswertung von offiziellen und inoffiziellen Angeboten sowie die Analyse Diskussionen über den Verein, zeigen vielfältige Ergebnisse und Möglichkeiten für die Umsetzung einer umfangreichen Social-Media-Strategie. Mögliche Inhalte einer solchen Umsetzung auf relevanten Plattformen bilden den Abschluss der vorliegenden Arbeit.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Die Bachelor-Arbeit beschäftigt sich hauptsächlich mit dem Fotobestand der Polizeigeschichtlichen Sammlung der Polizeiakademie Niedersachsen. Der Fotobestand der themenspezifischen Sammlung wird detailliert vorgestellt und seine Erschließung und Dokumentation näher erläutert. Es erfolgen eine fototechnische Einordnung, archivalische Vorgaben und die Betrachtung derzeitiger und zukünftiger Nutzer der Sammlung in einem Profil. <br /> Besprochen werden außerdem Verwertungsmöglichkeiten, Rechtsfragen und Aspekte der Digitalisierung von Aufnahmen. Ein konzeptioneller Datenbankaufbau stellt eine Möglichkeit der Umsetzung von Erschließungsvorgaben dar. In einem Ausblick über die zukünftige Arbeit mit dem Fotobestand werden sowohl ein weiterer Weg zur Erschließung als auch die Digitalisierung von Fotos beleuchtet. <br /> Die Arbeit schließt mit einem praktischen Leitfaden zur Erschließung des Fotobestandes der Polizeigeschichtlichen Sammlung ab, mit Hilfe dessen zukünftig Mitarbeiter der musealen Einrichtung am Bestand arbeiten können.
In den letzten Jahren hat sich der Auskunftsdienst in wissenschaftlichen Bibliotheken gewandelt. Die bibliothekarische Auskunft setzt zahlreiche unterschiedliche Kommunikationsformen ein, um dem Kunden die gewünschten Informationen zukommen zu lassen. Neben den konventionellen Auskunftsmitteln setzen die Bibliotheken verstärkt auf die elektronischen Auskunftsdienste. Seit dem Jahr 2004 haben Chatbots als Auskunftsmittel einen festen Platz in diesem Bereich. Chatbots sind virtuelle Assistenten, die mit Hilfe einer hinterlegten Datenbank die Fragen der Kunden beantworten. Die vorliegende Arbeit stellt die vier Chatbots ASKademicus, Stella, Albot und Hugo Blotius näher vor. Anhand von verschiedener Literatur wird eine Checkliste für eine Qualitätsüberprüfung von Chatbots erarbeitet. Am Beispiel von Hugo Blotius, dem Chatbot der Österreichischen National-bibliothek aus Wien werden die Chatbots analysiert und bewertet. Das Ziel dieser Arbeit ist es, die Thematik der Chatbots näher zu betrachten und deren Nutzungsberechtigung im Bibliothekswesen nachzuweisen. Die durchgeführte Analyse konnte eine Nutzungsberechtigung der bibliothekarischen Chatbots belegen und Hugo Blotius als wertvolle Ergänzung des Auskunftsangebotes der Bibliothek bestätigen.
Im Rahmen der Globalisierung und des daraus resultierenden Wettbewerbs ist es für ein Unternehmen von zentraler Bedeutung, Wissen über die Wettbewerbssituation zu erhalten. Nicht nur zur Erschließung neuer Märkte, sondern auch zur Sicherung der Unternehmensexistenz ist eine Wettbewerbsanalyse unabdingbar. Konkurrenz- bzw. Wettbewerbsforschung wird überwiegend als „Competitive Intelligence“ bezeichnet. In diesem Sinne beschäftigt sich die vorliegende Bachelorarbeit mit einem Bereich von Competitive Intelligence. Nach der theoretischen Einführung in das Thema werden die Ergebnisse von neun Experteninterviews sowie einer schriftlichen Expertenbefragung innerhalb des Unternehmens erläutert. Die Experteninterviews und -befragungen zum Thema Competitive Intelligence dienten zur Entwicklung eines neuen Wettbewerbsanalysekonzeptes. Die Experteninterviews zeigten, dass in dem Unternehmen kein einheitliches Wettbewerbsanalysesystem existiert und Analysen lediglich ab hoc getätigt werden. Zusätzlich wird ein Länderranking vorgestellt, das zur Analyse europäischer Länder für das Unternehmen entwickelt wurde. Die Ergebnisse zeigten, dass Dänemark und Italien für eine Ausweitung der Exportgeschäfte bedeutend sind. Der neu entwickelte Mitbewerberbewertungsbogen wurde auf Grundlage dieser Ergebnisse für Dänemark und Italien getestet.
Content-Gestaltung und Einsatzmöglichkeiten von Augmented Reality in Öffentlichen Bibliotheken
(2019)
Augmented Reality (AR), die Erweiterung der Realität durch computergenerierte Zusatzobjekte, kommt bisher hauptsächlich in Wissenschaftlichen Bibliotheken (WB) zum Einsatz. Diese Arbeit beschäftigt sich deshalb mit den Einsatzmöglichkeiten von AR in Öffentlichen Bibliotheken (ÖB). Betrachtet wird dabei die Realisierung von AR über eigenständig gestalteten Content mittels Anbietern im Internet und dazugehörigen Browser-Apps. Dies stellt eine kostengünstige und barrierefreie Alternative zur Programmierung von Apps dar. Dafür wird zunächst ein theoretischer Überblick gegeben, indem AR definiert wird und die technischen Grundlagen, wie Trackingverfahren und Interfaces, erläutert werden. Darauf folgen, zur Un-termauerung der Diskrepanz zwischen WB und ÖB, Beispiele für umgesetzte Projekte aus beiden Sparten. Anschließend wird auf die allgemeinen Einsatzgebiete und Potenziale von AR sowie die Aufgaben von ÖBs eingegangen. Die daraus abgeleiteten Einsatzmöglichkeiten von AR für Öffentliche Bibliotheken, Navigation und Orientierung, Bestandserweiterung, Veranstaltungen, Öffentlichkeitsarbeit/Marketing/Werbung sowie Informationskompetenz, werden erläutert. Zur Content-Gestaltung werden zunächst Grundvoraussetzungen genannt und die Funktionsweise der AR-Anbieter im Internet erklärt. Im Anschluss werden die Anbieter Blippar, HP Reveal, Layar, ROAR, Wikitude und Zappar, auf Grundlage eines zuvor erstellten Kriterienkatalogs, hinsichtlich ihres Funktionsumfangs verglichen. Im Ergebnis zeigt sich, dass sich die Anbieter zwar alle ähneln, bezüglich spezieller Funktionen und Kosten aber unterscheiden. Am besten schneidet dabei Zappar ab. Ergänzend werden danach die verschiedenen Arten von Content näher betrachtet. Zur Veranschaulichung der leichten Realisierbarkeit von AR werden zwei praktische Beispiele umgesetzt. Zum Abschluss werden Grenzen und Probleme, auch aus rechtlicher Perspektive, betrachtet. Diese schränken die Content-Gestaltung und die Einsatzmöglichkeiten nur wenig ein, womit die Content-Gestaltung von AR für den Einsatz in ÖBs sehr gut geeignet ist.
Die Bachelorarbeit "Content-Strategien im Luxusmodemarketing" befasst sich mit den jeweiligen Besonderheiten von Content-Strategie und Luxusmodemarketing. Diese Ansatzpunkte werden zur Hilfe genommen, um die jeweiligen Disziplinen aufeinander zu beziehen. Dabei spielen bei der Content-Strategie die Faktoren Zielgruppe, Zeitpunkt, Inhalt, Kanäle und Formate eine übergeordnete Rolle, während im Luxusmodemarketing die Symbolkraft der Marke, die Saisonalität der Mode, die Visualität sowie die Akzeptanz seitens des Konsumenten von Bedeutung sind. Mithilfe dieser Kernaspekte, die in dieser Arbeit anhand von Theorien und Modellen untersucht werden, können Bezugspunkte zu den beiden Disziplinen hergestellt werden.
Der Theorieteil erläutert diese Facetten und arbeitet heraus, welche genauen Muster innerhalb der Content-Strategie sowie des Luxusmodemarketings vorliegen. Schließlich beschreibt der Anwendungsteil, wie die relevanten Zielgruppen, die passenden Inhalte, der richtige Zeitpunkt, die erforderlichen Kanäle und die angemessenen Formate auszusehen haben, um eine Content-Strategie erfolgreich im Luxusmodemarketing zu implementieren. Diese Arbeit versucht dies anhand der gewonnenen theoretischen Erkenntnisse sowie entsprechenden Praxisbeispielen näher zu betrachten.
Unter Crowdsensing versteht man Anwendungen, in denen Sensordaten kollaborativ von einer Menge von Freiwilligen erhoben werden. So kann Crowdsensing eingesetzt werden um die Luftqualität an Orten zu messen, an denen keine fest installierten Sensoren verfügbar sind. In Crowdsensing-Systemen müssen die Teilnehmer koordiniert und die Messdaten verarbeitet werden, um relevante Daten zu erhalten. Im Rahmen der Abschlussarbeit wurde ein System konzipiert und prototypisch umgesetzt, das auf einem Raspberry Pi (unter Einsatz geeigneter Sensoren) Sensordaten erhebt und mit der Complex Event Processing Technologie verarbeitet.