Refine
Year of publication
Document Type
- Bachelor Thesis (14)
- Study Thesis (4)
- Master's Thesis (2)
- Book (1)
Has Fulltext
- yes (21) (remove)
Is part of the Bibliography
- no (21)
Keywords
- Automatische Klassifikation (2)
- Benutzerfreundlichkeit (2)
- Inhaltserschließung (2)
- Open Access (2)
- SKOS (2)
- Studium (2)
- Text Mining (2)
- API (1)
- Alte Drucke (1)
- Annotation (1)
Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
Metadaten für das digitale Archiv des Niedersächsischen Landesamts für Denkmalpflege : ein Konzept
(2013)
Das Niedersächsische Landesamt für Denkmalpflege (NLD) ist die zentrale Fachbehörde für den Denkmalschutz in Niedersachsen. Ihre Funktionen sind im Niedersächsischen Denkmalschutzgesetz festgelegt. Sie führt das Verzeichnis der Kulturdenkmale in Niedersachsen und ist zentrale Archivstelle. Die Archivbestände der beiden fachlichen Bereiche Archäologie und Bau- und Kunstdenkmalpflege sollen im Fachinformationssystem ADABweb digital erschlossen werden, so dass sie mit den Objektdaten verknüpft werden können. Das Metadatenschema für die Archivalien soll sich an relevanten Standards orientieren und mit diesen weitgehend interoperabel sein. Zugleich sind die besonderen Informationsbedürfnisse der Denkmalpflege zu berücksichtigen.
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
Die Bachelorarbeit beschäftigt sich mit der Ontologie des Forschungsinformationssystems VIVO. In der Arbeit wird der Versuch unternommen, die Ontologie an die Besonderheiten des deutschen Wissenschaftsbetriebs anzupassen, mit dem Ziel, die Einführung des Systems für eine deutsche Einrichtung zu erleichtern. Das Mapping und die Erweiterung sind auf die Bereiche „Positionsbezeichnungen“ und „Organisationseinheiten“ beschränkt.
Der theoretische Teil behandelt das Thema der Forschungsinformationen und deren Implementierung in ein Forschungsinformationssystem. Unter anderem werden auch die Tendenzen der Standardisierung in dem Bereich beleuchtet.
Bei der Darstellung von VIVO als eine Semantic-Web-Anwendung steht die Ontologie, als Grundlage für die Funktionalitäten des Systems im Vordergrund.
Das Thema Linked Open Data hat in den vergangenen Jahren im Bereich der Bibliotheken viel Aufmerksamkeit erfahren. Unterschiedlichste Projekte werden von Bibliotheken betrieben, um Linked Open Data für die Einrichtung und die Kunden nutzbringend einzusetzen. Ausgangspunkt für diese Arbeit ist die These, dass Linked Open Data im Bibliotheksbereich das größte Potenzial freisetzen kann. Es wird überprüft, inwiefern diese Aussage auch auf Öffentliche Bibliotheken zutrifft und aufgezeigt, welche Möglichkeiten sich daraus ergeben könnten.
Die Arbeit führt in die Grundlagen von Linked Open Data (LOD) ein und betrachtet die Entwicklungen im Bibliotheksbereich. Dabei werden besonders Initiativen
zur Behandlung bibliothekarischer Metadaten und der aktuelle Entwicklungsstand von LOD-fähigen Bibliothekssystemen behandelt. Danach wird eine Auswahl
an LOD-Datensets vorgestellt, die bibliothekarische Metadaten liefern oder deren Daten als Anreicherungsinformationen in Kataloganwendungen eingesetzt werden können.
Im Anschluss wird das Projekt OpenCat der Öffentlichen Bibliothek Fresnes (Frankreich) sowie das LOD-Projekt an der Deichmanske Bibliothek Oslo (Norwegen) vorgestellt. Darauf folgt ein Einblick in die Möglichkeiten, welche durch die Verwendung von LOD in Öffentlichen Bibliotheken verwirklicht werden könnten sowie erste Handlungsempfehlungen für Öffentliche Bibliotheken.
Inhalt dieser Seminararbeit ist eine Untersuchung 20 großer Open-Access-Publisher zur Beantwortung der Fragen, welche der Publisher die Artikel in den von ihnen herausgegebenen Journals neben PDF auch strukturiert anbieten und welche zusätzlichen Features gegebenenfalls angeboten werden. Der Untersuchung liegen jeweils mindestens zwei Journals eines Publishers zugrunde. Die Arbeit wurde als Leistungsnachweis für die Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ im WS 2014/15 angefertigt.
Automatische Spracherkennungssysteme (Automatic Speech Recognition - ASR) können derzeit nicht alle Wörter korrekt erkennen und daher noch keine guten Transkriptionen erstellen. Die Qualität der automatischen Spracherkennung wird von vielen Faktoren beeinflusst. Einer davon ist das Vokabular. Je vielfältiger und komplexer die Themen, desto größer die Anzahl der fachspezifischen Wörter ist, die erkannt werden müssen, desto schwieriger ist die Erkennungsaufgabe und desto schlechter sind die Transkriptionsergebnisse. Die Sprachmodelle von automatischen Spracherkennungssystemen müssen durch Training angepasst werden, damit sie auch bei Gebieten mit speziellem Vokabular gute Resultate erzielen können. In dieser Arbeit wird untersucht, ob der prozentuale Anteil der korrekt erkannten Wörter durch Training des Sprachmodells der automatischen Spracherkennung mit fachspezifischer Terminologie wirksam gesteigert werden kann. Anhand von Ergebnissen der durchgeführten Experimente wird dargelegt, welche Anzahl und Art von Daten benötigt wird, um den Prozentsatz der falsch erkannten Wörter zu senken. Die Ergebnisse der Domänen-Adaption bilden die Basis für den anschließenden Vergleich des fachspezifischen Vokabulars in Vorlesungsvideos und wissenschaftlichen Publikationen, um die Unterschiede hinsichtlich der verwendeten Fachsprache aufzuzeigen. Grundlage und Ausgangspunkt für die gesamte Untersuchung stellt die Erkennung der Fachterminologie und ihre Unterscheidung von der Allgemeinsprache dar.
In der vorliegenden Masterarbeit geht es um die automatische Annotation von Bildern mithilfe der Kategoriesystematik der Wikipedia. Die Annotation soll anhand der Bildbeschriftungen und ihren Textreferenzen erfolgen. Hierbei wird für vorhandene Bilder eine passende Kategorie vorgeschlagen. Es handelt sich bei den Bildern um Abbildungen aus naturwissenschaftlichen Artikeln, die in Open Access Journals veröffentlicht wurden. Ziel der Arbeit ist es, ein konzeptionelles Verfahren zu erarbeiten, dieses anhand einer ausgewählten Anzahl von Bildern durchzuführen und zu evaluieren. Die Abbildungen sollen für weitere Forschungsarbeiten und für die Projekte der Wikimedia Foundation zur Verfügung stehen. Das Annotationsverfahren findet im Projekt NOA - Nachnutzung von Open Access Abbildungen Verwendung.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.
Vergleich von webbasierten Programmierschnittstellen zum Zugriff auf kontrollierte Vokabulare
(2016)
Diese Arbeit beschäftigt sich mit der Analyse von Webschnittstellen für kontrollierte Vokabulare von Informationseinrichtungen. Hierfür werden zunächst einige relevante Arten solcher Vokabulare vorgestellt. Außerdem wird ein Überblick über die in diesem Zusammenhang verwendeten Technologien und Standards für den maschinellen Datenaustausch über das World Wide Web gegeben. Darauf aufbauend werden schließlich die Schnittstellen von vier in der Bibliothekswelt viel genutzten Vokabularen miteinander verglichen. Zu diesem Zweck wird jedes Begriffssystem kurz vorgestellt und die Funktionalitäten der entsprechenden API untersucht. Danach werden die Untersuchungsobjekte nach ausgewählten Kriterien einander gegenübergestellt. Im Abschluss werden die Ergebnisse des Vergleichs präsentiert.
In den letzten Jahren ist, nicht zuletzt aufgrund der schnellen und einfachen Verfügbarkeit von Daten und Informationen, ein Anstieg an veröffentlichter Literatur zu beobachten. Bibliotheken stehen vor der Herausforderung, diese Ressourcen zu erschließen und damit verfügbar zu machen. Ein Teilaspekt ist hierbei die Klassifizierung. Die Arbeit untersucht Voraussetzungen und Möglichkeiten der automatischen Klassifizierung am Beispiel medizinischer Literatur. Der erste, theoretische Teil beinhaltet die Beschreibung der Grundlagen der Inhaltserschließung, des Data Mining und der automatischen Klassifizierung sowie eine umfassende Übersicht über den aktuellen Forschungsstand in diesem Bereich. Im zweiten Teil wird die Auswahl, Aufbereitung und Analyse eines aus Katalogdatensätzen der Bibliothek der Medizinischen Hochschule Hannover bestehenden Datenbestandes erläutert. Die Anwendung von Verfahren des maschinellen Lernens zur Klassifizierung bibliographischer Datensätze wird am Beispiel des Algorithmus k-nearest-neighbours verdeutlicht. Hierbei lässt sich eine korrekte Klassifizierung von rund 58 % der Dokumente erreichen. Abschließend werden Optimierungsansätze (z.B. semi-automatische Verfahren) und Herausforderungen automatischer Klassifizierungsverfahren (z.B. uneinheitlich erschlossene Datensätze oder ungleiche Verteilung der Klassen einer Systematik in den Dokumenten) aufgezeigt.
Im Rahmen der Projektphase des 6. Semesters der Studiengänge Bachelor Informationsmanagement (BIM) und Bachelor medizinisches Informationsmanagement (BMI) wurde eine Webseite für die Forschung erstellt. Um die Notwendigkeit zu ermitteln, sowie den Wünschen und Bedürfnissen der Angestellten an der Hochschule nachkommen zu können, wurde eine Bedarfsanalyse durchgeführt. Der nachfolgende Beitrag zeigt die Ergebnisse in aufbereiteter Form. Nach einer kurzen Einleitung werden die Bereiche statistische und allgemeine Fragen, Fragen zu digitalen Forschungsdaten und Netzwerken, zur Forschungswebseite und zur Pflege der Daten ausgewertet dargestellt.
Nicht-standardisierte Erweiterungen von SKOS-Thesauri und ihre Auswirkungen auf die Kompatibilität
(2016)
Vorliegende Arbeit beschäftigt sich mit den Auswirkungen von selbst-definierten Extensions auf Kompatibilität von SKOS-Thesauri untereinander. Zu diesem Zweck werden als Grundlage zunächst die Funktionsweisen von RDF, SKOS, SKOS-XL und Dublin Core Metadaten erläutert und die verwendete Syntax geklärt. Es folgt eine Beschreibung des Aufbaus von konventionellen Thesauri inkl. der für sie geltenden Normen. Danach wird der Vorgang der Konvertierung eines konventionellen Thesaurus in SKOS dargestellt. Um dann die selbst-definierten Erweiterungen und ihre Folgen betrachten zu können, werden fünf SKOS-Thesauri beispielhaft beschrieben. Dazu gehören allgemeine Informationen, ihre Struktur, die verwendeten Erweiterungen und ein Schaubild, das die Struktur als Übersicht darstellt. Anhand dieser Thesauri wird dann beschrieben wie Mappings zwischen den Thesauri erstellt werden
und welche Herausforderungen dabei bestehen.
Einführung einer institutionellen Forschungsdateninfrastruktur an der Helmut-Schmidt-Universität
(2016)
Die vorliegende Bachelorarbeit untersucht den zur Einführung einer institutionellen Forschungsdateninfrastruktur zu berücksichtigenden Handlungsrahmen an der Helmut-Schmidt-Universität/ Universität der Bundeswehr Hamburg (HSU/ UniBw H) und gibt unter besonderer Berücksichtigung möglicher Aufgabenfelder der Universitätsbibliothek allgemeine Handlungsempfehlungen für deren Implementierung. Da sich die Arbeit sowohl an die Verantwortlichen zur Einführung einer Forschungsdateninfrastruktur an der HSU/ UniBw H als auch an Interessierte der akademischen Gemeinschaft richtet, werden die zum besseren Verständnis besonders relevanten Begriffe zunächst herausgestellt. Auf der Grundlage aktueller Forschungsliteratur und verfügbarer Praxiserfahrung anderer Universitäten wurde mittels Webseitenanalyse und der Auswertung von Fragebögen eine gesamtheitliche Beschreibung für die Implementierung einer institutionellen Forschungsdateninfrastruktur zum Abgleich mit der Ausgangssituation an der HSU/ UniBw H erstellt. Die Arbeit verdeutlicht in den daraus abgeleiteten Handlungsempfehlungen den zu berücksichtigenden allgemeinen Handlungsrahmen in seiner Komplexität und zeigt vor allem diesbezügliche Aufgabenfelder der Universitätsbibliothek von der Initiierung bis zum Abschluss der Implementierung auf. Im Wesentlichen wird hierbei herausgestellt, dass die Universitätsbibliothek als klassische Gedächtnisorganisation und zentraler Informationsdienstleister ihre Kompetenzen besonders bei der Entwicklung und Verwirklichung des Forschungsdatenmanagements sinnvoll einbringen und zukunftsorientiert erweitern kann und sollte. Auslegungsbestimmend ist die von der Universitätsleitung festzulegende Ziel- und Zweckbestimmung der institutionellen Forschungsdateninfrastruktur. Diese dient dem Forschungsdatenmanagement zur Skalierung und Bestimmung von Umfang, Komplexität und Anforderungen an die potentiellen Aufgabenbereiche insbesondere der Universitätsbibliothek. Somit leistet diese Bachelorarbeit einen grundlegenden Beitrag zur weiteren Strukturierung und Konkretisierung der initiatorischen Überlegungen der Universitätsbibliotheksleitung zu den Möglichkeiten der Einführung einer institutionellen Forschungsdateninfrastruktur an der HSU/ UniBw H.
Die Reproduzierbarkeit von Studien ist wichtig, um ihre Ergebnisse prüfen zu können. Auch bei Forschung, die auf frühere Ergebnisse aufbaut, wird zuweilen ein Zugang zu den alten Daten oder dem Source Code benötigt. Diese Arbeit analysiert Studien aus der Computerlinguistik hinsichtlich ihrer Reproduzierbarkeit. Zunächst werden die Begrifflichkeiten zu diesem speziellen Gebiet definiert und im folgenden Schritt wird ein Datensatz erstellt, in dem ausgewählte Open-Access-Studien aus dem Jahre 2018 auf der Basis zuvor festgelegter Kriterien bewertet werden. Diese sind unter anderem die Zugänglichkeit des benutzten Materials, der angewendeten Methoden und der Ergebnisse. Neben den Kriterien werden auch Hypothesen zu diesem Datensatz aufgestellt. Schließlich werden die Ergebnisse visualisiert und hinsichtlich besagter Hypothesen interpretiert. Basierend auf der resultierenden Auswertung sind die meisten Studien reproduzierbar. Im Ausblick werden mögliche Weiterführungen und Erweiterungen dieser Untersuchung erläutert.
Open Educational Resources (OER) sind offen lizensierte und frei zugängliche Lehr- und Lernmaterialien, deren Inhalte übernommen, angepasst und unter der gleichen Lizenz weiter verbreitet werden dürfen. Sie stellen einen wichtigen Beitrag zum lebenslangen Lernen dar. In Zusammenhang mit dem wechselnden Rollenverständnis von Wissenschaftlichen Bibliotheken hin zu einem Lernort, gewinnen OER zunehmend an Bedeutung. Diese Arbeit beschäftigt sich mit der Nutzung und dem Umgang von OER in Wissenschaftlichen Bibliotheken. Dargestellt an ausgewählten Beispielen im Zusammenhang mit dem Studium von Flüchtlingen an der KIRON-Universität und deren Zugang zu deutschen Hochschulen. Abschließend gibt diese Arbeit einen Ausblick auf Bereiche, aus denen Bibliotheken zukünftige Dienstleistungen für Ihre Trägereinrichtungen im Bereich der OER entwickeln können. Die Arbeit basiert auf einer Prüfungsleistung vom 14.02.2016 in der Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ unter Frau Dr. Ina Blümel.
Dieses Paper geht auf eine Prüfungsleistung vom 14.02.2016 in der Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ im Wintersemester 2015/16 aus dem Studiengang Informationsmanagement (berufsbegleitend) der Hochschule Hannover unter Frau Dr. Ina Blümel zurück.
Das Ergebnis dieser Untersuchung ist eine umfassenden Literatur- und Internetrecherche zum Thema Open Government in Deutschland. Hierbei steht die Fragestellung "Welche Ziele hat die aktuelle Bundesregierung bis jetzt erreicht?" auf Basis des Koalitionsvertrags der 18.Legislaturperiode im Mittelpunkt. Es wird eine Übersicht über die Gesetzesgrundlage mit einem Fokus auf dem e-Government-Gesetz gegeben. Zudem wird der aktuelle Sachstand des Koalitionsvertrags betreffend Open Government an neun Punkten betrachtet und abschließend bewertet.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
Das Forschungscluster Smart Data Analytics stellt in dem vorliegenden Band seine Forschung aus den Jahren 2019 und 2020 vor. In der ersten Hälfte des Bandes geben 20 Kurzporträts von laufenden oder kürzlich abgeschlossenen Projekten einen Überblick über die Forschungsthemen im Cluster. Enthalten in den Kurzporträts ist eine vollständige, kommentierte Liste der wissenschaftlichen Veröffentlichungen aus den Jahren 2019 und 2020. In der zweiten Hälfte dieses Bandes geben vier längere Beiträge exemplarisch einen tieferen Einblick in die Forschung des Clusters und behandeln Themen wie Fehlererkennung in Datenbanken, Analyse und Visualisierung von Sicherheitsvorfällen in Netzwerken, Wissensmodellierung und Datenintegration in der Medizin, sowie die Frage ob ein Computerprogramm Urheber eines Kunstwerkes im Sinne des Urheberrechts sein kann.
Eine belastbare Datengrundlage ist notwendig sowohl für die Planung und Integration von Publikationsfonds an Hochschulen als auch im Hinblick auf Transformationsverträge zwischen Bibliotheken und wissenschaftlichen Verlagen. In den letzten Jahren hat sich der Datenservice Unpaywall diesbezüglich zu einem wichtigen Instrument für die Identifizierung von Open Access entwickelt. In dieser Arbeit sollen die Zuverlässigkeit sowie die Belastbarkeit des Datenservices auf Grundlage der zeitlichen Transformation des Dienstes untersucht werden. In diesem Zusammenhang werden elf Datenbanksnapshots des Services, die zwischen 2018 und 2020 erschienen sind, ausgewertet und Modifikationen über einen längeren Zeitraum herausgestellt. Ferner soll anhand einer vollständigen Erhebung aller Zeitschriftenartikel der Publikationsjahre 2008 bis 2018 analysiert werden, inwiefern sich Open Access im Publikationsaufkommen zwischen verschiedenen Snapshots verändert hat.
This research focuses on the fundamental ideas and underlying principles of E-Learning technology, as well as theoretical considerations for an optimal learning environment. This theoretical exploration was then used as a basis for the design and construction of a new, interactive Web-Based ESH-Training. The quality and effectiveness of this new course was then compared with that of the existing analog PDF-Training via a test with a diverse sample of employee learners. Learners were later surveyed to ascertain their views on both trainings in terms of the quality of the content, facilitator, resources, and length. Results clearly showed that regardless of demographic factors, most employee learners preferred the new, Web-Based ESH-Training to the analog PDF-Training.