Refine
Year of publication
Document Type
- Bachelor Thesis (14)
- Study Thesis (4)
- Master's Thesis (2)
- Book (1)
Has Fulltext
- yes (21)
Is part of the Bibliography
- no (21)
Keywords
- Automatische Klassifikation (2)
- Benutzerfreundlichkeit (2)
- Inhaltserschließung (2)
- Open Access (2)
- SKOS (2)
- Studium (2)
- Text Mining (2)
- API (1)
- Alte Drucke (1)
- Annotation (1)
Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
Metadaten für das digitale Archiv des Niedersächsischen Landesamts für Denkmalpflege : ein Konzept
(2013)
Das Niedersächsische Landesamt für Denkmalpflege (NLD) ist die zentrale Fachbehörde für den Denkmalschutz in Niedersachsen. Ihre Funktionen sind im Niedersächsischen Denkmalschutzgesetz festgelegt. Sie führt das Verzeichnis der Kulturdenkmale in Niedersachsen und ist zentrale Archivstelle. Die Archivbestände der beiden fachlichen Bereiche Archäologie und Bau- und Kunstdenkmalpflege sollen im Fachinformationssystem ADABweb digital erschlossen werden, so dass sie mit den Objektdaten verknüpft werden können. Das Metadatenschema für die Archivalien soll sich an relevanten Standards orientieren und mit diesen weitgehend interoperabel sein. Zugleich sind die besonderen Informationsbedürfnisse der Denkmalpflege zu berücksichtigen.
Automatische Spracherkennungssysteme (Automatic Speech Recognition - ASR) können derzeit nicht alle Wörter korrekt erkennen und daher noch keine guten Transkriptionen erstellen. Die Qualität der automatischen Spracherkennung wird von vielen Faktoren beeinflusst. Einer davon ist das Vokabular. Je vielfältiger und komplexer die Themen, desto größer die Anzahl der fachspezifischen Wörter ist, die erkannt werden müssen, desto schwieriger ist die Erkennungsaufgabe und desto schlechter sind die Transkriptionsergebnisse. Die Sprachmodelle von automatischen Spracherkennungssystemen müssen durch Training angepasst werden, damit sie auch bei Gebieten mit speziellem Vokabular gute Resultate erzielen können. In dieser Arbeit wird untersucht, ob der prozentuale Anteil der korrekt erkannten Wörter durch Training des Sprachmodells der automatischen Spracherkennung mit fachspezifischer Terminologie wirksam gesteigert werden kann. Anhand von Ergebnissen der durchgeführten Experimente wird dargelegt, welche Anzahl und Art von Daten benötigt wird, um den Prozentsatz der falsch erkannten Wörter zu senken. Die Ergebnisse der Domänen-Adaption bilden die Basis für den anschließenden Vergleich des fachspezifischen Vokabulars in Vorlesungsvideos und wissenschaftlichen Publikationen, um die Unterschiede hinsichtlich der verwendeten Fachsprache aufzuzeigen. Grundlage und Ausgangspunkt für die gesamte Untersuchung stellt die Erkennung der Fachterminologie und ihre Unterscheidung von der Allgemeinsprache dar.
Inhalt dieser Seminararbeit ist eine Untersuchung 20 großer Open-Access-Publisher zur Beantwortung der Fragen, welche der Publisher die Artikel in den von ihnen herausgegebenen Journals neben PDF auch strukturiert anbieten und welche zusätzlichen Features gegebenenfalls angeboten werden. Der Untersuchung liegen jeweils mindestens zwei Journals eines Publishers zugrunde. Die Arbeit wurde als Leistungsnachweis für die Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ im WS 2014/15 angefertigt.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
Die Bachelorarbeit beschäftigt sich mit der Ontologie des Forschungsinformationssystems VIVO. In der Arbeit wird der Versuch unternommen, die Ontologie an die Besonderheiten des deutschen Wissenschaftsbetriebs anzupassen, mit dem Ziel, die Einführung des Systems für eine deutsche Einrichtung zu erleichtern. Das Mapping und die Erweiterung sind auf die Bereiche „Positionsbezeichnungen“ und „Organisationseinheiten“ beschränkt.
Der theoretische Teil behandelt das Thema der Forschungsinformationen und deren Implementierung in ein Forschungsinformationssystem. Unter anderem werden auch die Tendenzen der Standardisierung in dem Bereich beleuchtet.
Bei der Darstellung von VIVO als eine Semantic-Web-Anwendung steht die Ontologie, als Grundlage für die Funktionalitäten des Systems im Vordergrund.
Das Thema Linked Open Data hat in den vergangenen Jahren im Bereich der Bibliotheken viel Aufmerksamkeit erfahren. Unterschiedlichste Projekte werden von Bibliotheken betrieben, um Linked Open Data für die Einrichtung und die Kunden nutzbringend einzusetzen. Ausgangspunkt für diese Arbeit ist die These, dass Linked Open Data im Bibliotheksbereich das größte Potenzial freisetzen kann. Es wird überprüft, inwiefern diese Aussage auch auf Öffentliche Bibliotheken zutrifft und aufgezeigt, welche Möglichkeiten sich daraus ergeben könnten.
Die Arbeit führt in die Grundlagen von Linked Open Data (LOD) ein und betrachtet die Entwicklungen im Bibliotheksbereich. Dabei werden besonders Initiativen
zur Behandlung bibliothekarischer Metadaten und der aktuelle Entwicklungsstand von LOD-fähigen Bibliothekssystemen behandelt. Danach wird eine Auswahl
an LOD-Datensets vorgestellt, die bibliothekarische Metadaten liefern oder deren Daten als Anreicherungsinformationen in Kataloganwendungen eingesetzt werden können.
Im Anschluss wird das Projekt OpenCat der Öffentlichen Bibliothek Fresnes (Frankreich) sowie das LOD-Projekt an der Deichmanske Bibliothek Oslo (Norwegen) vorgestellt. Darauf folgt ein Einblick in die Möglichkeiten, welche durch die Verwendung von LOD in Öffentlichen Bibliotheken verwirklicht werden könnten sowie erste Handlungsempfehlungen für Öffentliche Bibliotheken.
Vergleich von webbasierten Programmierschnittstellen zum Zugriff auf kontrollierte Vokabulare
(2016)
Diese Arbeit beschäftigt sich mit der Analyse von Webschnittstellen für kontrollierte Vokabulare von Informationseinrichtungen. Hierfür werden zunächst einige relevante Arten solcher Vokabulare vorgestellt. Außerdem wird ein Überblick über die in diesem Zusammenhang verwendeten Technologien und Standards für den maschinellen Datenaustausch über das World Wide Web gegeben. Darauf aufbauend werden schließlich die Schnittstellen von vier in der Bibliothekswelt viel genutzten Vokabularen miteinander verglichen. Zu diesem Zweck wird jedes Begriffssystem kurz vorgestellt und die Funktionalitäten der entsprechenden API untersucht. Danach werden die Untersuchungsobjekte nach ausgewählten Kriterien einander gegenübergestellt. Im Abschluss werden die Ergebnisse des Vergleichs präsentiert.
In den letzten Jahren ist, nicht zuletzt aufgrund der schnellen und einfachen Verfügbarkeit von Daten und Informationen, ein Anstieg an veröffentlichter Literatur zu beobachten. Bibliotheken stehen vor der Herausforderung, diese Ressourcen zu erschließen und damit verfügbar zu machen. Ein Teilaspekt ist hierbei die Klassifizierung. Die Arbeit untersucht Voraussetzungen und Möglichkeiten der automatischen Klassifizierung am Beispiel medizinischer Literatur. Der erste, theoretische Teil beinhaltet die Beschreibung der Grundlagen der Inhaltserschließung, des Data Mining und der automatischen Klassifizierung sowie eine umfassende Übersicht über den aktuellen Forschungsstand in diesem Bereich. Im zweiten Teil wird die Auswahl, Aufbereitung und Analyse eines aus Katalogdatensätzen der Bibliothek der Medizinischen Hochschule Hannover bestehenden Datenbestandes erläutert. Die Anwendung von Verfahren des maschinellen Lernens zur Klassifizierung bibliographischer Datensätze wird am Beispiel des Algorithmus k-nearest-neighbours verdeutlicht. Hierbei lässt sich eine korrekte Klassifizierung von rund 58 % der Dokumente erreichen. Abschließend werden Optimierungsansätze (z.B. semi-automatische Verfahren) und Herausforderungen automatischer Klassifizierungsverfahren (z.B. uneinheitlich erschlossene Datensätze oder ungleiche Verteilung der Klassen einer Systematik in den Dokumenten) aufgezeigt.
Nicht-standardisierte Erweiterungen von SKOS-Thesauri und ihre Auswirkungen auf die Kompatibilität
(2016)
Vorliegende Arbeit beschäftigt sich mit den Auswirkungen von selbst-definierten Extensions auf Kompatibilität von SKOS-Thesauri untereinander. Zu diesem Zweck werden als Grundlage zunächst die Funktionsweisen von RDF, SKOS, SKOS-XL und Dublin Core Metadaten erläutert und die verwendete Syntax geklärt. Es folgt eine Beschreibung des Aufbaus von konventionellen Thesauri inkl. der für sie geltenden Normen. Danach wird der Vorgang der Konvertierung eines konventionellen Thesaurus in SKOS dargestellt. Um dann die selbst-definierten Erweiterungen und ihre Folgen betrachten zu können, werden fünf SKOS-Thesauri beispielhaft beschrieben. Dazu gehören allgemeine Informationen, ihre Struktur, die verwendeten Erweiterungen und ein Schaubild, das die Struktur als Übersicht darstellt. Anhand dieser Thesauri wird dann beschrieben wie Mappings zwischen den Thesauri erstellt werden
und welche Herausforderungen dabei bestehen.