020 Bibliotheks- und Informationswissenschaft
Refine
Year of publication
Document Type
- Bachelor Thesis (72)
- Conference Proceeding (36)
- Article (35)
- Master's Thesis (19)
- Part of a Book (15)
- Study Thesis (14)
- Book (9)
- Report (7)
- Working Paper (7)
- Preprint (5)
Has Fulltext
- yes (224)
Is part of the Bibliography
- no (224)
Keywords
- Bibliothek (44)
- Informationskompetenz (15)
- Informationsmanagement (15)
- Wissenschaftliche Bibliothek (15)
- Wissensmanagement (13)
- Öffentliche Bibliothek (13)
- Ausbildung (12)
- Digitalisierung (10)
- Benutzerfreundlichkeit (9)
- Information Retrieval (9)
Using openEHR Archetypes for Automated Extraction of Numerical Information from Clinical Narratives
(2019)
Up to 80% of medical information is documented by unstructured data such as clinical reports written in natural language. Such data is called unstructured because the information it contains cannot be retrieved automatically as straightforward as from structured data. However, we assume that the use of this flexible kind of documentation will remain a substantial part of a patient’s medical record, so that clinical information systems have to deal appropriately with this type of information description. On the other hand, there are efforts to achieve semantic interoperability between clinical application systems through information modelling concepts like HL7 FHIR or openEHR. Considering this, we propose an approach to transform unstructured documented information into openEHR archetypes. Furthermore, we aim to support the field of clinical text mining by recognizing and publishing the connections between openEHR archetypes and heterogeneous phrasings. We have evaluated our method by extracting the values to three openEHR archetypes from unstructured documents in English and German language.
This paper deals with new job profiles in libraries, mainly systems librarians (German: Systembibliothekare), IT librarians (German: IT-Bibliothekare) and data librarians (German: Datenbibliothekare). It investigates the vacancies and requirements of these positions in the German-speaking countries by analyzing one hundred and fifty published job advertisements of OpenBiblioJobs between 2012-2016. In addition, the distribution of positions, institutional bearers, different job titles as well as time limits, scope of work and remuneration of the positions are evaluated. The analysis of the remuneration in the public sector in Germany also provides information on demands for a bachelor's or master's degree.
The average annual increase in job vacancies between 2012 and 2016 is 14.19%, confirming the need and necessity of these professional library profiles.
The higher remuneration of the positions in data management, in comparison to the systems librarian, proves the prerequisite of the master's degree and thus indicates a desideratum due to missing or few master's degree courses. Accordingly, the range of bachelor's degree courses (or IT-oriented major areas of study with optional compulsory modules in existing bachelor's degree courses) for systems and IT librarians must be further expanded. An alternative could also be modular education programs for librarians and information scientists with professional experience, as it is already the case for music librarians.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Schriftliche Nachlässe werden in deutschen Bibliotheken in einer langen Tradition ge-sammelt und verwaltet. In der vorliegenden Bachelorarbeit werden die Besonderheit von schriftlichen Nachlässen und die Entwicklung der Nachlassbearbeitung erläutert. Zunächst werden zur Einführung in die Thematik Begriffsdefinitionen, die Bedeutung sowie die Entwicklungen in der Bearbeitung von Nachlässen dargelegt. An die Einführungen werden die Frage nach der Zuständigkeit zur Übernahme eines Nachlasses und der damit zusammenhängende Kompetenzstreitfall angeknüpft. Im Folgenden wird die Erwerbung thematisiert. Dazu werden die verschiedenen Erwerbungsarten vorgestellt und die möglichen rechtlichen Probleme in der Erwerbung aufgezeigt. Die Bearbeitung von Nachlässen wird anhand von Kassation, Ordnung, Erschließung und Maßnahmen zur Bestandserhaltung dargestellt. Die Thematik der schriftlichen Nachlässe wird mit Aspekten und Fragen der Nutzung abgeschlossen. Der theoretischen Abhandlung folgt die Dokumentation der Ordnung und Erschließung der Fotografien-Sammlung aus dem Nachlass von Robert Michel und Ella Bergmann-Michel, die mit der Vorstellung des Künstlerpaares und dessen Nachlass beginnt. Danach folgt die Erläuterung der praktischen Aufgabe im Hinblick auf Zielsetzung, Ausgangssituation, Vorbereitung und Durchführung. Abgeschlossen wird die Dokumentation mit Empfehlungen für die zukünftige Bearbeitung der Fotografien und des gesamten Nachlasses.
Self-directed learning is an essential basis for lifelong learning and requires constantly changing, target groupspecific and personalized prerequisites in order to motivate people to deal with modern learning content, not to overburden them and yet to adequately convey complex contexts. Current challenges in dealing with digital resources such as information overload, reduction of complexity and focus, motivation to learn, self-control or psychological wellbeing are taken up in the conception of learning settings within our QpLuS IM project for the study program Information Management and Information Management extra-occupational (IM) at the University of Applied Sciences and Arts Hannover. We present an interactive video on the functionality of search engines as a practical example of a medially high-quality and focused self-learning format that has been methodically produced in line with our agile, media-didactic process and stage model of complexity levels.
Open Access zu Textpublikationen und Forschungsdaten: Positionen politischer Parteien in Deutschland
(2016)
Die Arbeit beginnt mit einem Blick auf die Entstehung der Open-Access-Bewegung und erklärt die zentralen Begriffe Open Access zu Textpublikationen und Forschungsdaten und stellt das Zweitveröffentlichungsrecht vor. Die Vorstellung der beschlossenen Open-Access-Strategien, zusammen mit der Untersuchung von Wahlprogrammen und Koalitionsverträgen vermittelt einen Gesamteindruck zum aktuellen Open-Access-Stand in den Ländern. Bereits seit zehn Jahren ist die Forderung nach Open Access, dem freien Zugang zu wissenschaftlichen Informationen, Bestandteil der Wahlprogramme politischer Parteien. Trotzdem beschlossen erst in den Jahren 2014 und 2015 die Länder Baden-Württemberg, Berlin und Schleswig-Holstein landesweite Konzepte zur Open-Access-Förderung. Im Sommer 2016 wird unter den politischen Parteien in Deutschland eine schriftliche Befragung durchgeführt. Ziel der Befragung ist die Ermittlung der Positionen der Parteien, um Rückschlüsse auf die weitere Open-Access-Entwicklung in Deutschland zu ziehen.
Für Fachangestellte für Medien- und Informationsdienste (FaMIs) ist berufsbegleitendes Studieren eine erfolgreiche Maßnahme zur Höherqualifizierung. Bibliotheken können ihrerseits im Rahmen der Personalentwicklung mit der Unterstützung von studierenden Mitarbeitenden dem Fachkräftemangel entgegenwirken. Der Beitrag stellt die Personalentwicklungsmaßnahme am Beispiel des Bachelor-Studiengangs „Informationsmanagement – berufsbegleitend“ der Hochschule Hannover vor. Es werden Informationen aus der Beratungspraxis dargelegt und die mögliche Unterstützung durch die entsendenden Bibliotheken aufgezeigt.
Der zielorientierte Umgang mit Wissen bildet eine zentrale Herausforderung für Unternehmen und deren Mitarbeiter. Deren Kompetenzentwicklung ist für die Unternehmen unter dem Aspekt der Wettbewerbsfähigkeit ein lohnendes Ziel. Diese Arbeit stellt ein Werkzeug zur Messung von Kompetenzen im Persönlichen Wissensmanagement vor. Auf einer Literaturstudie basierend wurde ein Kompetenzkatalog erstellt und mit Hilfe einer Befragung von Fachleuten aus dem Bereichen Informations- und Wissensmanagement validiert. Dieser Kompetenzkatalog findet Eingang in einen Referenzrahmen für Kompetenzen für Persönliches Wissensmanagement. Zur Bestimmung der Niveaustufen Experte, Könner und Kenner im Persönlichen Wissensmanagement wurde ein Messwerkzeug erarbeitet und anhand von zwei Gruppen auf Gültigkeit überprüft. Die eine Gruppe bestand aus Mitarbeitern Exzellenter Wissensorganisationen, die andere aus interessierten Mitarbeitern aus nicht-explizit wissensorientierten Unternehmen. Es konnte nachgewiesen werden, dass beide Gruppen in acht Einzelkompetenzen signifikante Unterschiede besaßen. Auch für weitere Kompetenzen konnten Messdimensionen aus den Rückmeldungen der Umfrage hergeleitet werden. In einigen Fällen allerdings konnten die Niveaustufen Könner und Kenner nicht unterschieden werden.
Die vorliegende Bachelorarbeit stellt den Einsatz von Social Software beim Regionalfernsehsender „h1 – Fernsehen aus Hannover“ dar. Nach einem kurzen Einblick in die Grundlagen von Social Software folgt die Vorstellung des Senders. Hierbei wird vor allem der organisatorische Aufbau und die Kommunikation im Sender näher betrachtet. Anschließend wird dargestellt, welche Informationsmittel bei h1 durch den Einsatz von Social Software ersetzt wurden und wie sich dadurch die Kommunikation und das Informationsmanagement innerhalb des Unternehmens verbessert hat.
Automatic classification of scientific records using the German Subject Heading Authority File (SWD)
(2012)
The following paper deals with an automatic text classification method which does not require training documents. For this method the German Subject Heading Authority File (SWD), provided by the linked data service of the German National Library is used. Recently the SWD was enriched with notations of the Dewey Decimal Classification (DDC). In consequence it became possible to utilize the subject headings as textual representations for the notations of the DDC. Basically, we we derive the classification of a text from the classification of the words in the text given by the thesaurus. The method was tested by classifying 3826 OAI-Records from 7 different repositories. Mean reciprocal rank and recall were chosen as evaluation measure. Direct comparison to a machine learning method has shown that this method is definitely competitive. Thus we can conclude that the enriched version of the SWD provides high quality information with a broad coverage for classification of German scientific articles.
We present a simple method to find topics in user reviews that accompany ratings for products or services. Standard topic analysis will perform sub-optimal on such data since the word distributions in the documents are not only determined by the topics but by the sentiment as well. We reduce the influence of the sentiment on the topic selection by adding two explicit topics, representing positive and negative sentiment. We evaluate the proposed method on a set of over 15,000 hospital reviews. We show that the proposed method, Latent Semantic Analysis with explicit word features, finds topics with a much smaller bias for sentiments than other similar methods.
Regional Innovation Systems describe the relations between actors, structures and infrastructures in a region in order to stimulate innovation and regional development. For these systems the collection and organization of information is crucial. In the present paper we investigate the possibilities to extract information from websites of companies. First we describe regional innovation systems and the information types that are necessary to create them. Then we discuss the possibilities of text mining and keyword extraction techniques to extract this information from company websites. Finally, we describe a small scale experiment in which keywords related to economic sectors and commodities are extracted from the websites of over 200 companies. This experiment shows what the main challenges are for information extraction from websites for regional innovation systems.
Library of Congress Subject Headings (LCSH) are popular for indexing library records. We studied the possibility of assigning LCSH automatically by training classifiers for terms used frequently in a large collection of abstracts of the literature on hand and by extracting headings from those abstracts. The resulting classifiers reach an acceptable level of precision, but fail in terms of recall partly because we could only train classifiers for a small number of LCSH. Extraction, i.e., the matching of headings in the text, produces better recall but extremely low precision. We found that combining both methods leads to a significant improvement of recall and a slight improvement of F1 score with only a small decrease in precision.
Distributional semantics tries to characterize the meaning of words by the contexts in which they occur. Similarity of words hence can be derived from the similarity of contexts. Contexts of a word are usually vectors of words appearing near to that word in a corpus. It was observed in previous research that similarity measures for the context vectors of two words depend on the frequency of these words. In the present paper we investigate this dependency in more detail for one similarity measure, the Jensen-Shannon divergence. We give an empirical model of this dependency and propose the deviation of the observed Jensen-Shannon divergence from the divergence expected on the basis of the frequencies of the words as an alternative similarity measure. We show that this new similarity measure is superior to both the Jensen-Shannon divergence and the cosine similarity in a task, in which pairs of words, taken from Wordnet, have to be classified as being synonyms or not.
Lemmatization is a central task in many NLP applications. Despite this importance, the number of (freely) available and easy to use tools for German is very limited. To fill this gap, we developed a simple lemmatizer that can be trained on any lemmatized corpus. For a full form word the tagger tries to find the sequence of morphemes that is most likely to generate that word. From this sequence of tags we can easily derive the stem, the lemma and the part of speech (PoS) of the word. We show (i) that the quality of this approach is comparable to state of the art methods and (ii) that we can improve the results of Part-of-Speech (PoS) tagging when we include the morphological analysis of each word.
We compare the effect of different segmentation strategies for passage retrieval of user generated internet video. We consider retrieval of passages for rather abstract and complex queries that go beyond finding a certain object or constellation of objects in the visual channel. Hence the retrieval methods have to rely heavily on the recognized speech. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video no author defined paragraph structure is available. We compare retrieval results from 5 different types of segments: segments defined by shot boundaries, prosodic segments, fixed length segments, a sliding window and semantically coherent segments based on speech transcripts. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusions are (1) that fixed length and coherent segments are clearly superior to segments based on speaker turns or shot boundaries; (2) that the retrieval results highly depend on the right choice for the segment length; and (3) that results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently fewer segments have to be considered at retrieval time.
This paper describes the approach of the Hochschule Hannover to the SemEval 2013 Task Evaluating Phrasal Semantics. In order to compare a single word with a two word phrase we compute various distributional similarities, among which a new similarity measure, based on Jensen-Shannon Divergence with a correction for frequency effects. The classification is done by a support vector machine that uses all similarities as features. The approach turned out to be the most successful one in the task.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
Normdaten in Wikidata
(2014)
Wikidata ist eine freie, gemeinsame Datenbank und Projekt der Wikimedia-Foundation. Ziel ist es, strukturierte Daten zu zentralisieren und nutzbar zu machen. Dieses Handbuch bietet mit detaillierten und bebilderten Texten eine Anleitung zur Unterstützung des Wikidata-Projektes. Ein theoretischer und ein praktischer Teil erläutern die wichtigsten Begriffe und erklären Wikidata Schritt für Schritt. Dabei wird ein Schwerpunkt auf das Thema Normdaten in Wikidata gelegt. Ein Glossar sowie eine FAQ am Ende des Handbuchs geben Hilfestellung bei Begriffen und Fragen.
Dieses Handbuch entstand im Rahmen eines Projektseminars im Sommersemester 2014 an der Hochschule Hannover. Alle Inhalte des Handbuchs stehen auf http://hshdb.github.io/normdaten-in-wikidata unter den Bedingungen der CC-BY-SA Lizenz zur freien Verfügung.
Möglichkeiten der Nachqualifizierung für Quereinsteiger*innen in wissenschaftlichen Bibliotheken
(2022)
Der Fachkräftemangel und die Verschiebung und Diversifizierung von Tätigkeiten prägen die derzeitige Personalsituation in deutschen wissenschaftlichen Bibliotheken. In dieser Arbeit wird die Gruppe der Quereinsteiger*innen auf der Ebene des gehobenen Dienstes definiert und in den Fokus genommen: Anhand einer Umfrage, Recherche und Mailkontakt werden Möglichkeiten der Nachqualifizierung dieser heterogenen Zielgruppe eruiert. Dies betrifft sowohl die externe Personalentwicklung beziehungsweise Weiterbildung (Studiengänge und Zertifikatsprogramme) als auch die interne Personalentwicklung durch die Arbeitgeber. Durch die Perspektive auf die Personalentwicklungsmaßnahmen der Länder Niederlande, Großbritannien und Österreich werden Optimierungsmöglichkeiten für die Personalentwicklung in Deutschland aufgezeigt.
Die Sammlung, Archivierung und Digitalisierung von Botanischen Belegen als Wertschöpfungskette
(2010)
Im Rahmen des Forschungsprojekts Herbar Digital an der Fachhochschule Hannover soll die Digitalisierung von Herbarbelegen um eine Zehnerpotenz auf 2 US-Dollar pro Beleg gesenkt werden. Ein Ansatz zielt auf die Optimierung von Geschäftsprozessen ab. Im Verlauf des Forschungsprojektes hat sich bei der Modellierung von Geschäftsprozessen zur Digitalisierung gezeigt, dass die Prozesse eines Herbariums nicht isoliert betrachtet werden können.<br /> Die vorliegende Untersuchung analysiert daher botanische Aktivitäten der Sammlung, Bestimmung, Digitalisierung, Lagerung und Auswertung von Belegen in acht deutschen Herbarien. So werden Ergebnisse über die Kombination der Ressourcen Arbeitsmittel, Personalien und Informationen in den einzelnen Aktivitäten offen gelegt, die bei der Referenzmodellierung von Geschäftsprozessen angewendet werden können. Die hier gewonnenen Ergebnisse der explorativen Vorgehensweise lassen sich in repräsentativen Untersuchungen tiefergehend analysieren.
Presse-, Informations- und Meinungsfreiheit sind miteinander verbundene Basisrechte. Durch das Recht sich frei zu informieren wird das Recht der freien Meinungsäußerung und damit die freie Presse sichergestellt. Die sich weltweit verändernden Presselagen stellen nicht nur die Pressefreiheit vor Herausforderungen. Durch die Fähigkeit erhaltene Informationen zu verarbeiten, wird die Informationskompetenz der Bevölkerung ermöglicht und sichergestellt. Die Ausübung dieser Kompetenz hingegen ist die Grundlage sich aktiv an demokratischen Prozessen zu beteiligen. Ziel dieser Arbeit ist es, mittels der Rangliste zur Presselage der Reporter ohne Grenzen und anhand der Daten zur Informationsfreiheit des DA2I Dashboards sowie literaturbasierten Kriterien zu untersuchen, inwiefern sich die Lage der Presse- und Informationsfreiheit auf Bibliotheksdienstleistungen öffentlicher Bibliotheken auswirkt. Im Ergebnis wirken sich diese nicht ausschließlich auf den Medienbestand aus. Die Zustände der genannten Basisrechte in einem Staat haben auch Einfluss auf die Veranstaltungsarbeit.
Der Beitrag stellt zunächst die Ergebnisse einer Auswertung von Stellenanzeigen aus der Mailingliste InetBib vor, die zeigt, dass die Nachfrage nach Absolventinnen und Absolventen bibliothekarischer Studiengänge mit einer Qualifikation für den Aufgabenbereich der Vermittlung von Informationskompetenz
seit dem Jahr 2000 signifikant gestiegen ist. Ergänzend hierzu präsentieren die Autorinnen die Ergebnisse einer Befragung unter Vertreterinnen und Vertretern der bibliothekarischen Berufspraxis zu im Bereich der Vermittlung von Informationskompetenz geforderten Kompetenzen und deren
Gewichtung innerhalb der verschiedenen Qualifikationsstufen.
Der Beitrag stellt Ergebnisse der Fachgruppe Informationskompetenz der KIBA vor, in der alle Lehrenden im Bereich der Vermittlung von Medien- und Informationskompetenz an bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland zusammenarbeiten. Ausgangspunkt ist das „Framework Informationskompetenz“, ein Anforderungsrahmen, der gemeinsame Standards in der Qualifikation von Studierenden der Bibliotheks- und Informationswissenschaft für das Aufgabenfeld der Förderung von Informationskompetenz sichern soll. Es wird aufgezeigt, wie die in diesem Rahmenmodell formulierten Qualifikationsstandards in den verschiedenen Studiengängen umgesetzt werden und wo es bedarfsbezogene Ausprägung und Gewichtung in den Qualifikationszielen gibt.
Die vorliegende Ausarbeitung befasst sich mit der Digitalisierung und der Öffnung des Kulturerbes. Anhand einer theoretischen und qualitativen Untersuchung mit Experteninterviews soll verdeutlicht werden, warum einige Kulturerbeinstitutionen wenig motiviert sind, ihre Sammlungen und Artefakte digital zu öffnen. Mit Hilfe von sieben Experteninterviews aus unterschiedlichen kulturellen Digitalisierungsbereichen soll erforscht werden, wo die Kulturerbedigitalisierung aktuell steht und welche Chancen und Risiken Digitalisierungsmaßnahmen fördern oder hemmen. Weiter werden die Ergebnisse geprüft, um daraus mobilisierende Maßnahmen zu erkennen.
Der systematische Umgang mit Wissen wird für Unternehmen immer bedeutender, seitdem Wissen als Ressource im Unternehmen erkannt wurde. Hierbei hilft der Einsatz von Knowledge Management. Die Organisation von Wissen in einem Unternehmen kann durch eine Vielzahl von Knowledge Management-Tools erfolgen. Die Auswahl des dafür geeignetsten Knowledge Management-Tools stellt viele Knowledge Manager und Mitarbeiter eines Unternehmens vor schwierige Entscheidungen. Durch eine gezielte Auswahl lässt sich die Identifizierung, der Erwerb, die Entwicklung und die (Ver)Teilung sowie die Bewahrung und die Nutzung von Wissen steigern und steuern. Ziel dieser vorliegenden Bachelorarbeit ist es, ein Auswahlverfahren zu beschreiben, das die Auswahl geeigneter Knowledge Management-Tools unterstützt. Zur Unterstützung des Verfahrens wurde die Form einer Matrix gewählt. Durch die Knowledge Management-Tool-Matrix wird Knowledge Managern und Mitarbeitern die Auswahl geeigneter Knowledge Management-Tools erleichtert und zusätzlich transparent und nachvollziehbar gemacht. Vor der Erläuterung der Knowledge Management-Tool-Matrix als neues Auswahlverfahren, beschäftigt sich die Arbeit mit den Grundlagen des Knowledge Managements und stellt das Unternehmen PricewaterhouseCoopers Aktiengesellschaft Wirtschaftsprüfungsgesellschaft vor. Anschließend werden die vorhandenen Verfahren zur Auswahl von Knowledge Management-Tools vorgestellt. Nachfolgend wird das Vorgehen zur Entwicklung der Knowledge Management-Tool-Matrix beschrieben. Die ausführliche Beschreibung der Dimensionen und der Verwendung dieser Knowledge Management-Tool-Matrix bildet den Schwerpunkt dieser Arbeit und wird von der Zusammenfassung abgeschlossen.
Die Einführung von Discovery-Systemen in wissenschaftlichen Bibliotheken ist aktuell ein viel diskutiertes Thema in der deutschen Bibliothekslandschaft. In dieser Bachelorarbeit wird die konkrete Implementierung des Discovery-Systems in der Herzog August Bibliothek (HAB) in Wolfenbüttel betrachtet. Hierfür wird zunächst ein generelles Verständnis für Bibliothekskatalogsysteme geschaffen. Eine vergleichende Studie der Recherchequalität zwischen dem Discovery-System und dem bestehenden OPAC (Online Public Access Catalogue) wird durchgeführt, um zum einen Empfehlungen für notwendige Anpassungen an dem Discovery-System auszusprechen und zum anderen letztendlich eine Aussage über die Möglichkeit einer Abschaltung des OPACs zu treffen. Eine Abschaltung des OPACs ist aufgrund der Ergebnisse nur dann erfolgreich möglich, wenn die HAB ihre Viel- und Intensivnutzer in den Implementierungsprozess mit einbezieht und deren Anforderungen und Wünsche an das Discovery-System umsetzt. Die Studie zeigt, dass die Benutzer der HAB an den OPAC gewohnt sind und für die HAB daher die Herausforderung in der Akzeptanzschaffung für das neue System liegt.
Open Educational Resources (OER) sind sich in Deutschland bisher hauptsächlich im Bereich der schulischen Bildung im Gespräch. Ihr Potential innerhalb der deutschen Hochschullehre wurde zwar bereits erkannt, wird aber bisher noch nicht genutzt.
Die Arbeit gibt einen Überblick über die terminologischen Grundlagen von OER und ihren Entwicklungsmöglichkeiten im Hochschulbereich. In einer Zusammenfassung werden die Förderung von OER durch die Europäische Kommission und in Deutschland, sowie ihre Entwicklung im deutschen Hochschulbereich dargestellt. In einem theoretischen Abgleich aktueller Studien und Fachliteratur wird eine Bestandsaufnahme zu neuen Aufgabenbereichen für Wissenschaftlicher Bibliotheken durch OER durchgeführt.
Eine Expertenbefragung, die beispielhaft unter Lehrenden der Leibniz Universität Hannover (LUH) durchgeführt wurde, gibt Aufschluss über deren aktuellen Nutzungsstand von OER. Die wird ergänzt durch eine Untersuchung zweier Sharingdienste (Zenodo und SlideShare) nach freien Lehrmaterialien von Angehörigen der LUH.
Abschließend werden auf der Basis der theoretischen Möglichkeiten sowie der individuellen Bedürfnisse der Lehrenden Empfehlungen für neue Dienstleistungen und Serviceangebote Wissenschaftlicher Bibliotheken zur Unterstützung der Hochschulen bei der Einführung, Herstellung und Verbreitung von OER am Beispiel der Technischen Informationsbibliothek Hannover (TIB) gegeben, sowie neue Aufgabenbereiche für Hochschulbibliotheken skizziert, die sich daraus ergeben.
Open Educational Resources (OER) sind offen lizensierte und frei zugängliche Lehr- und Lernmaterialien, deren Inhalte übernommen, angepasst und unter der gleichen Lizenz weiter verbreitet werden dürfen. Sie stellen einen wichtigen Beitrag zum lebenslangen Lernen dar. In Zusammenhang mit dem wechselnden Rollenverständnis von Wissenschaftlichen Bibliotheken hin zu einem Lernort, gewinnen OER zunehmend an Bedeutung. Diese Arbeit beschäftigt sich mit der Nutzung und dem Umgang von OER in Wissenschaftlichen Bibliotheken. Dargestellt an ausgewählten Beispielen im Zusammenhang mit dem Studium von Flüchtlingen an der KIRON-Universität und deren Zugang zu deutschen Hochschulen. Abschließend gibt diese Arbeit einen Ausblick auf Bereiche, aus denen Bibliotheken zukünftige Dienstleistungen für Ihre Trägereinrichtungen im Bereich der OER entwickeln können. Die Arbeit basiert auf einer Prüfungsleistung vom 14.02.2016 in der Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ unter Frau Dr. Ina Blümel.
Publication Bias
(2016)
According to the Declaration of Helsinki, as well as the Statement on Public Disclosure of Clinical Trial Results of the World Health Organization, every researcher has the ethical obligation to publish research results on all trials with human participants in a complete and accurate way within 12 months after the end of the trial.1,2 Nevertheless, for several reasons, not all research results are published in an accurate way in case they are released at all. This phenomenon of publication bias may not only create a false impression on the reliability of clinical research business, but it may also affect the evidence of clinical conclusions about the best treatments, which are mostly based on published data and results.
Die vorliegenden Bachelorarbeit befasst sich mit der Analyse und der zunehmenden Wichtigkeit von Social Media im emotionalen Wirtschaftszweig Profifußball. Hierzu werden verschiedenste Social-Media- und Web 2.0-Angebote vorgestellt und Fakten zum Einsatz in der freien Wirtschaft präsentiert. Unter Berücksichtigung des Wandels zu mehr Kommerzialisierung im Profifußball, fällt die Analyse der aktuellen Präsenz der Bundesligisten auf Facebook, Twitter und Co kritisch aus. Besonders im Vergleich mit europäischen Vereinen zeigt sich ein großer Nachholbedarf deutscher Clubs. Abschließend folgt der Versuch einer Strategiebewertung anhand des Bundesligisten SV Werder Bremen. Die Auswertung von offiziellen und inoffiziellen Angeboten sowie die Analyse Diskussionen über den Verein, zeigen vielfältige Ergebnisse und Möglichkeiten für die Umsetzung einer umfangreichen Social-Media-Strategie. Mögliche Inhalte einer solchen Umsetzung auf relevanten Plattformen bilden den Abschluss der vorliegenden Arbeit.
Das wissenschaftliche Publikationswesen befindet sich in einem Transformationsprozess, weg von der Bezahlung des lesenden Zugriffs durch den Kauf von Lizenzen durch Bibliotheken, hin zu der Vergütung der Verlagsleistungen durch Publikationsgebühren. Ziel ist der freie Zugang zu Forschungsergebnissen in wissenschaftlichen Publikationen und den dazugehörigen Forschungsdaten. Dieser freie Zugang zu wissenschaftlicher Literatur wird weltweit, unter dem Begriff Open Access gefördert und vorangebracht. Veränderungen in der Wissenschaft bedeuten auch immer Änderungen in den Arbeitsabläufen und im Aufgabenbereich wissenschaftlicher Bibliotheken. Diese Arbeit beschäftigt sich mit der Fragestellung, welche Angebote medizinische Fachbibliotheken in Deutschland, Österreich und der Schweiz den Wissenschaftlern ihrer Institution im Bereich des Open Access Publizierens bieten. Aufbauend auf den Ergebnissen einer Webseitenanalyse, werden Handlungsempfehlungen für die Ärztliche Zentralbibliothek im Universitätsklinikum Hamburg-Eppendorf für den Aufbau von Publikationsdiensten, insbesondere für Open Access, erstellt.
13 Dinge
(2008)
Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
This paper summarizes the results of a comprehensive statistical analysis on a corpus of open access articles and contained figures. It gives an insight into quantitative relationships between illustrations or types of illustrations, caption lengths, subjects, publishers, author affiliations, article citations and others.
The NOA project collects and stores images from open access publications and makes them findable and reusable. During the project a focus group workshop was held to determine whether the development is addressing researchers’ needs. This took place before the second half of the project so that the results could be considered for further development since addressing users’ needs is a big part of the project. The focus was to find out what content and functionality they expect from image repositories.
In a first step, participants were asked to fill out a survey about their images use. Secondly, they tested different use cases on the live system. The first finding is that users have a need for finding scholarly images but it is not a routine task and they often do not know any image repositories. This is another reason for repositories to become more open and reach users by integrating with other content providers. The second finding is that users paid attention to image licenses but struggled to find and interpret them while also being unsure how to cite images. In general, there is a high demand for reusing scholarly images but the existing infrastructure has room to improve.
Anwendungen in Bibliotheken auf Basis von Augmented Reality (AR), der Erweiterung der Realität durch zusätzliche, virtuelle Informationen, existieren bislang nur vereinzelt. Das vom Bundesministerium für Wirtschaft und Energie geförderte Forschungsprojekt mylibrARy ermittelt seit Juni 2014 Szenarien für den Einsatz von AR in Bibliotheken und Informationseinrichtungen. Das Projekt zielt auf die Entwicklung einer deutschlandweit einsetzbaren Applikation (App). An diesen Gedanken knüpft die vorliegende Arbeit mit der Entwicklung eines Konzepts für Einführungen in Hochschulbibliotheken mittels AR-Technik. Aus der Analyse aktueller Führungsmodelle von Bibliotheken der Hochschulen im Exzellenzcluster 2012-2017, werden die für die Modellführung benötigten charakteristischen Merkmale einer Bibliotheksführung abgeleitet. Auf die technisch relevanten Grundlagen der AR folgt eine Bestandsaufnahme der bisherigen Augmented-Reality-Projekte im internationalen Bibliothekskontext. Daran schließt die Formulierung der theoretischen Anforderungen und die Ausarbeitung der Funktionen im Einzelnen. Nachfolgend lenkt eine kritische Betrachtung den Fokus auf Mehrwert und Risiken der AR für Bibliothek und Nutzer. Mit einer Zusammenfassung und dem Ausblick auf die zukünftige Entwicklung findet die Arbeit ihren Abschuss.
Die Bachelor-Arbeit beschäftigt sich hauptsächlich mit dem Fotobestand der Polizeigeschichtlichen Sammlung der Polizeiakademie Niedersachsen. Der Fotobestand der themenspezifischen Sammlung wird detailliert vorgestellt und seine Erschließung und Dokumentation näher erläutert. Es erfolgen eine fototechnische Einordnung, archivalische Vorgaben und die Betrachtung derzeitiger und zukünftiger Nutzer der Sammlung in einem Profil. <br /> Besprochen werden außerdem Verwertungsmöglichkeiten, Rechtsfragen und Aspekte der Digitalisierung von Aufnahmen. Ein konzeptioneller Datenbankaufbau stellt eine Möglichkeit der Umsetzung von Erschließungsvorgaben dar. In einem Ausblick über die zukünftige Arbeit mit dem Fotobestand werden sowohl ein weiterer Weg zur Erschließung als auch die Digitalisierung von Fotos beleuchtet. <br /> Die Arbeit schließt mit einem praktischen Leitfaden zur Erschließung des Fotobestandes der Polizeigeschichtlichen Sammlung ab, mit Hilfe dessen zukünftig Mitarbeiter der musealen Einrichtung am Bestand arbeiten können.
Die Diplomarbeit gibt im theoretischen Teil eine Einführung in die Geschichte und den Aufbau der einzelnen Gerichtsbarkeiten in der Bundesrepublik Deutschland. Ein weiterer Schwerpunkt ist die Betrachtung des Bibliothekstyps "Gerichtsbibliothek" innerhalb des Umfeldes der Spezialbibliotheken. Erläutert wird die Rolle der Gerichtsbibiliotheken als besondere Gattung der Behördenbibliotheken und ihre damit einhergehenden Funktionen. Weiterhin werden Entstehung und Aufgaben der 2001 gebildeten Region Hannover betrachtet, welche die in der Diplomarbeit vorgestellten Gerichtsbibliotheken räumlich umfasst. Der praktische Teil zeigt anhand von zwölf Einzeldarstellungen die Bibliotheken und Büchereien aller Gerichtszweige der Region Hannover in Wort und Bild. Die Darstellungen enthalten jeweils allgemeine Informationen mit Kontaktmöglichkeiten, Öffnungszeiten, sowie die Geschichte der Trägeorganisationen bzw. der Bibliotheken, Eingegangen wird auf ihre Funktionen, Dienstleistungsangebote und Bestände. Teilweise aufgeführt werden laufende Zeitschriften und fachliche CD-ROM-Datenbanken. Eine Beschreibung der räumlichen Situation, der technischen und finanziellen Ausstattung sowie den Benutzungsbestimmungen runden die Profile ab. Darüber hinaus erörtert die Arbeitet die juristische Informationsrecherche mit Online-Diensten durch eine Zusammenstellung wichtiger Internetquellen und die Darstellung des juristischen Informationssystems "juris". Die Bedeutung neuer Medien in Gerichtsbibliotheken wird herausgestellt. Des Weiteren werden gerichtsbibliothekarisch relevante Arbeitsgemeinschaften und Zusammenschlüsse, ihre Geschichte und Kernaufgaben sowie deren Kontaktmöglichkeiten vorgestellt. Im Ausblick befasst sich die Diplomarbeit exemplarisch mit Möglichkeiten der Fortbildung an Behördenbibliotheken und zeigt Perspektiven zur Optimierung spezialbibliothekarischer Arbeitsprozesse.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
In der medizinischen Forschung nimmt die Bedeutung, langfristigen Zugriff auf hochqualitative medizinische Daten zu erhalten, stetig zu. Aus wissenschaftlicher, ethischer und besonders auch aus rechtlicher Sicht darf die Privatheit betroffener Individuen dabei nicht verletzt werden.
In dieser Masterarbeit wurde ein synthetischer Datensatz erzeugt, der sowohl auf die Kriterien einer guten Datenqualität als auch das Offenlegungsrisiko geprüft wurde. Im Rahmen einer Literaturrecherche wurden zunächst Methoden zur Erzeugung synthetischer Daten, Evaluierungstechniken zur Prüfung der Datenqualität synthetischer Daten und Anonymisierungstechniken ermittelt und zusammengetragen. Mit einem Teildatensatz des MIMIC-III-Datensatzes wurde anschließend mit dem Tool DataSynthesizer ein neuer Datensatz synthetisiert.
Die beiden Datensätze wurden mittels Kolmogorov-Smirnow-Test, Kullback-Leibler-Divergenz und der Paarweisen-Korrelations-Differenz verglichen. Für die kategorischen Attribute konnte eine deutliche Übereinstimmung in der Werteverteilung nachgewiesen werden. Für die numerischen Attribute waren in den Verteilungen Unterschiede, welche mit Fehlwerten im ursprünglichen Datensatz assoziiert wurden.
Für die Prüfung der Privatheit der Daten wurde für unterschiedliche Szenarien für den ursprunggebenden Datensatz eine höhere k-Anonymität und für den synthetischen Datensatz eine höhere l-Diversity ermittelt.
Zudem wurden in beiden Datensätzen übereinstimmende Objekte ermittelt. Für eine vorab aus dem realen Datensatz erstellte Kontrollgruppe wurde ein mehr als zwei Mal höheres Relatives Risiko und eine 2,9-fach höhere Chance (Odds-Ratio) ermittelt, ein identisches Objekt zu identifizieren, als für den synthetischen Datensatz.
Apps und digitale Inhalte sind aus unserem Alltag nicht mehr wegzudenken. Auch Bibliotheken versuchen zunehmend, den Gewohnheiten ihrer Leser gerecht zu werden. Bekanntestes Beispiel im deutschsprachigen Raum ist der Onleihe-Service der divibib GmbH, über den Bibliotheksnutzer seit 2007 elektronische Medien entleihen können. Ein Großteil der öffentlichen Bibliotheken in Deutschland nutzt die Onleihe bereits. Das bringt jedoch hohe Anforderungen und Erwartungen seitens der Nutzer mit sich.
Aus diesem Grund beschäftigt sich die vorliegende Arbeit mit einer Evaluation der Onleihe-App hinsichtlich ihrer Usability. Zu Beginn wird ein Überblick über das Untersuchungsobjekt gegeben und die Bedeutung der Onleihe herausgestellt. Anhand von Fachliteratur werden anschließend Grundlagen und angewandte Methoden der Usability beschrieben. Im Anschluss erfolgt die Evaluation der App durch eine Auswertung von Online-Kundenbewertungen der letzten drei Monate, unter den Betriebssystemen Android und iOS. Anschließend werden weitere Usability-Probleme anhand einer Umfrage untersucht. Abschließend ermöglicht ein System Usability Scale die Bewertung der allgemeinen Nutzerfreundlichkeit der App. Mit der Untersuchung sollen Probleme und Schwachstellen der App aufgedeckt werden, um die schlechten Kundenbewertungen der App zu erörtern und um eventuelle Verbesserungsvorschläge einzubringen.
Die Arbeit richtet sich an App-Designer und Usability-Experten, die an der Entwicklung von Apps und Websites im bibliothekarischen Bereich beteiligt sind.
Der digitale Wandel beschäftigt Hochschulen schon länger, doch verhalf die Corona-Pandemie zu einem Aufschwung in der Digitalisierung. Dies bringt Veränderungen in der Hochschullehre mit sich. Auch Hochschulbibliotheken sind für die digitale Bildung von Bedeutung. Es gilt herauszufinden, welche Anforderungen an die Lernraumgestaltung aufgrund der derzeitigen Hochschullehre entstehen. Ziel ist es, nachzuvollziehen, wie der Lernort Wissenschaftliche Bibliothek bei der Nutzung von neuen Technologien und dem Erwerb der dafür benötigten Kompetenzen helfen, und um welche Angebote und Dienstleistungen er ergänzt werden kann. Diese literaturbasierte Theoriearbeit beantwortet die Frage, wie Lernräume in Wissenschaftlichen Bibliotheken digital und hybrid gestaltet werden können, um die heutige Lehre an Hochschulen kompetenzorientiert zu unterstützen. Zentral ist die praxisorientierte Betrachtung von lehr- und lernunterstützenden Diensten wie Makerspaces, Learning Labs sowie Beratung und Schulung. Ein weiterer Schwerpunkt liegt auf dem Einsatz von digitalen und hybriden Elementen im physischen Lernraum wie interaktiven Whiteboards, Multitouch-Tables sowie Augmented und Virtual Reality. Die soziale Interaktion, Kooperationen, Supportstrukturen und die Kompetenzvermittlung bilden eine wichtige Basis. Zur Veranschaulichung von unterstützenden Angeboten für Lernen und Lehren werden Good-Practice-Beispiele herangezogen. Die erarbeitete Vielfalt an Handlungsmöglichkeiten zeigt, wie klassische Lernraumsettings durch organisatorische, didaktische und technische Ausstattungen erweitert, weiterentwickelt und verbessert werden können.
60 Jahre nach Ende des Zweiten Weltkrieges und der nationalsozialistischen Herrschaft befindet sich noch immer NS-Raubgut im Bestand deutscher Bibliotheken. In der vorliegenden Bachelorarbeit wird eine Übersicht zur Thematik „NS-Raubgut und Restitution in Bibliotheken“ erarbeitet. Dies geschieht mit dem Ziel, im weiteren Verlauf der Arbeit aufzuzeigen, wie diese Inhalte in die Ausbildung von Informationsfachleuten integriert werden können. Nach einer Einführung in den Themenkomplex erfolgt zunächst eine Statusermittlung des derzeitigen Umgangs mit der Thematik innerhalb der Ausbildung von Informationsfachleuten an deutschen Hochschulen. Darauf aufbauend werden Vorlesungsinhalte erarbeitet, die sich für die Vermittlung in der Ausbildung eignen. Die Betrachtung möglicher Vermittlungsformen ist ebenfalls enthalten.
Das Stufenmodell „Komplexitätsstufen von aktivierenden Lernressourcen“ wurde von einem Projektteam der Fachhochschule Hannover für die Produktion von E-Learning Materialien entwickelt. Die Bachelorarbeit soll beantworten, ob das Modell in der Praxis anwendbar ist. Hierfür wird eine Analyse des Stufenmodells angestrebt.
Um die Anwendbarkeit zu überprüfen, wird das Stufenmodell mit Beispielen aus wissenschaftlichen Bibliotheken abgeglichen. Die Beispiele basieren auf Lernressourcen, die aus Bibliotheken entnommen werden, die mittels E-Learning Informationskompetenz vermitteln.
Für die Analyse werden die Angebote anhand der Parameter und der Lernziele des Stufenmodells kategorisiert. Um die Ergebnisse anwendbar zu machen, wird weiterhin ein Konzept für die Förderung von Informationskompetenz mit E-Learning Werkzeugen vorgeschlagen.
Die Analyse des Stufenmodells zeigt auf, dass das Modell eine gute Orientierung ist, um E-Learning Ressourcen zu kategorisieren. Der Parameter Komplexität eignet sich, um die Ressourcen umfassend abzubilden, da die meisten Beispiele in das Modell einsortiert werden
können. Der Schwachpunkt des Modells besteht jedoch darin, dass zu viele Parameter berücksichtigt werden, die sich gegenseitig ausschließen können.
Die Ergebnisse der Analyse werden abschließend zu einem Konzept für Bibliotheken zusammengefasst. Die Theorien der Didaktik, sowie das Schwellenkonzept der Association of College & Research Libraries dienen hierbei als Grundlage. Dies zeigt auf, dass Informationskompetenz mit E-Learning Werkzeugen vermittelt werden und das Stufenmodell als Instrument dienlich sein kann.
Diese Arbeit dokumentiert die Konzeption und den Aufbau des institutionellen Repositoriums DORIS des Bundesamtes für Strahlenschutz. Sie beschreibt neben der Entstehung des Projektes und der Auswahl der Repositoriumssoftware insbesondere die Vorgehensweise der Bibliothek des Amtes bei der Entwicklung des Systems und erläutert die dabei vorgenommenen Anpassungen sowie die getroffenen Entscheidungen. Darüber hinaus kombiniert die Arbeit Grundlagen zum Thema "institutionelle Repositorien" mit einer Übersicht von Open-Source-Softwarelösungen und einem detaillierten Einblick in das vom Amt verwendete Produkt DSpace. Weiterhin betrachtet sie das Portable-Document-Format unter den Aspekten Langzeitarchivierung und Barrierefreiheit und bietet einen kurzen Einblick in die Aufgaben und Organisation des Bundesamtes.
Beitrag zum Workshop "Informationskompetenz im Norden" am 01.02.2018 im Bibliotheks- und Informationssytem der Carl von Ossietzky Universität Oldenburg.
Es geht zunächst darum, welche Ansätze und Projekte die Schreibwerkstatt verfolgt, um Informations- & Schreibprozesse an der Hochschule Hannover zu fördern.
Da es gemeinsame Ziele und Zielgruppen von sowie inhaltliche Überschneidungen zwischen Bibliothek und Schreibwerkstatt gibt, werden Kooperationsbeispiele und Vorteile der Zusammenarbeit vorgestellt.
Im Hinblick auf eine zunehmende Annäherung einzelner Fachlandschaften und der vermehrten Vernetzung von Informationssystemen befasst sich diese Arbeit mit der Fragestellung, ob ein Einsatz des Bibliotheksautomationssystems PICA (Project for Integrated Catalogue Automation) bei der Landesmedienstelle in Niedersachsen eine angemessene Lösung des Problems der unzureichenden Informationsvermittlung über verfügbare audiovisuelle Medien darstellen könnte. Dabei wird zur Verdeutlichung des Informationsbedarfs und des Informationsdefizits dem Abriss zur historischen Entwicklung des Bildstellenwesens und zum geschichtlichen Werdegang der Landesmedienstelle in Niedersachsen bewusst ein breiter Raum gegeben.
Seit 2013 ist die Erhebung der psychischen Belastung an deutschen Arbeitsplätzen verpflichtend, verankert ist dies im §4 ArbSchG. Studien wie die der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin belegen, dass dies nicht flächendeckend geschieht. Diese Arbeit beschäftigt sich zum einen mit der Frage, warum die psychische Belastung von Mitarbeitenden in kleinen wissenschaftlichen Bibliotheken in Baden-Württemberg nicht erhoben wird. Zum anderen mit der Frage nach dem Bewusstsein der Bibliotheksleitenden für das Thema psychische Belastung. Ziel ist dabei die Nennung von Gründen fehlender Erhebungen und eine Beschreibung des Bewusstseins der Leitungspersonen. Mithilfe von Leitfadeninterviews werden Daten erhoben und mit der inhaltlich strukturierenden Inhaltsanalyse nach Kuckartz ausgewertet. Im Theorieteil werden das Arbeitsschutzgesetz, die DIN EN ISO 10075-1:2017 und eine Leitlinie der Gemeinsamen deutschen Arbeitsschutzstrategie (GDA) vorgestellt. Thematisiert wird außerdem die Veränderung der Arbeitswelt von Bibliotheksmitarbeitenden und Studien zur Arbeitszufriedenheit dieser Personen. Ergebnisse dieser Arbeit sind Hindernisse, wie zum Beispiel unklare Zuständigkeiten und Mangel an Wissen. Das Bewusstsein wird in Bezug auf das Vorwissen über psychische Belastung und die Reflexion der eigenen Rolle und eigener Erhebungsmethoden ausgewertet. Ein übergreifendes Problem scheint die umgangssprachliche und damit negative Auffassung des Begriffs psychische Belastung zu sein.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.
Das Thema Linked Open Data hat in den vergangenen Jahren im Bereich der Bibliotheken viel Aufmerksamkeit erfahren. Unterschiedlichste Projekte werden von Bibliotheken betrieben, um Linked Open Data für die Einrichtung und die Kunden nutzbringend einzusetzen. Ausgangspunkt für diese Arbeit ist die These, dass Linked Open Data im Bibliotheksbereich das größte Potenzial freisetzen kann. Es wird überprüft, inwiefern diese Aussage auch auf Öffentliche Bibliotheken zutrifft und aufgezeigt, welche Möglichkeiten sich daraus ergeben könnten.
Die Arbeit führt in die Grundlagen von Linked Open Data (LOD) ein und betrachtet die Entwicklungen im Bibliotheksbereich. Dabei werden besonders Initiativen
zur Behandlung bibliothekarischer Metadaten und der aktuelle Entwicklungsstand von LOD-fähigen Bibliothekssystemen behandelt. Danach wird eine Auswahl
an LOD-Datensets vorgestellt, die bibliothekarische Metadaten liefern oder deren Daten als Anreicherungsinformationen in Kataloganwendungen eingesetzt werden können.
Im Anschluss wird das Projekt OpenCat der Öffentlichen Bibliothek Fresnes (Frankreich) sowie das LOD-Projekt an der Deichmanske Bibliothek Oslo (Norwegen) vorgestellt. Darauf folgt ein Einblick in die Möglichkeiten, welche durch die Verwendung von LOD in Öffentlichen Bibliotheken verwirklicht werden könnten sowie erste Handlungsempfehlungen für Öffentliche Bibliotheken.
Social Scoring in China
(2023)
In den zurückliegenden Jahren hat eine Nachricht Schlagzeilen gemacht, die besonders in der westlichen Welt für Aufruhr gesorgt hat: Die Regierung der Volkrepublik China implementiere ein Sozialkreditsystem, das die Menschen in ihrem alltäglichen Verhalten bewerte und zu „Wohlverhalten" zwingen solle.
Diese Arbeit beschäftigt sich mit den Hintergründen des „Sozialkreditsystem", seiner Entstehung, Umsetzung und der Rezeption durch die chinesische Bevölkerung. Abschließend wird ein Vergleich mit ähnlichen Systemen in Deutschland versucht.
A new FOSS (free and open source software) toolchain and associated workflow is being developed in the context of NFDI4Culture, a German consortium of research- and cultural heritage institutions working towards a shared infrastructure for research data that meets the needs of 21st century data creators, maintainers and end users across the broad spectrum of the digital libraries and archives field, and the digital humanities. This short paper and demo present how the integrated toolchain connects: 1) OpenRefine - for data reconciliation and batch upload; 2) Wikibase - for linked open data (LOD) storage; and 3) Kompakkt - for rendering and annotating 3D models. The presentation is aimed at librarians, digital curators and data managers interested in learning how to manage research datasets containing 3D media, and how to make them available within an open data environment with 3D-rendering and collaborative annotation features.
Wikidata and Wikibase as complementary research data management services for cultural heritage data
(2022)
The NFDI (German National Research Data Infrastructure) consortia are associations of various institutions within a specific research field, which work together to develop common data infrastructures, guidelines, best practices and tools that conform to the principles of FAIR data. Within the NFDI, a common question is: What is the potential of Wikidata to be used as an application for science and research? In this paper, we address this question by tracing current research usecases and applications for Wikidata, its relation to standalone Wikibase instances, and how the two can function as complementary services to meet a range of research needs. This paper builds on lessons learned through the development of open data projects and software services within the Open Science Lab at TIB, Hannover, in the context of NFDI4Culture – the consortium including participants across the broad spectrum of the digital libraries, archives, and museums field, and the digital humanities.
Die vorliegende Arbeit entstand im Rahmen der Diplomprüfung im Studiengang Allgemeine Dokumentation des Fachbereiches Informations- und Kommunikationswesen der Fachhochschule Hannover. Thema der Diplomarbeit sind die Konzeption und Planung der Reorganisation der Schülerbücherei und Lehrerbibliothek des Braunschweiger Gymnasiums Martino-Katharineum. Dabei wird schematisch die momentan vorherrschende Situation analysiert und nach Vergleich mit Empfehlungen aus der Literatur eine den Gegebenheiten der Schule angepasste Ideallösung entwickelt, in der die beiden Teilbibliotheken zu einem zentralen Informationszentrum zusammengelegt werden. Nach einer allgemeinen Einführung in das Thema „Schulbibliothek“ beschäftigen sich die in Form von Teilprojekten angelegten folgenden Kapitel mit den Anforderungen an Räumlichkeiten, Personal, Bestand sowie dessen Erschließung.
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
Das Ziel dieser Arbeit ist es, ein Konzept für eine Darstellung der Personennamendatei(PND) in den Sprachen Resource Description Framework (RDF), Resource DescriptionFramework Schema Language (RDFS) und Web Ontology Language (OWL) zu entwickeln. Der Prämisse des Semantic Web folgend, Daten sowohl in menschenverständlicher als auch in maschinell verarbeitbarer Form darzustellen und abzulegen, wird eine Struktur für Personendaten geschaffen. Dabei wird von der bestehenden Daten- und Struktursituation im Pica-Format ausgegangen. Die Erweiterbarkeit und Anpassbarkeit des Modells im Hinblick auf zukünftige, im Moment gegebenenfalls noch nicht absehbare Anwendungen und Strukurveränderungen, muss aber darüber hinaus gewährleistet sein. Die Modellierung orientiert sich an bestehenden Standards wie Dublin Core, Friend Of A Friend (FOAF), Functional Requirements for Bibliographic Records (FRBR), Functional Requirements for Authority Data (FRAD) und Resource Description and Access (RDA).
Internetpräsenzen von Bibliotheken müssen zunehmend mit kommerziellen oder frei zugänglichen Informationsangeboten konkurrieren. Um sich von diesen Angeboten abzuheben, müssen nicht nur, wie gehabt, qualitativ hochwertige Informationen bereitgestellt werden - der Zugang zu diesen Informationen muss nutzerfreundlich gestaltet werden und sich an Usability-Standards orientieren, um für den Nutzer attraktiv zu sein.
In der Bachelorarbeit wird eine Studie zur Usability der Website der Landesbibliothek Oldenburg durchgeführt. Nach einer Einführung in die Thematik der Usability und der Analyse des IST-Zustandes der Website erfolgt eine Evaluation anhand von vier Methoden. Basierend auf Evaluationen mittels Personas, Heuristiken, Thinking-Aloud-Tests und einer Logfile-Analyse werden Usability-Probleme der Website ermittelt und anschließend Empfehlungen zur Verbesserung der Usability gegeben.
In der vorliegenden Mastererarbeit wird untersucht, wie implizites Wissen in Arbeitsteams optimal zwischen den Teammitgliedern ausgetauscht werden kann. Dazu werden Austauschmethoden für implizites Wissen und Movationstheorien analysiert. Anhand der Austauschmethoden und Motivationstheorien wird ein Modell entwickelt, das Teamleitern helfen soll, den Austausch von implizitem Wissen in Arbeitsteams am Besten zu nutzen.
Metadaten für das digitale Archiv des Niedersächsischen Landesamts für Denkmalpflege : ein Konzept
(2013)
Das Niedersächsische Landesamt für Denkmalpflege (NLD) ist die zentrale Fachbehörde für den Denkmalschutz in Niedersachsen. Ihre Funktionen sind im Niedersächsischen Denkmalschutzgesetz festgelegt. Sie führt das Verzeichnis der Kulturdenkmale in Niedersachsen und ist zentrale Archivstelle. Die Archivbestände der beiden fachlichen Bereiche Archäologie und Bau- und Kunstdenkmalpflege sollen im Fachinformationssystem ADABweb digital erschlossen werden, so dass sie mit den Objektdaten verknüpft werden können. Das Metadatenschema für die Archivalien soll sich an relevanten Standards orientieren und mit diesen weitgehend interoperabel sein. Zugleich sind die besonderen Informationsbedürfnisse der Denkmalpflege zu berücksichtigen.
Die vorliegende Arbeit gibt anhand statistischer Untersuchungen einen Einblick in die derzeitige Arbeitsmarktsituation für Spezialbibliothekare in Deutschland. Es wird untersucht, in welchem Umfang Spezialbibliotheken in deutschen Statistiken erfasst sind. Dabei werden auch Auswertungen hinsichtlich ihrer Bestandsgröße und Personalstellenzahl durchgeführt. Den Schwerpunkt der Arbeit bildet die Analyse von Stellenanzeigen, die Positionen in internen Informationseinrichtungen ausschreiben, im Hinblick auf verschiedene Aspekte. Diese statistischen Untersuchungen geben Aufschluss darüber, wie sich die Arbeitsmarktsituation für Beschäftigte in Spezialbibliotheken derzeit darstellt. Dabei werden einerseits quantitative Aussagen getroffen, die Rückschlüsse auf den Umfang des spezialbibliothekarischen Arbeitsmarktes zulassen. Andererseits erfolgt eine qualitative Analyse, indem die von Arbeitgebern gebotenen Beschäftigungsverhältnisse sowie die an zukünftige Stelleninhaber gestellten spezifischen Anforderungen hinsichtlich ihrer Qualifikation näher betrachtet werden.
Im Zuge des Zweiten Weltkrieges wurden zahlreiche sowjetische Museen, Archive und Bibliotheken ausgeraubt oder zerstört. Als Antwort auf diese Schäden wurden im Februar 1945 seitens der Sowjetregierung die sog. Trophäenbrigaden gegründet, die mit der Ausfuhr der deutschen Kulturgüter als Kompensation für entstandene Verluste beauftragt waren. Entgegen der Vereinbarungen der Potsdamer Konferenz, die solche Konfiskationen nur in Ausnahmsfällen erlaubte, organisierten die sowjetischen Besatzer flächendeckende Beschlagnahmungen und Abtransporte der deutschen Kulturgüter als Kriegsbeute in die UdSSR. Die vorliegende Arbeit untersucht den sowjetischen Kunst- und Kulturraub im besetzten Deutschland. Eine besondere Aufmerksamkeit wird den Konfiskationen der deutschen Bücher und deren Verteilung in die sowjetischen Bibliotheken gewidmet. Am Ende der Arbeit soll ein Überblick über die komplizierten deutsch-russischen Restitutionsverhandlungen, die bis heute zu keinem Ergebnis geführt haben, gegeben werden.
Durch den Wandel des bibliothekarischen Selbstverständnisses zum zunehmend wirtschaftlich geführten Dienstleistungsbetrieb gewinnt die Nutzerorientierung im Bibliothekssektor an Bedeutung. Insbesondere Nutzerzufriedenheit ist in diesem Kontext ein wichtiges Ziel von zukunftsorientierten Bibliotheken. Für die Bibliothek der Hochschule Hannover ist aus diesem Grund im Mai 2020 eine empirische Zufriedenheitsstudie unter den Mitgliedern der Hochschule durchgeführt worden. Es wurden Nutzungseigenschaften sowie Ansichten bezüglich Dienstleistungen, Lokalitäten und Gesamteindrücken erhoben. Ergänzend zur Auswertung dieser Ergebnisse wird in dieser Arbeit ein Vergleich mit denen der bis dato jüngsten Zufriedenheitsstudie von 2009 gezogen. Ziel der onlinebasierten Befragung sowie des Vergleichs ist die Ermittlung von Nutzerbedürfnissen und Kritikpunkten, um eine fundierte
Entwicklungsempfehlung für die Bibliothek erstellen zu können. Maßnahmen, die auf dieser Empfehlung basieren, sollen eine Steigerung der Nutzerzufriedenheit ermöglichen. Die Analyse der Antworten lässt vor allem auf einen Mangel des selbstständigen Informierens über die Angebote der Bibliothek sowie deren Nutzung für das wissenschaftliche Arbeiten schließen. Daher werden insbesondere eine Verbesserung der aktiven Kommunikation mit den Zielgruppen und die Förderung der Informationskompetenz der Nutzer empfohlen.
Die Zahl der Internet- sowie Twitternutzer in Deutschland steigt stetig an. Der Microblogging-Dienst, Twitter, kann den Bibliotheken eine Unterstützung bei der Verbreitung von Informationen und der Vernetzung mit den Nutzern schaffen. Um den Ist-Zustand der twitternden Bibliotheken in Deutschland festzustellen, wurden 125 deutsche Hochschulbibliotheken durch eine Onlinebefragung zu der Nutzung des Dienstes befragt. Die Befragung zeigt, dass die twitternde Bibliotheken den Dienst besonders für die externe Nutzung wie z.B. Öffentlichkeitsarbeit einsetzen. Weiterhin präsentieren die Ergebnisse der Online-Befragung die Chancen und Herausforderungen des Dienstes an den Bibliotheken.
Ziel dieser Bachelorarbeit ist es Empfehlungen für eine Neukonzeption zur Förderung von Informationskompetenzen an Spezialbibliotheken mit der Hauptzielgruppe Wissenschaftler*innen am Beispiel der Forschungsbibliothek des Leibniz-Institut für Bildungsmedien | Georg-Eckert-Instituts (GEI) unter Berücksichtigung der Wissenskulturen zu formulieren.
Es wird festgestellt, dass die lebenslange Weiterbildung der Informationskompetenz bei Wissenschaftler*innen unabdingbar ist und im Einklang mit der Steigerung der Forschungsproduktivität steht. Trotz dieser Erkenntnisse gibt es in der Fachliteratur bisher kaum nennenswerte Konzepte zur Förderung der Informationskompetenz der Forschenden in Spezialbibliotheken. Mit Hilfe der wissenskulturellen Analyse, basierend auf den Ansätzen der KIBA-Gruppe zu Informationsdidaktik und der Wissenskulturen von Karin Knorr-Cetina, wird ein Interview-Leitfaden entwickelt, mit Hilfe dessen bei 10 Mitarbeitenden des GEI eine Analyse der Wissenskultur und der Bedürfnisse durchgeführt wird. Die Ergebnisse zeigen, dass für die Förderung von Informationskompetenz ein ganzheitliches Konzept benötigt wird, welches sich nicht nur ausschließlich auf reine Schulungen beschränkt. Es sind verschiedene Formate notwendig, um die individuellen Bedürfnisse der Forschenden abzudecken. Besonders virtuelle Angebote sollen integriert werden. Die Ergebnisse lassen sich allerdings nicht auf andere Spezialbibliotheken deckungsgleich übertragen. Die wissenskulturelle Analyse kann jedoch als Grundlage angewendet werden, um auch in anderen Spezialbibliotheken ein neues Konzept zur Förderung der Informationskompetenz bei Wissenschaftler*innen zu entwickeln.
Die fortschreitende Digitalisierung unserer modernen Welt betrifft zwangsläufig auch den Bereich der Nachlässe. Fast jede verstorbene Person hinterlässt nicht nur Hausrat, Bücher, Bargeld oder Wohnungen, sondern auch digitale Spuren in Form von Daten auf heimischen Computern sowie E-Mail Konten, Chatverläufe in Nachrichtensofortdiensten auf Smartphones, Online-Bankkonten, Konten bei Bezahldiensten, Internethandelsplattformen, sozialen Netzwerken, sowie Daten unterschiedlichster Art in Cloudspeicherorten oder in anderer nicht genannter Form im World-Wide-Web. Wahrscheinlich werden diese digitalen Speicherorte oder Zugangsdaten deshalb noch nicht grundsätzlich in Vorsorgevollmachten bzw. Testamenten benannt, weil sie noch nicht im nachlass-verwaltenden Bewusstsein der Bevölkerung verankert sind. Der nahezu selbstverständlich gewordene Umgang mit den digitalen Formaten sollte diese jedoch in die Auflistung des Nachlasses miteinschließen, damit eine Erbengemeinschaft die Möglichkeit erhält, sich auch um diesen Teil des Nachlasses adäquat kümmern zu können.
Die allgemeine Digitalisierung und besonders die IT Branche in Hannover, stellen Arbeitgeber_innen und Arbeitnehmer_innen vor große Herausforderungen. Berufsbezeichnungen im IT Sektor zeichnen sich im Gegensatz zu klassischen Berufsfeldern nicht dadurch aus, dass sie vereinheitlicht sind. Unterschiedlichste Berufsbezeichnungen verlangen oftmals identische Kompetenzen. Die Kompetenzen und Fähigkeiten der Arbeitnehmer_innen stehen ebenso immer mehr im Fokus der Arbeitgeber_innen, wie die Bereitschaft der permanenten Weiterbildung.
Zielgebend der vorliegenden Abschlussarbeit ist eine Datenbasis für ein kompetenzbasiertes IT Tool zu liefern, welches den Anspruch hat, die bereits beschriebenen Herausforderungen zu analysieren und zu klassifizieren. Zunächst ist daher eine Klassifikation, der auf dem hannoverschen Jobmarkt gesuchten IT Kompetenzen, zu erstellen. Vorbereitend wird eine Marktanalyse angefertigt, die sowohl Jobsuchmaschinen auf ihre Kompetenzorientierung als auch IT Kompetenzklassifikationen untersucht. Die erstellte Klassifikation bildet anschließend die Grundlage für das Kompetenzmatching zwischen Klassifikation und den Kompetenzen, die hannoversche IT Studierende erlernen, um zu verdeutlichen, in welchen Kompetenzen Weiterbildungsbedarf besteht. Die entstandene Datenbasis wird in einer MySQL Datenbank präsentiert, um eine möglichst flexible Verwendung und Weiterentwicklung des Datenbestands zu ermöglichen.
Mashups und Bibliotheken
(2010)
Der Begriff Mashup ist unscharf, nicht nur einem Fachgebiet zuzuordnen und selbst in Englisch-Wörterbüchern oft nicht zu finden. Der Ursprung ist aber eindeutig dem Bereich Musik zuzuordnen. Dort werden Musikstücke, die in einer Art Collage miteinander vermischt werden (to mash = mischen) und so einen neuen eigenständigen Song ergeben, als mash-up bezeichnet. Auf dem Gebiet der Webentwicklung ist, vereinfacht ausgedrückt, die Vermischung von Informationen aus unterschiedlichen Quellen auf einer eigenen Oberfläche damit gemeint. Oder, präziser, die Schaffung einer Applikation, die ihren Inhalt aus mehr als einer Quelle bezieht. (Vgl. zur Etymologie und Eingrenzung Stelzenmüller, 2008, 11 ff.) Dies kann natürlich in sehr unterschiedlichen Ausprägungen und mit verschiedenen Technologien stattfinden. Das macht die Eingrenzung des Themas umso schwieriger. Daher erläutern wir in Unterkapitel 3 bis 6 zunächst einige modellhafte Beispiele aus ganz verschiedenen Bereichen. Im Unterkapitel 7 erläutern wir kurz einige technische Grundlagen. Wer will, kann diesen Teil zunächst überspringen und vielleicht später nachlesen. In den Unterkapiteln 8 bis 12 stellen wir uns die Frage, ob und ggf. in welchen Bereichen Mashups für Bibliotheken und ähnliche Einrichtungen sinnvoll sein könnten, welche Schwierigkeiten bei der Umsetzung auftreten können, und welche strategischen Veränderungen Bibliotheken dabei helfen könnten, das Potential von Mashups besser auszuschöpfen. Abschließend wagen wir einen Ausblick auf die zukünftige Bedeutung des ganzen Themas.
Der ständige Wandel der Gesellschaft hinsichtlich der Bedürfnisse und Arbeitsgewohnheiten, stellt eine Herausforderung dar, mit der sich auch Behördenbibliotheken auseinandersetzen müssen. Diese stetigen Veränderungen führen zu einem erhöhten Innovationsbedarf in diesen Bibliotheken. Die Arbeit setzt sich mit zwei möglichen nutzerorientierten Innovationsmethoden auseinander. Jene können dazu beitragen, dass die veränderten Bedürfnisse der Bibliotheksnutzer unmittelbar in Innovationsprojekte der Behördenbibliotheken mit einfließen. Im ersten Teil der Arbeit werden die theoretischen Grundlagen von Innovationen sowie der zwei Methoden, Open Innovation und Design Thinking, dargestellt. Open Innovation und Design Thinking werden darüber hinaus anhand von Praxisbeispielen aus Bibliotheken näher erläutert. Außerdem werden sowohl die Aufgaben als auch die allgemeinen Herausforderungen in Behördenbibliotheken dargestellt. Im zweiten Teil der Arbeit wird die durchgeführte empirische Untersuchung beschrieben, die einen Aufschluss über den aktuellen Stand von Innovationen in Behördenbibliotheken geben soll. Abschließend werden, anhand der theoretischen Grundlagen sowie der gewonnenen Erkenntnisse, Erfolgskriterien und Handlungsempfehlungen für die Durchführung von nutzerintegrierten Innovationsprojekten für Behördenbibliotheken gegeben.
Die vorliegende Bachelor-Arbeit beschäftigt sich mit den Aspekten des Social Media Marketings. Dazu gehören die strategische Planung, das Monitoring sowie Richtlinien zum Umgang mit dem Medium und mit Krisen, die gemeinsam den Rahmen des Engagements im Social Web bilden. Die Verfasserin zeigt die grundlegenden Eigenschaften des Mediums Social Web und seiner Plattformen auf. Der Dialog und der Austausch sind zentraler Bestandteil von Social Media. Zudem behandelt die Arbeit die Notwendigkeit eines Social Media Engagements für Unternehmen und welche Voraussetzungen die Basis bilden. Einzelne Aspekte werden durch Beispiele aus der Praxis veranschaulicht sowie Thesen mit Statistiken und Aussagen von Experten belegt. Am Ende der Arbeit gibt die Verfasserin einen Ausblick auf die mögliche Wandlung von Social Media sowie die mobile Nutzung des Social Web und die daraus resultierenden Veränderungen.
Automatische Spracherkennungssysteme (Automatic Speech Recognition - ASR) können derzeit nicht alle Wörter korrekt erkennen und daher noch keine guten Transkriptionen erstellen. Die Qualität der automatischen Spracherkennung wird von vielen Faktoren beeinflusst. Einer davon ist das Vokabular. Je vielfältiger und komplexer die Themen, desto größer die Anzahl der fachspezifischen Wörter ist, die erkannt werden müssen, desto schwieriger ist die Erkennungsaufgabe und desto schlechter sind die Transkriptionsergebnisse. Die Sprachmodelle von automatischen Spracherkennungssystemen müssen durch Training angepasst werden, damit sie auch bei Gebieten mit speziellem Vokabular gute Resultate erzielen können. In dieser Arbeit wird untersucht, ob der prozentuale Anteil der korrekt erkannten Wörter durch Training des Sprachmodells der automatischen Spracherkennung mit fachspezifischer Terminologie wirksam gesteigert werden kann. Anhand von Ergebnissen der durchgeführten Experimente wird dargelegt, welche Anzahl und Art von Daten benötigt wird, um den Prozentsatz der falsch erkannten Wörter zu senken. Die Ergebnisse der Domänen-Adaption bilden die Basis für den anschließenden Vergleich des fachspezifischen Vokabulars in Vorlesungsvideos und wissenschaftlichen Publikationen, um die Unterschiede hinsichtlich der verwendeten Fachsprache aufzuzeigen. Grundlage und Ausgangspunkt für die gesamte Untersuchung stellt die Erkennung der Fachterminologie und ihre Unterscheidung von der Allgemeinsprache dar.
In den letzten Jahren hat sich der Auskunftsdienst in wissenschaftlichen Bibliotheken gewandelt. Die bibliothekarische Auskunft setzt zahlreiche unterschiedliche Kommunikationsformen ein, um dem Kunden die gewünschten Informationen zukommen zu lassen. Neben den konventionellen Auskunftsmitteln setzen die Bibliotheken verstärkt auf die elektronischen Auskunftsdienste. Seit dem Jahr 2004 haben Chatbots als Auskunftsmittel einen festen Platz in diesem Bereich. Chatbots sind virtuelle Assistenten, die mit Hilfe einer hinterlegten Datenbank die Fragen der Kunden beantworten. Die vorliegende Arbeit stellt die vier Chatbots ASKademicus, Stella, Albot und Hugo Blotius näher vor. Anhand von verschiedener Literatur wird eine Checkliste für eine Qualitätsüberprüfung von Chatbots erarbeitet. Am Beispiel von Hugo Blotius, dem Chatbot der Österreichischen National-bibliothek aus Wien werden die Chatbots analysiert und bewertet. Das Ziel dieser Arbeit ist es, die Thematik der Chatbots näher zu betrachten und deren Nutzungsberechtigung im Bibliothekswesen nachzuweisen. Die durchgeführte Analyse konnte eine Nutzungsberechtigung der bibliothekarischen Chatbots belegen und Hugo Blotius als wertvolle Ergänzung des Auskunftsangebotes der Bibliothek bestätigen.
Der konventionelle Auskunftstresen ist in Deutschland nach wie vor weit verbreitet. Im Falle der Zentralbibliothek der Fachhochschule (FH) Hannover wird seit Mitte 2009 auf einen solchen Tresen verzichtet. Es stellt sich die Frage inwieweit weiterhin ein zufriedenstellender Auskunftsdienst in der Bibliothek geleistet werden kann. Die vorliegende Bachelorarbeit analysiert vor diesem Hintergrund verschiedene Auskunftskonzepte, die auf einen traditionellen Auskunftsplatz verzichten. Die Autorinnen präsentieren allgemeingültige Hinweise und geben Beispiel für eine mögliche Umsetzung der Konzepte. Die Ergebnisse der Bachelorarbeit sollen zu einem effizienteren und nutzerorientierteren Auskunftsdienst führen.
Editorial for the 17th European Networked Knowledge Organization Systems Workshop (NKOS 2017)
(2017)
Knowledge Organization Systems (KOS), in the form of classification systems, thesauri, lexical databases, ontologies, and taxonomies, play a crucial role in digital information management and applications generally. Carrying semantics in a well-controlled and documented way, Knowledge Organization Systems serve a variety of important functions: tools for representation and indexing of information and documents, knowledge-based support to information searchers, semantic road maps to domains and disciplines, communication tool by providing conceptual framework, and conceptual basis for knowledge based systems, e.g. automated classification systems. New networked KOS (NKOS) services and applications are emerging, and we have reached a stage where many KOS standards exist and the integration of linked services is no longer just a future scenario. This editorial describes the workshop outline and overview of presented papers at the 17th European Networked Knowledge Organization Systems Workshop (NKOS 2017) which was held during the TPDL 2017 Conference in Thessaloniki, Greece.
Editorial for the 15th European Networked Knowledge Organization Systems Workshop (NKOS 2016)
(2016)
Knowledge Organization Systems (KOS), in the form of classification systems, thesauri, lexical databases, ontologies, and taxonomies, play a crucial role in digital information management and applications generally. Carrying semantics in a well-controlled and documented way, Knowledge Organisation Systems serve a variety of important functions: tools for representation and indexing of information and documents, knowledge-based support to information searchers, semantic road maps to domains and disciplines, communication tool by providing conceptual framework, and conceptual basis for knowledge based systems, e.g. automated classification systems. New networked KOS (NKOS) services and applications are emerging, and we have reached a stage where many KOS standards exist and the integration of linked services is no longer just a future scenario. This editorial describes the workshop outline and overview of presented papers at the 15th European Networked Knowledge Organization Systems Workshop (NKOS 2016) in Hannover, Germany.
Schattenbibliotheken sind Lösungen, die sich aus einem Literaturmangel in der Forschung ergeben haben. Urheberrechtlich geschützte Inhalte werden hier online jedem frei zur Verfügung gestellt. In der vorliegenden Arbeit wird versucht, das Wirken dieser Dokumentsammlungen einzuordnen. So wird die Entstehung von Schattenbibliotheken aufgezeigt, auf den rechtlichen Umgang mit diesen Plattform eingegangen, zwei Schattenbibliotheken beispielhaft näher betrachtet und deren Auswirkungen abgebildet, bevor die Arbeit mit einem persönlichen Fazit abschließt.
The amount of papers published yearly increases since decades. Libraries need to make these resources accessible and available with classification being an important aspect and part of this process. This paper analyzes prerequisites and possibilities of automatic classification of medical literature. We explain the selection, preprocessing and analysis of data consisting of catalogue datasets from the library of the Hanover Medical School, Lower Saxony, Germany. In the present study, 19,348 documents, represented by notations of library classification systems such as e.g. the Dewey Decimal Classification (DDC), were classified into 514 different classes from the National Library of Medicine (NLM) classification system. The algorithm used was k-nearest-neighbours (kNN). A correct classification rate of 55.7% could be achieved. To the best of our knowledge, this is not only the first research conducted towards the use of the NLM classification in automatic classification but also the first approach that exclusively considers already assigned notations from other
classification systems for this purpose.
In den letzten Jahren ist, nicht zuletzt aufgrund der schnellen und einfachen Verfügbarkeit von Daten und Informationen, ein Anstieg an veröffentlichter Literatur zu beobachten. Bibliotheken stehen vor der Herausforderung, diese Ressourcen zu erschließen und damit verfügbar zu machen. Ein Teilaspekt ist hierbei die Klassifizierung. Die Arbeit untersucht Voraussetzungen und Möglichkeiten der automatischen Klassifizierung am Beispiel medizinischer Literatur. Der erste, theoretische Teil beinhaltet die Beschreibung der Grundlagen der Inhaltserschließung, des Data Mining und der automatischen Klassifizierung sowie eine umfassende Übersicht über den aktuellen Forschungsstand in diesem Bereich. Im zweiten Teil wird die Auswahl, Aufbereitung und Analyse eines aus Katalogdatensätzen der Bibliothek der Medizinischen Hochschule Hannover bestehenden Datenbestandes erläutert. Die Anwendung von Verfahren des maschinellen Lernens zur Klassifizierung bibliographischer Datensätze wird am Beispiel des Algorithmus k-nearest-neighbours verdeutlicht. Hierbei lässt sich eine korrekte Klassifizierung von rund 58 % der Dokumente erreichen. Abschließend werden Optimierungsansätze (z.B. semi-automatische Verfahren) und Herausforderungen automatischer Klassifizierungsverfahren (z.B. uneinheitlich erschlossene Datensätze oder ungleiche Verteilung der Klassen einer Systematik in den Dokumenten) aufgezeigt.
Die vorliegende Arbeit untersucht die Kompetenzanforderungen des aktuellen Arbeitsmarktes an Informationsmanager mit Bachelor-Abschluss. Dazu erfolgt eine statistische Erhebung von Stellenangeboten, die von Oktober 2008 bis einschließlich Mai 2010 über die bibliothekarische Diskussionsliste InetBib ausgeschrieben wurden. Nach Beschreibung der Auswertungselemente, interpretiert die Verfasserin die Ergebnisse zunächst quantitativ. Die aus den Ergebnissen gewonnenen Erkenntnisse bezüglich der Erwartungen des Arbeitsmarktes werden festgehalten und münden in einem Kompetenzprofil eines idealtypischen Informationsmanagers. In einem abschließenden Kapitel erarbeitet die Verfasserin unter Berücksichtigung der Untersuchungsergebnisse Empfehlungen für das Curriculum der Fachhochschule Hannover.
Die Bachelorarbeit beschäftigt sich mit der Ontologie des Forschungsinformationssystems VIVO. In der Arbeit wird der Versuch unternommen, die Ontologie an die Besonderheiten des deutschen Wissenschaftsbetriebs anzupassen, mit dem Ziel, die Einführung des Systems für eine deutsche Einrichtung zu erleichtern. Das Mapping und die Erweiterung sind auf die Bereiche „Positionsbezeichnungen“ und „Organisationseinheiten“ beschränkt.
Der theoretische Teil behandelt das Thema der Forschungsinformationen und deren Implementierung in ein Forschungsinformationssystem. Unter anderem werden auch die Tendenzen der Standardisierung in dem Bereich beleuchtet.
Bei der Darstellung von VIVO als eine Semantic-Web-Anwendung steht die Ontologie, als Grundlage für die Funktionalitäten des Systems im Vordergrund.
Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der Masterarbeit eine Begriffsbestimmung unternommen. Mit Hilfe dreier Methoden, einer Auswertung von relevanter Fachliteratur, die Untersuchung von einschlägigen Stellenausschreibungen und das Führen von Experteninterviews, wird ein Kompetenzprofil für Information Professionals erstellt. 16 Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst.
Informationskompetenz ist eine Schlüsselkompetenz für gesellschaftliche Teilhabe. Unter dem Eindruck des „Framework for Information Literacy for Higher Education“ der ACRL verändert sich das Verständnis von Informationskompetenz. Die Angebote zur Förderung von Informationskompetenz von Universitäts- und Hochschulbibliotheken müssen besser in die Lehre in den Disziplinen integriert werden. E-Learning-Formate eigenen sich hierfür besonders gut. Für die gelungene Gestaltung von E-Learning-Angeboten sind Kenntnisse über Lerntheorien und Mediendidaktik notwendig. Auf eine breite theoretische Betrachtung folgt der Entwurf mediendidaktischer Konzepte für ein E-Learning-Angebot zur Förderung von Informationskompetenz an der Universitätsbibliothek der Freien Universität Berlin.
Die Nutzung des Like-Buttons wurde bisher nur oberflächlich und vor allem auf den US-Raum begrenzt erforscht. Dabei lag der Fokus ausschließlich auf wirtschaftlich orientierten Unternehmen und dem monetären Wert, den ein Fan für dieses hat. In der vorliegenden Untersuchung wird eine erweiterte Perspektive gewählt. Aus Sicht deutschsprachiger Nutzer wird erforscht, welche Motive und Bedürfnisse eine Person dazu veranlassen, sich freiwillig per Gefällt-mir zu verknüpfen. Hierzu wird der Uses and Gratifications-Ansatz herangezogen. Es stehen nicht Unternehmen, sondern generell alle Formen von Organisationen im Fokus. Gleichzeitig wird untersucht, wie diese Beziehungen verlaufen: Welche Erwartungen stellen Fans? Welche Handlungen nehmen sie wie häufig vor und welchen Effekt hat eine Fanbeziehung auf die Einstellung eines Nutzers gegenüber einer Organisation? Die Motive hinter der Nutzung des Gefällt mir-Buttons sind umfangreicher, als es bisherige Forschung vermuten ließ. Fans wollen informiert werden, sie wollen ihr Gefallen schnell und einfach bekunden und sich durch die Verknüpfung selbst darstellen. Weniger wichtig, aber dennoch von Relevanz sind die Motive der Partizipation und Unterstützung, der Empfehlung, der Vorteilssuche, der Unterhaltung sowie der Netzwerkerweiterung und Gruppenzugehörigkeit. Die Verwendung des Like-Buttons dient somit der Befriedigung einer ganzen Reihe von Nutzungsbedürfnissen. Der Verlauf der Beziehungen zwischen Organisationen und Usern ist eher von Passivität geprägt. Fans wollen zwar informiert werden und stellen konkrete Ansprüche an die Art und Form von Organisationsmeldungen, sie wollen aber nur selten wirklich direkt mit einem Unternehmen, einem Verein o.ä. interagieren. Langweilen die Meldungen einer Organisation, werden zu viele oder nicht relevante Informationen an die Fans weitergeben, zögern diese nicht, eine Verknüpfung zu beenden. Ein Effekt der Fanschaft auf die Einstellung von Nutzern gegenüber der jeweiligen Organisation konnte nur bedingt festgestellt werden. Letztere zieht einen Gewinn nicht aus einer erhöhten Ausgabebereitschaft seiner Fans, sondern aus deren stärkerer Aufmerksamkeit gegenüber Organisationsmeldungen.
Die Zukunft der Öffentlichen Bibliotheken ist aktuell ein viel diskutiertes Thema. In dieser Bachelorarbeit werden die Anforderungen an die mobilen Bibliotheken der Zukunft untersucht. Sie werden in Deutschland als Fahrbibliotheken, Fahrbüchereien, Bibliotheksbusse oder Bücherbusse bezeichnet. Das Ziel der Arbeit ist es darzustellen, welche Relevanz Fahrbibliotheken zukünftig im öffentlichen Bibliothekssystem haben. Die Untersuchung erfolgt methodisch durch eine Literaturrecherche. Der theoretische Teil zeigt Praxisbeispiele für Fahrbibliotheken aus Deutschland und dem Ausland auf. Es werden die Länder Dänemark, Singapur und die USA betrachtet. Im zweiten Teil werden drei Zukunftsszenarien von verschiedenen Experten und Expertinnen erläutert. Anhand dessen lassen sich die fünf Hauptanforderungen, der Beitrag zur kulturellen Bildung, die Bibliothek als Dritter Ort, die Integration und Inklusion und die Anforderungen an die Fahrzeuge ableiten. Die Anforderungen werden durch Beispiele von bereits vorhandenen neuen Konzepten und Dienstleistungen gestützt.
Demografieorientiertes Personalmanagement in kleinen und mittleren wissenschaftlichen Bibliotheken
(2017)
Der demografische Wandel stellt für das Personalmanagement eine Herausforderung dar, mit der sich auch Bibliotheken auseinandersetzen müssen. Die vorliegende Arbeit setzt sich mit der Frage auseinander, welche Maßnahmen des Personalmanagements kleine und mittlere wissenschaftliche Bibliotheken anwenden und inwiefern sie damit auf den demografischen Wandel vorbereitet sind. Der erste Teil der Arbeit umfasst die theoretischen Grundlagen. Dafür werden zunächst die zentralen Begriffe demografischer Wandel, Personalmanagement sowie Personalentwicklung definiert. Anschließend werden Handlungsfelder sowie deren Bedeutung für ein demografieorientiertes Personalmanagement dargestellt. Diese umfassen die Altersstrukturanalyse, die Personalgewinnung, die Personalbindung, die Personalentwicklung, die Gesundheitsförderung und das Gesundheitsmanagement sowie den Wissenstransfer. Sie beinhalten außerdem auch Beispiele von Maßnahmen aus größeren wissenschaftlichen sowie öffentlichen Bibliotheken. Die aus einer Befragung gewonnenen Erkenntnisse über die Maßnahmen des Personalmanagements in kleinen und mittleren wissenschaftlichen Bibliotheken werden im zweiten Teil der Arbeit beschrieben. Abschließend werden anhand der theoretischen Grundlagen sowie der gewonnenen Erkenntnisse Handlungsempfehlungen für die Zielgruppe der kleinen und mittleren wissenschaftlichen Bibliotheken gegeben.
Unterrichtsmodell zur Entwicklung von Informationskompetenz bei Schülern der gymnasialen Oberstufe
(2011)
Die vorliegende Arbeit untersucht, welche Rolle Schulen bei der Entwicklung von Informationskompetenz spielen können. Ergebnis ist ein Unterrichtsmodell für Schüler der gymnasialen Oberstufe. Ausgehend von der Definition der Informationskompetenz werden zunächst die Angebote von Schulbibliotheken, Öffentlichen und Wissenschaftlichen Bibliotheken zur Vermittlung von Informationskompetenz an Schüler untersucht. Erfolgversprechende Konzepte, die diesen Schulungen zugrunde liegen, werden genauer betrachtet. Die dokumentierte Durchführung einer Rechercheeinführung für Schüler in Vorbereitung auf die Facharbeit liefert weitere, praxisbezogene Anhaltspunkte. Der zweite Teil der Arbeit umfasst das eigentliche Unterrichtsmodell zur Vermittlung von Informationskompetenz. Nach ausführlichen Vorüberlegungen zu materiellen und didaktischen Fragen folgen schließlich konkrete Vorschläge für einzelne Unterrichtseinheiten. Die Arbeitsblätter im Anhang der Arbeit geben Anregungen zur Gestaltung von Unterrichtsmaterialien.
Seit 2011 gerät das Thema Plagiarismus als Form des Wissenschaftsbetrugs durch die Plagiatsfälle prominenter Politiker*innen immer wieder in den Fokus der Öffentlichkeit. Dabei ist das Problem des Plagiarismus in wissenschaftlichen Arbeiten wie Dissertationen gewiss nicht neu. Die vermehrte Zugänglichkeit wissenschaftlicher Texte über das Internet erleichtert die Übernahme fremder Inhalte jedoch erheblich und ermöglicht gleichzeitig eine striktere Kontrolle durch den Einsatz von Plagiatssoftwares. Die Arbeit untersucht die Frage nach dem Umgang mit Plagiaten im eigenen Bestand, die sich in diesem Zusammenhang für wissenschaftliche Bibliotheken, insbesondere für Hochschulbilbiotheken, stellt. Die Handlungsmöglichkeiten von Hochschulbibliotheken im Umgang mit Dissertationen, die sich nachweislich als Plagiate herausgestellt haben, werden dabei vornehmlich unter ethischen Gesichtspunkten analysiert.
Toward a service-based workflow for automated information extraction from herbarium specimens
(2018)
Over the past years, herbarium collections worldwide have started to digitize millions of specimens on an industrial scale. Although the imaging costs are steadily falling, capturing the accompanying label information is still predominantly done manually and develops into the principal cost factor. In order to streamline the process of capturing herbarium specimen metadata, we specified a formal extensible workflow integrating a wide range of automated specimen image analysis services. We implemented the workflow on the basis of OpenRefine together with a plugin for handling service calls and responses. The evolving system presently covers the generation of optical character recognition (OCR) from specimen images, the identification of regions of interest in images and the extraction of meaningful information items from OCR. These implementations were developed as part of the Deutsche Forschungsgemeinschaft funded a standardised and optimised process for data acquisition from digital images of herbarium specimens (StanDAP-Herb) Project.
Informationsberatung als zeitgemäßes Dienstleistungskonzept für wissenschaftliche Bibliotheken
(2015)
Ausgangspunkt für die vorliegende Arbeit ist die These, dass Informationsberatung in Anlehnung an die in den USA verbreiteten Research Consultations eine ergänzende Methode zur prozessorientierten Förderung von Informationskompetenz an wissenschaftlichen Bibliotheken sein kann. Im Zuge der Diskussion dieser These werden zunächst die der Dienstleistung zugrunde liegenden Konzepte wie etwa das Rollenverständnis des consultant librarian und das des counseling librarian vorgestellt. Daraufhin wird die in der Fachliteratur geführte Diskussion um die Einordnung der Dienstleistung aufgegriffen und Informationsberatung gegenüber den herkömmlichen Dienstleistungen Auskunftsdienst und Informationskompetenzschulung abgegrenzt. Dabei zeigt sich, dass professionelle bibliothekarische Beratung im Zuge der Förderung des informellen Lernens einen neuen, eigenständigen und nutzerorientierten Service darstellt, der den aktuellen Bedarf nach individueller Betreuung durch persönliche Ansprechpartner und Expertenberatung deckt. Durch die inhaltliche und zeitliche Flexibilität der Dienstleistung können Nutzer am point of need abgeholt werden. Umsetzungsmodelle finden sich bspw. an der Wissensbar der SLUB Dresden, dem Helpdesk Lern- und Arbeitstechniken an der KIT-Bibliothek und dem Learning Center der Universitätsbibliothek Mannheim. Seitens der Berater werden u.a. Kompetenzen im Bereich des wissenschaftlichen Arbeitens sowie Kommunikations- und Sozialkompetenzen benötigt. Neben der Qualifizierung des bibliothekseigenen Personals durch Fortbildungen stellen Kooperationen mit kompetenzbildenden Einrichtungen der Universität eine Möglichkeit zur Implementierung der Dienstleistung dar, die von entsprechenden Marketingmaßnahmen begleitet sein muss. Abschließend wird die Rolle von wissenschaftlichen Bibliotheken im Hinblick auf die an deutschen Universitäten zunehmend etablierten Schreibzentren diskutiert.
This assignment is about the development of a general strategic marketing plan for academic libraries in Germany and can be used as a guideline for libraries that want to develop concrete marketing strategies for several products and services. Two examples of marketing projects are at its end presented for linking theoretical approaches to practice. Finally the development of an own marketing strategy for “information literacy” builds the last part of the assignment.
For the analysis of contract texts, validated model texts, such as model clauses, can be used to identify used contract clauses. This paper investigates how the similarity between titles of model clauses and headings extracted from contracts can be computed, and which similarity measure is most suitable for this. For the calculation of the similarities between title pairs we tested various variants of string similarity and token based similarity. We also compare two additional semantic similarity measures based on word embeddings using pre-trained embeddings and word embeddings trained on contract texts. The identification of the model clause title can be used as a starting point for the mapping of clauses found in contracts to verified clauses.
In order to ensure validity in legal texts like contracts and case law, lawyers rely on standardised formulations that are written carefully but also represent a kind of code with a meaning and function known to all legal experts. Using directed (acyclic) graphs to represent standardized text fragments, we are able to capture variations concerning time specifications, slight rephrasings, names, places and also OCR errors. We show how we can find such text fragments by sentence clustering, pattern detection and clustering patterns. To test the proposed methods, we use two corpora of German contracts and court decisions, specially compiled for this purpose. However, the entire process for representing standardised text fragments is language-agnostic. We analyze and compare both corpora and give an quantitative and qualitative analysis of the text fragments found and present a number of examples from both corpora.
Legal documents often have a complex layout with many different headings, headers and footers, side notes, etc. For the further processing, it is important to extract these individual components correctly from a legally binding document, for example a signed PDF. A common approach to do so is to classify each (text) region of a page using its geometric and textual features. This approach works well, when the training and test data have a similar structure and when the documents of a collection to be analyzed have a rather uniform layout. We show that the use of global page properties can improve the accuracy of text element classification: we first classify each page into one of three layout types. After that, we can train a classifier for each of the three page types and thereby improve the accuracy on a manually annotated collection of 70 legal documents consisting of 20,938 text elements. When we split by page type, we achieve an improvement from 0.95 to 0.98 for single-column pages with left marginalia and from 0.95 to 0.96 for double-column pages. We developed our own feature-based method for page layout detection, which we benchmark against a standard implementation of a CNN image classifier. The approach presented here is based on corpus of freely available German contracts and general terms and conditions.
Both the corpus and all manual annotations are made freely available. The method is language agnostic.
The reuse of scientific raw data is a key demand of Open Science. In the project NOA we foster reuse of scientific images by collecting and uploading them to Wikimedia Commons. In this paper we present a text-based annotation method that proposes Wikipedia categories for open access images. The assigned categories can be used for image retrieval or to upload images to Wikimedia Commons. The annotation basically consists of two phases: extracting salient keywords and mapping these keywords to categories. The results are evaluated on a small record of open access images that were manually annotated.
In the present paper we sketch an automated procedure to compare different versions of a contract. The contract texts used for this purpose are structurally differently composed PDF files that are converted into structured XML files by identifying and classifying text boxes. A classifier trained on manually annotated contracts achieves an accuracy of 87% on this task. We align contract versions and classify aligned text fragments into different similarity classes that enhance the manual comparison of changes in document versions. The main challenges are to deal with OCR errors and different layout of identical or similar texts. We demonstrate the procedure using some freely available contracts from the City of Hamburg written in German. The methods, however, are language agnostic and can be applied to other contracts as well.
In der vorliegenden Masterarbeit geht es um die automatische Annotation von Bildern mithilfe der Kategoriesystematik der Wikipedia. Die Annotation soll anhand der Bildbeschriftungen und ihren Textreferenzen erfolgen. Hierbei wird für vorhandene Bilder eine passende Kategorie vorgeschlagen. Es handelt sich bei den Bildern um Abbildungen aus naturwissenschaftlichen Artikeln, die in Open Access Journals veröffentlicht wurden. Ziel der Arbeit ist es, ein konzeptionelles Verfahren zu erarbeiten, dieses anhand einer ausgewählten Anzahl von Bildern durchzuführen und zu evaluieren. Die Abbildungen sollen für weitere Forschungsarbeiten und für die Projekte der Wikimedia Foundation zur Verfügung stehen. Das Annotationsverfahren findet im Projekt NOA - Nachnutzung von Open Access Abbildungen Verwendung.
Das Thema Nachhaltigkeit hat in den letzten Jahren auch dank der Fridays For Future Bewegung zunehmend an Bedeutung gewonnen. Bibliotheken sind per Definition nachhaltig durch die Bereitstellung und Ausleihe von Medien. Zusätzlich präsentieren sie ihrer Kundschaft Aktionen und Projekte wie „Saatgutbibliotheken“, welche inspirieren sollen, sich mit Nachhaltigkeit und den 17 Nachhaltigkeitszielen (SDGs) zu beschäftigen. Doch welche Strategie verfolgen Bibliotheken, um dieses Thema intern zu integrieren? Diese literaturbasierte Arbeit gibt einen Überblick über Nachhaltigkeit und im Besonderen über Nachhaltigkeitsstrategien. Dazu wird kurz ein Überblick über die historische Entwicklung der Nachhaltigkeit und der nachhaltigen Aktivitäten des Weltverbandes der Bibliotheken (IFLA), des Deutschen Bibliotheksverbandes (dbv) und des Netzwerks Grüne Bibliothek gegeben. Vervollständigt wird dies durch ein Kapitel zur Strategieentwicklung. Der erhaltene Überblick wird mit praxisnahen Fallbeispielen von öffentlichen und wissenschaftlichen Bibliotheken aus Deutschland, Hong Kong und Oulu (Finnland) abgeglichen, mit dem Ziel eine Handlungsempfehlung für eine erfolgreiche Nachhaltigkeitsstrategie für Bibliotheken zu erhalten. Diese Handlungsempfehlung möchte Bibliotheken dazu anregen, eine solche Strategie, gestützt mit den drei Aspekten Sichtbarkeit, Vernetzung & Kooperation und Engagement der Mitarbeitenden für die eigene Bibliothek zu entwerfen.
Das Ziel der Bachelorarbeit ist es, die Webseite einer wissenschaftlichen Bibliothek hinsichtlich der Benutzerfreundlichkeit zu testen und die Ergebnisse als Handlungsempfehlung an die Bibliothek aufzuarbeiten. Die Studie wird mit zwei Methoden zur Evaluation der Web Usability durchgeführt, die zunächst definiert und erläutert werden. Die Methoden umfassen die Analyse des aktuellen Zustands der Usability der Webseite mit dem Leitfaden BibEval, sowie die Methode des lauten Denkens mit Vertretern aus verschiedenen Nutzergruppen der Bibliothek als Testpersonen. Aus den erhobenen Daten ergibt sich, dass die Webseite in Teilbereichen, wie der Navigation und der Seitengestaltung kleine bis schwere Usability-Probleme aufweist. Die aufgetretenen Kritikpunkte werden zusammen-fassend beschrieben. Anschließend werden Lösungsvorschläge gegeben. Die Arbeit ist vorwiegend für die Mitarbeiter der Bibliothek von Interesse, deren Webseite evaluiert wird. Andere Bibliothekare, die vorhaben die Benutzerfreundlichkeit ihrer Webseite zu testen, können sich in dieser Arbeit Anregungen holen.