020 Bibliotheks- und Informationswissenschaft
Refine
Year of publication
Document Type
- Bachelor Thesis (72)
- Conference Proceeding (36)
- Article (35)
- Master's Thesis (19)
- Part of a Book (15)
- Study Thesis (14)
- Book (9)
- Report (7)
- Working Paper (7)
- Preprint (5)
Has Fulltext
- yes (224)
Is part of the Bibliography
- no (224)
Keywords
- Bibliothek (44)
- Informationskompetenz (15)
- Informationsmanagement (15)
- Wissenschaftliche Bibliothek (15)
- Wissensmanagement (13)
- Öffentliche Bibliothek (13)
- Ausbildung (12)
- Digitalisierung (10)
- Benutzerfreundlichkeit (9)
- Information Retrieval (9)
Wikidata and Wikibase as complementary research data management services for cultural heritage data
(2022)
The NFDI (German National Research Data Infrastructure) consortia are associations of various institutions within a specific research field, which work together to develop common data infrastructures, guidelines, best practices and tools that conform to the principles of FAIR data. Within the NFDI, a common question is: What is the potential of Wikidata to be used as an application for science and research? In this paper, we address this question by tracing current research usecases and applications for Wikidata, its relation to standalone Wikibase instances, and how the two can function as complementary services to meet a range of research needs. This paper builds on lessons learned through the development of open data projects and software services within the Open Science Lab at TIB, Hannover, in the context of NFDI4Culture – the consortium including participants across the broad spectrum of the digital libraries, archives, and museums field, and the digital humanities.
Die vorliegende Arbeit bietet eine Einführung in die am weitesten verbreiteten Methoden der Usability Evaluation, die heuristische Evaluation und den Usability Test. Beide Methoden werden vorgestellt und anhand von vier Bibliothekskatalogen angewendet. Untersuchungsgegenstand sind die Bibliothekskataloge der Stadtbücherei Bamberg, der Stadtbücherei Würzburg, der Stadtbücherei Augsburg und der Stadtbücherei Osnabrück.
The NOA project collects and stores images from open access publications and makes them findable and reusable. During the project a focus group workshop was held to determine whether the development is addressing researchers’ needs. This took place before the second half of the project so that the results could be considered for further development since addressing users’ needs is a big part of the project. The focus was to find out what content and functionality they expect from image repositories.
In a first step, participants were asked to fill out a survey about their images use. Secondly, they tested different use cases on the live system. The first finding is that users have a need for finding scholarly images but it is not a routine task and they often do not know any image repositories. This is another reason for repositories to become more open and reach users by integrating with other content providers. The second finding is that users paid attention to image licenses but struggled to find and interpret them while also being unsure how to cite images. In general, there is a high demand for reusing scholarly images but the existing infrastructure has room to improve.
Im Bereich der wissenschaftlichen Recherche gibt das Abstract einen ersten Überblick über den Inhalt und die Ergebnisse eines Forschungsartikels. Das Format des Abstracts wird seit einigen Jahren auch in audiovisueller Form umgesetzt. Der Autor eines Papers kann zusätzlich zu seinem Artikel ein sogenanntes Video Abstract einreichen. Für die Erstellung eines Video Abstracts geben die Verlage bestimmte Richtlinien vor, die der Autor bei der Produktion einhalten soll. Diese Arbeit hat sich zum Ziel gesetzt, einen Standardisierungsansatz für institutionelle Bedingungen, auch Video Abstract Author Guidelines genannt, zu erarbeiten. Zu diesem Zweck wurden mit zwei Untersuchungen sowohl die Produktionsweise von Video Abstracts als auch die vom Verlag aufgestellten Guidelines analysiert. Mit den Ergebnissen der Untersuchungen wurde eine Handlungsempfehlung für die Verlage entwickelt. Außerdem ging aus den Ergebnissen hervor, dass einige Richtlinien Defizite aufweisen, welche die Verlage beheben sollten.
Veränderungen der Rechtsberufe durch neue Technologien - Beispiel: Wissensmanagement bei Anwälten
(2002)
Wissensmanagement ist eines der aktuellen Themen in Theorie und Praxis und wird in vielen verschiedenen Fachgebieten aufgegriffen. Für Anwälte wird die Berufsausübung derzeit durch mehrere verschiedene Entwicklungen geprägt – und zukünftig noch stärker geprägt werden - die zu einer anspruchsvollen Situation voller Herausforderungen führen. Viele der Entwicklungen haben unmittelbaren Bezug zu dem Umgang mit dem Wissen der Mitarbeiter und der Kanzlei und führen so zum Thema "Wissensmanagement bei Anwälten".
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Vergleich von webbasierten Programmierschnittstellen zum Zugriff auf kontrollierte Vokabulare
(2016)
Diese Arbeit beschäftigt sich mit der Analyse von Webschnittstellen für kontrollierte Vokabulare von Informationseinrichtungen. Hierfür werden zunächst einige relevante Arten solcher Vokabulare vorgestellt. Außerdem wird ein Überblick über die in diesem Zusammenhang verwendeten Technologien und Standards für den maschinellen Datenaustausch über das World Wide Web gegeben. Darauf aufbauend werden schließlich die Schnittstellen von vier in der Bibliothekswelt viel genutzten Vokabularen miteinander verglichen. Zu diesem Zweck wird jedes Begriffssystem kurz vorgestellt und die Funktionalitäten der entsprechenden API untersucht. Danach werden die Untersuchungsobjekte nach ausgewählten Kriterien einander gegenübergestellt. Im Abschluss werden die Ergebnisse des Vergleichs präsentiert.
Scientific papers from all disciplines contain many abbreviations and acronyms. In many cases these acronyms are ambiguous. We present a method to choose the contextual correct definition of an acronym that does not require training for each acronym and thus can be applied to a large number of different acronyms with only few instances. We constructed a set of 19,954 examples of 4,365 ambiguous acronyms from image captions in scientific papers along with their contextually correct definition from different domains. We learn word embeddings for all words in the corpus and compare the averaged context vector of the words in the expansion of an acronym with the weighted average vector of the words in the context of the acronym. We show that this method clearly outperforms (classical) cosine similarity. Furthermore, we show that word embeddings learned from a 1 billion word corpus of scientific exts outperform word embeddings learned from much larger general corpora.
Using openEHR Archetypes for Automated Extraction of Numerical Information from Clinical Narratives
(2019)
Up to 80% of medical information is documented by unstructured data such as clinical reports written in natural language. Such data is called unstructured because the information it contains cannot be retrieved automatically as straightforward as from structured data. However, we assume that the use of this flexible kind of documentation will remain a substantial part of a patient’s medical record, so that clinical information systems have to deal appropriately with this type of information description. On the other hand, there are efforts to achieve semantic interoperability between clinical application systems through information modelling concepts like HL7 FHIR or openEHR. Considering this, we propose an approach to transform unstructured documented information into openEHR archetypes. Furthermore, we aim to support the field of clinical text mining by recognizing and publishing the connections between openEHR archetypes and heterogeneous phrasings. We have evaluated our method by extracting the values to three openEHR archetypes from unstructured documents in English and German language.