Refine
Year of publication
Document Type
- Article (184)
- Bachelor Thesis (90)
- Conference Proceeding (52)
- Master's Thesis (33)
- Part of a Book (17)
- Study Thesis (15)
- Book (14)
- Report (8)
- Doctoral Thesis (6)
- Working Paper (5)
Has Fulltext
- yes (431)
Is part of the Bibliography
- no (431)
Keywords
- Bibliothek (31)
- Informationsmanagement (17)
- Wissenschaftliche Bibliothek (15)
- Ausbildung (14)
- Öffentliche Bibliothek (14)
- Student (13)
- Digitalisierung (12)
- Informationskompetenz (12)
- Benutzerfreundlichkeit (11)
- Information Retrieval (11)
Institute
- Fakultät III - Medien, Information und Design (431) (remove)
Die Bachelor-Arbeit beschäftigt sich hauptsächlich mit dem Fotobestand der Polizeigeschichtlichen Sammlung der Polizeiakademie Niedersachsen. Der Fotobestand der themenspezifischen Sammlung wird detailliert vorgestellt und seine Erschließung und Dokumentation näher erläutert. Es erfolgen eine fototechnische Einordnung, archivalische Vorgaben und die Betrachtung derzeitiger und zukünftiger Nutzer der Sammlung in einem Profil. <br /> Besprochen werden außerdem Verwertungsmöglichkeiten, Rechtsfragen und Aspekte der Digitalisierung von Aufnahmen. Ein konzeptioneller Datenbankaufbau stellt eine Möglichkeit der Umsetzung von Erschließungsvorgaben dar. In einem Ausblick über die zukünftige Arbeit mit dem Fotobestand werden sowohl ein weiterer Weg zur Erschließung als auch die Digitalisierung von Fotos beleuchtet. <br /> Die Arbeit schließt mit einem praktischen Leitfaden zur Erschließung des Fotobestandes der Polizeigeschichtlichen Sammlung ab, mit Hilfe dessen zukünftig Mitarbeiter der musealen Einrichtung am Bestand arbeiten können.
Bibliotheken
(2018)
Gerade für Historiker*innen, die für ihre Arbeit vielfach nicht nur Fachliteratur, sondern auch Quelleneditionen und handschriftliche Materialien benötigen, sind Bibliotheken die zentralen Informationseinrichtungen. Der Beitrag stellt in kompakter Form die wichtigsten digitalen Informationsressourcen und Infrastruktureinrichtungen für die Geschichtswissenschaft vor.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Die vorliegenden Bachelorarbeit befasst sich mit der Analyse und der zunehmenden Wichtigkeit von Social Media im emotionalen Wirtschaftszweig Profifußball. Hierzu werden verschiedenste Social-Media- und Web 2.0-Angebote vorgestellt und Fakten zum Einsatz in der freien Wirtschaft präsentiert. Unter Berücksichtigung des Wandels zu mehr Kommerzialisierung im Profifußball, fällt die Analyse der aktuellen Präsenz der Bundesligisten auf Facebook, Twitter und Co kritisch aus. Besonders im Vergleich mit europäischen Vereinen zeigt sich ein großer Nachholbedarf deutscher Clubs. Abschließend folgt der Versuch einer Strategiebewertung anhand des Bundesligisten SV Werder Bremen. Die Auswertung von offiziellen und inoffiziellen Angeboten sowie die Analyse Diskussionen über den Verein, zeigen vielfältige Ergebnisse und Möglichkeiten für die Umsetzung einer umfangreichen Social-Media-Strategie. Mögliche Inhalte einer solchen Umsetzung auf relevanten Plattformen bilden den Abschluss der vorliegenden Arbeit.
Im Rahmen der Projektphase des 6. Semesters der Studiengänge Bachelor Informationsmanagement (BIM) und Bachelor medizinisches Informationsmanagement (BMI) wurde eine Webseite für die Forschung erstellt. Um die Notwendigkeit zu ermitteln, sowie den Wünschen und Bedürfnissen der Angestellten an der Hochschule nachkommen zu können, wurde eine Bedarfsanalyse durchgeführt. Der nachfolgende Beitrag zeigt die Ergebnisse in aufbereiteter Form. Nach einer kurzen Einleitung werden die Bereiche statistische und allgemeine Fragen, Fragen zu digitalen Forschungsdaten und Netzwerken, zur Forschungswebseite und zur Pflege der Daten ausgewertet dargestellt.
Die Nutzung von Messenger-Diensten hat die Nutzung von sozialen Medien übertroffen. Diese Mediennutzung bringt veränderte Erwartungen an Unternehmen mit sich. Unternehmen begegnen den Erwartungen ihrer Kund*innen in der Online-Kundenkommunikation mit dem Einsatz textbasierter Dialogsysteme. Im Facebook-Messenger wurden 2018 bereits über 300.000 Chatbots angeboten. Das Problem ist, dass Studien seit mehreren Jahren aufzeigen, dass diese Kommunikationstechnologie sich bei den Kund*innen noch nicht durchgesetzt hat und häufig noch skeptisch betrachtet wird. Für Unternehmen ist es daher notwendig zu verstehen, welche Kriterien erfüllt sein müssen, um die Akzeptanzbildung der Kund*innen gegenüber textbasierten Dialogsystemen positiv zu beeinflussen.
Das Ziel dieser Arbeit ist es zu betrachten, inwiefern die Eigenschaften textbasierter Dialogsysteme die Akzeptanzkriterien der Kund*innen erfüllen können. Dazu wird die folgende Forschungsfrage gestellt: Wie akzeptieren Kunden den Einsatz textbasierter Dialogsysteme in der Online-Kundenkommunikation von Unternehmen?
Um die Forschungsfrage zu beantworten, wird eine Literaturanalyse durchgeführt. Die Literatur wird mit Studienergebnissen verglichen, um Übereinstimmungen und Abweichungen herauszuarbeiten.
Eine Akzeptanzanalyse hat ergeben, dass Kund*innen textbasierte Dialogsysteme vor allem akzeptieren, wenn sie darin einen Nutzen erkennen. Jedoch beeinflussen neben nutzenorientierten Faktoren auch emotionale Faktoren die Akzeptanz.
Auf dieser Grundlage ist es empfehlenswert, positive und negative Einflussfaktoren des Akzeptanzprozesses zu identifizieren und die Gestaltung textbasierter Dialogsysteme an die Kund*innen anzupassen, bevor diese eingesetzt werden.
Praktische Übungen anhand von Programmieraufgaben sind ein gängiger und zentraler Bestandteil der Programmierausbildung in der Informatik und verwandten Fächern. Die manuelle Korrektur von Lösungen zu Programmieraufgaben ist jedoch zeitaufwändig und nicht immer einfach. Gerade in Szenarien, die auf sogenanntes „formatives Assessment“ setzen, ist jedoch ein zeitnahes Feedback zumindest zu den wesentlichen Aspekten einer Lösung sehr wünschenswert. In diesem – aber auch in weiteren Szenarien – kann eine automatisierte Bewertung der Lösungen von Programmieraufgaben einen wertvollen Beitrag zur Verbesserung der Lehre leisten. Darüber hinaus ermöglichen geeignete Systeme eine Darstellung des Lernfortschritts, halten Lernende durch regelmäßig bewertete Übungsaufgaben zur kontinuierlichen Mitarbeit an und unterstützen Lehrende durch einen Überblick über Lernfortschritte und Lernhürden einzelner Studierender und der gesamten Gruppe bei der Planung und Ausrichtung ihrer Lehre.
Dieses Buch richtet sich an Lehrende an Hochschulen, Schulen und anderen Ausbildungseinrichtungen, an Hochschuldidaktiker mit Bezug zur Programmierausbildung und an Informatiker, die mit der Entwicklung oder Integration von Systemen zur automatischen Programmbewertung beschäftigt sind. Die Ziele dieses Buches sind zum einen, Lehrenden die praktische Relevanz und Tauglichkeit automatisierter Programmbewertung aufzuzeigen und damit den Einsatz automatischer Programmbewertung durch die Darstellung erfolgreicher Ansätze zu fördern. Zum anderen soll dem Thema der automatisierten Programmbewertung ein größerer Bekanntheitsgrad in der Fachöffentlichkeit verschafft und Arbeitsergebnisse aus Forschungs- und Praxisprojekten einem größeren Anwenderkreis präsentiert werden.
In den letzten Jahren ist, nicht zuletzt aufgrund der schnellen und einfachen Verfügbarkeit von Daten und Informationen, ein Anstieg an veröffentlichter Literatur zu beobachten. Bibliotheken stehen vor der Herausforderung, diese Ressourcen zu erschließen und damit verfügbar zu machen. Ein Teilaspekt ist hierbei die Klassifizierung. Die Arbeit untersucht Voraussetzungen und Möglichkeiten der automatischen Klassifizierung am Beispiel medizinischer Literatur. Der erste, theoretische Teil beinhaltet die Beschreibung der Grundlagen der Inhaltserschließung, des Data Mining und der automatischen Klassifizierung sowie eine umfassende Übersicht über den aktuellen Forschungsstand in diesem Bereich. Im zweiten Teil wird die Auswahl, Aufbereitung und Analyse eines aus Katalogdatensätzen der Bibliothek der Medizinischen Hochschule Hannover bestehenden Datenbestandes erläutert. Die Anwendung von Verfahren des maschinellen Lernens zur Klassifizierung bibliographischer Datensätze wird am Beispiel des Algorithmus k-nearest-neighbours verdeutlicht. Hierbei lässt sich eine korrekte Klassifizierung von rund 58 % der Dokumente erreichen. Abschließend werden Optimierungsansätze (z.B. semi-automatische Verfahren) und Herausforderungen automatischer Klassifizierungsverfahren (z.B. uneinheitlich erschlossene Datensätze oder ungleiche Verteilung der Klassen einer Systematik in den Dokumenten) aufgezeigt.
Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
For indexing archived documents the Dutch Parliament uses a specialized thesaurus. For good results for full text retrieval and automatic classification it turns out to be important to add more synonyms to the existing thesaurus terms. In the present work we investigate the possibilities to find synonyms for terms of the parliaments thesaurus automatically. We propose to use distributional similarity (DS). In an experiment with pairs of synonyms and non-synonyms we train and test a classifier using distributional similarity and string similarity. Using ten-fold cross validation we were able to classify 75% of the pairs of a set of 6000 word pairs correctly.
Automatic classification of scientific records using the German Subject Heading Authority File (SWD)
(2012)
The following paper deals with an automatic text classification method which does not require training documents. For this method the German Subject Heading Authority File (SWD), provided by the linked data service of the German National Library is used. Recently the SWD was enriched with notations of the Dewey Decimal Classification (DDC). In consequence it became possible to utilize the subject headings as textual representations for the notations of the DDC. Basically, we we derive the classification of a text from the classification of the words in the text given by the thesaurus. The method was tested by classifying 3826 OAI-Records from 7 different repositories. Mean reciprocal rank and recall were chosen as evaluation measure. Direct comparison to a machine learning method has shown that this method is definitely competitive. Thus we can conclude that the enriched version of the SWD provides high quality information with a broad coverage for classification of German scientific articles.
Purpose: Radiology reports mostly contain free-text, which makes it challenging to obtain structured data. Natural language processing (NLP) techniques transform free-text reports into machine-readable document vectors that are important for creating reliable, scalable methods for data analysis. The aim of this study is to classify unstructured radiograph reports according to fractures of the distal fibula and to find the best text mining method.
Materials & Methods: We established a novel German language report dataset: a designated search engine was used to identify radiographs of the ankle and the reports were manually labeled according to fractures of the distal fibula. This data was used to establish a machine learning pipeline, which implemented the text representation methods bag-of-words (BOW), term frequency-inverse document frequency (TF-IDF), principal component analysis (PCA), non-negative matrix factorization (NMF), latent Dirichlet allocation (LDA), and document embedding (doc2vec). The extracted document vectors were used to train neural networks (NN), support vector machines (SVM), and logistic regression (LR) to recognize distal fibula fractures. The results were compared via cross-tabulations of the accuracy (acc) and area under the curve (AUC).
Results: In total, 3268 radiograph reports were included, of which 1076 described a fracture of the distal fibula. Comparison of the text representation methods showed that BOW achieved the best results (AUC = 0.98; acc = 0.97), followed by TF-IDF (AUC = 0.97; acc = 0.96), NMF (AUC = 0.93; acc = 0.92), PCA (AUC = 0.92; acc = 0.9), LDA (AUC = 0.91; acc = 0.89) and doc2vec (AUC = 0.9; acc = 0.88). When comparing the different classifiers, NN (AUC = 0,91) proved to be superior to SVM (AUC = 0,87) and LR (AUC = 0,85).
Conclusion: An automated classification of unstructured reports of radiographs of the ankle can reliably detect findings of fractures of the distal fibula. A particularly suitable feature extraction method is the BOW model.
Key Points:
- The aim was to classify unstructured radiograph reports according to distal fibula fractures.
- Our automated classification system can reliably detect fractures of the distal fibula.
- A particularly suitable feature extraction method is the BOW model.
Presse-, Informations- und Meinungsfreiheit sind miteinander verbundene Basisrechte. Durch das Recht sich frei zu informieren wird das Recht der freien Meinungsäußerung und damit die freie Presse sichergestellt. Die sich weltweit verändernden Presselagen stellen nicht nur die Pressefreiheit vor Herausforderungen. Durch die Fähigkeit erhaltene Informationen zu verarbeiten, wird die Informationskompetenz der Bevölkerung ermöglicht und sichergestellt. Die Ausübung dieser Kompetenz hingegen ist die Grundlage sich aktiv an demokratischen Prozessen zu beteiligen. Ziel dieser Arbeit ist es, mittels der Rangliste zur Presselage der Reporter ohne Grenzen und anhand der Daten zur Informationsfreiheit des DA2I Dashboards sowie literaturbasierten Kriterien zu untersuchen, inwiefern sich die Lage der Presse- und Informationsfreiheit auf Bibliotheksdienstleistungen öffentlicher Bibliotheken auswirkt. Im Ergebnis wirken sich diese nicht ausschließlich auf den Medienbestand aus. Die Zustände der genannten Basisrechte in einem Staat haben auch Einfluss auf die Veranstaltungsarbeit.
Der systematische Umgang mit Wissen wird für Unternehmen immer bedeutender, seitdem Wissen als Ressource im Unternehmen erkannt wurde. Hierbei hilft der Einsatz von Knowledge Management. Die Organisation von Wissen in einem Unternehmen kann durch eine Vielzahl von Knowledge Management-Tools erfolgen. Die Auswahl des dafür geeignetsten Knowledge Management-Tools stellt viele Knowledge Manager und Mitarbeiter eines Unternehmens vor schwierige Entscheidungen. Durch eine gezielte Auswahl lässt sich die Identifizierung, der Erwerb, die Entwicklung und die (Ver)Teilung sowie die Bewahrung und die Nutzung von Wissen steigern und steuern. Ziel dieser vorliegenden Bachelorarbeit ist es, ein Auswahlverfahren zu beschreiben, das die Auswahl geeigneter Knowledge Management-Tools unterstützt. Zur Unterstützung des Verfahrens wurde die Form einer Matrix gewählt. Durch die Knowledge Management-Tool-Matrix wird Knowledge Managern und Mitarbeitern die Auswahl geeigneter Knowledge Management-Tools erleichtert und zusätzlich transparent und nachvollziehbar gemacht. Vor der Erläuterung der Knowledge Management-Tool-Matrix als neues Auswahlverfahren, beschäftigt sich die Arbeit mit den Grundlagen des Knowledge Managements und stellt das Unternehmen PricewaterhouseCoopers Aktiengesellschaft Wirtschaftsprüfungsgesellschaft vor. Anschließend werden die vorhandenen Verfahren zur Auswahl von Knowledge Management-Tools vorgestellt. Nachfolgend wird das Vorgehen zur Entwicklung der Knowledge Management-Tool-Matrix beschrieben. Die ausführliche Beschreibung der Dimensionen und der Verwendung dieser Knowledge Management-Tool-Matrix bildet den Schwerpunkt dieser Arbeit und wird von der Zusammenfassung abgeschlossen.
In der vorliegenden Mastererarbeit wird untersucht, wie implizites Wissen in Arbeitsteams optimal zwischen den Teammitgliedern ausgetauscht werden kann. Dazu werden Austauschmethoden für implizites Wissen und Movationstheorien analysiert. Anhand der Austauschmethoden und Motivationstheorien wird ein Modell entwickelt, das Teamleitern helfen soll, den Austausch von implizitem Wissen in Arbeitsteams am Besten zu nutzen.
Der konventionelle Auskunftstresen ist in Deutschland nach wie vor weit verbreitet. Im Falle der Zentralbibliothek der Fachhochschule (FH) Hannover wird seit Mitte 2009 auf einen solchen Tresen verzichtet. Es stellt sich die Frage inwieweit weiterhin ein zufriedenstellender Auskunftsdienst in der Bibliothek geleistet werden kann. Die vorliegende Bachelorarbeit analysiert vor diesem Hintergrund verschiedene Auskunftskonzepte, die auf einen traditionellen Auskunftsplatz verzichten. Die Autorinnen präsentieren allgemeingültige Hinweise und geben Beispiel für eine mögliche Umsetzung der Konzepte. Die Ergebnisse der Bachelorarbeit sollen zu einem effizienteren und nutzerorientierteren Auskunftsdienst führen.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.