Refine
Year of publication
- 2016 (34) (remove)
Document Type
- Bachelor Thesis (12)
- Report (7)
- Study Thesis (6)
- Working Paper (5)
- Article (1)
- Book (1)
- Conference Proceeding (1)
- Master's Thesis (1)
Language
- German (34) (remove)
Has Fulltext
- yes (34)
Is part of the Bibliography
- no (34)
Keywords
- Autobewerter (3)
- Grader (3)
- IT-Sicherheit (3)
- Java <Programmiersprache> (3)
- Programmieraufgabe (3)
- Programmierung (3)
- e-Assessment (3)
- Öffentliche Bibliothek (3)
- Übung <Hochschule> (3)
- Bachelorstudium (2)
Bedingt durch die zunehmende Digitalisierung der wissenschaftlichen Ausbildung entstanden verschiedenste Lehrplattformen, mit denen die Verwaltung von Lehrveranstaltungen und Lehrmitteln möglich geworden ist. Die Plattform LON-CAPA ist eine davon.
Neben der Verwaltung von Lehrveranstaltungen konnten innerhalb der Plattform über eine Programmierschnittstelle auch Übungsaufgaben definiert werden, die durch das Hinterlegen der korrekten Antwort oder bei der Definition von Multiple-Choice Aufgaben einem Studierenden automatisch Feedback über dessen Lösung geben können. Komplexere Aufgaben mussten dagegen häufig manuell durch Menschen korrigiert werden.
Für die formalen Sprachen und die Automatenlehre der theoretischen Informatik wurde daher die in Java geschriebene Bibliothek JFLAP modifiziert, um als Bewertungsinstrument Aufgaben aus diesem Themengebiet automatisch auf Korrektheit bewerten zu können. Ein genereller Interfaceansatz ermöglich zusätzliche eine zugängliche Definition weiterer Aufgaben für die untersuchten Themengebiete.
Im Rahmen des vom Bundesministerium für Wirtschaft und Technologie geförderten Forschungsprojektes INSA sollen wichtige Beiträge zur Verbesserung der IT-Sicherheit von Produktionsanlagen insbesondere in kleinen und mittelständischen Unternehmen (KMU) realisiert und erprobt werden.
Die IT-Sicherheit von Produktionsanlagen wird zu einer immer wichtigeren Komponente des Schutzes von Unternehmen gegen Cyber-Attacken. Neben Angriffen aus dem Internet sind dabei interne Angriffsquellen in Betracht zu ziehen. Gängige Vorgehensmodelle, wie z. B. die VDI-Richtlinie 2182, setzen dabei unter anderem auf eine wiederkehrende Analyse der Bedrohungen und auf die Implementierung entsprechender Schutzmaßnahmen. Die Durchführung einer solchen wiederkehrenden Gefährdungsanalyse ist mit einem wiederkehrenden manuellen Aufwand verbunden, weshalb kleine und mittlere Unternehmen die Durchführung dieser Maßnahmen häufig meiden. Ziel des Projektes ist die Unterstützung kleiner und mittlerer Unternehmen bei der Durchführung entsprechender Bedrohungsanalysen zu unterstützen.
Der Ansatz des Projektes beruht auf der automatisierten bzw. teilautomatisierten Erfassung der installierten Automatisierungskomponenten (Assets). Danach kann für bekannte Standardkomponenten durch die Verwendung wissensbasierter Methoden eine Beurteilung der Bedrohung einer Automatisierungsanlage erfolgen. Hierfür wird fachspezifisches Wissen erfasst und verarbeitet wird. Diese Methoden können bei Bedarf in die Engineering-Oberfläche einer Automatisierungsanlage intergiert werden.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Die Einführung von Discovery-Systemen in wissenschaftlichen Bibliotheken ist aktuell ein viel diskutiertes Thema in der deutschen Bibliothekslandschaft. In dieser Bachelorarbeit wird die konkrete Implementierung des Discovery-Systems in der Herzog August Bibliothek (HAB) in Wolfenbüttel betrachtet. Hierfür wird zunächst ein generelles Verständnis für Bibliothekskatalogsysteme geschaffen. Eine vergleichende Studie der Recherchequalität zwischen dem Discovery-System und dem bestehenden OPAC (Online Public Access Catalogue) wird durchgeführt, um zum einen Empfehlungen für notwendige Anpassungen an dem Discovery-System auszusprechen und zum anderen letztendlich eine Aussage über die Möglichkeit einer Abschaltung des OPACs zu treffen. Eine Abschaltung des OPACs ist aufgrund der Ergebnisse nur dann erfolgreich möglich, wenn die HAB ihre Viel- und Intensivnutzer in den Implementierungsprozess mit einbezieht und deren Anforderungen und Wünsche an das Discovery-System umsetzt. Die Studie zeigt, dass die Benutzer der HAB an den OPAC gewohnt sind und für die HAB daher die Herausforderung in der Akzeptanzschaffung für das neue System liegt.
Das vorliegende Shortpaper befasst sich mit dem Thema Datenschnittstellen und Datenmapping im Bibliothekswesen für den Austausch von bibliografischen Daten. Ausgangspunkt der Arbeit ist die Schnittstelle Z39.50, welche den Austausch von Metadaten zwischen Bibliotheken als derzeitigen Standard bildet. Neben diesem Austauschformat sind die Darstellungsformate MAB, MARC 21, MARC-XML und als Weiterentwicklung von Z39.50 das SRU (Search/Retrieve via URL) genannt. Weiterhin wird auf das Linked Open Data Netzwerk Bezug genommen. Dieses Netzwerk, auch Semantic Web genannt, wird im Allgemeinen auch mit den Begriffen Web 3.0, Linked Open Data und Web of Data in Verbindung gebracht. Die technische Seite wird anhand von RDF (Resource Description Framework), XML (Extensible Markup Language) erläutert und im Weiteren wird auf die Wichtigkeit der CC0-Lizenzen (Creative Commons Lizenzen) eingegangen. Abschließend wird auf den Begriff Mapping im Kontext der Bibliothekslandschaft eingegangen und die Zusammenarbeit zwischen den Institutionen hervorgehoben.
Die neuen Medien haben in der Sozialwirtschaft Einzug gehalten: Immer mehr Menschen informieren sich online über Träger, Einrichtungen und Dienste. Moderne Instrumente der Marktkommunikation sind eine wichtige Säule im Kontakt mit Kunden, Mitarbeitenden, Medien, aber auch Ehrenamtlichen und Förderern.
Für die Übermittlung personenbezogener Daten ist eine verschlüsselte Übertragung unverzichtbar und seit Jahren etabliert. Durch die erhöhte Datenschutz-Sensibilität gewinnt der vertrauliche Zugriff über https auf die Websites von Sozialunternehmen an Bedeutung. Sobald über Kontaktformulare oder etwa Bewerberportale der Austausch personenbezogener Daten angeboten wird, ist mit Einführung des IT-Sicherheitsgesetzes im Juli 2015 eine SSL-Verschlüsselung zur Pflicht geworden.
Die nachfolgende Studie beleuchtet den aktuellen Umsetzungsgrad zur Sicherheit von Web-Server in der Sozialwirtschaft. Es wird dargestellt, in welchem Umfang heute https-basierte Zugriffe auf die Internetseiten von Sozialunternehmen möglich sind. Darüber hinaus werden mögliche Probleme in der technischen Implementierung überprüft und ausgewertet.
In den letzten Jahren ist, nicht zuletzt aufgrund der schnellen und einfachen Verfügbarkeit von Daten und Informationen, ein Anstieg an veröffentlichter Literatur zu beobachten. Bibliotheken stehen vor der Herausforderung, diese Ressourcen zu erschließen und damit verfügbar zu machen. Ein Teilaspekt ist hierbei die Klassifizierung. Die Arbeit untersucht Voraussetzungen und Möglichkeiten der automatischen Klassifizierung am Beispiel medizinischer Literatur. Der erste, theoretische Teil beinhaltet die Beschreibung der Grundlagen der Inhaltserschließung, des Data Mining und der automatischen Klassifizierung sowie eine umfassende Übersicht über den aktuellen Forschungsstand in diesem Bereich. Im zweiten Teil wird die Auswahl, Aufbereitung und Analyse eines aus Katalogdatensätzen der Bibliothek der Medizinischen Hochschule Hannover bestehenden Datenbestandes erläutert. Die Anwendung von Verfahren des maschinellen Lernens zur Klassifizierung bibliographischer Datensätze wird am Beispiel des Algorithmus k-nearest-neighbours verdeutlicht. Hierbei lässt sich eine korrekte Klassifizierung von rund 58 % der Dokumente erreichen. Abschließend werden Optimierungsansätze (z.B. semi-automatische Verfahren) und Herausforderungen automatischer Klassifizierungsverfahren (z.B. uneinheitlich erschlossene Datensätze oder ungleiche Verteilung der Klassen einer Systematik in den Dokumenten) aufgezeigt.
Open Access zu Textpublikationen und Forschungsdaten: Positionen politischer Parteien in Deutschland
(2016)
Die Arbeit beginnt mit einem Blick auf die Entstehung der Open-Access-Bewegung und erklärt die zentralen Begriffe Open Access zu Textpublikationen und Forschungsdaten und stellt das Zweitveröffentlichungsrecht vor. Die Vorstellung der beschlossenen Open-Access-Strategien, zusammen mit der Untersuchung von Wahlprogrammen und Koalitionsverträgen vermittelt einen Gesamteindruck zum aktuellen Open-Access-Stand in den Ländern. Bereits seit zehn Jahren ist die Forderung nach Open Access, dem freien Zugang zu wissenschaftlichen Informationen, Bestandteil der Wahlprogramme politischer Parteien. Trotzdem beschlossen erst in den Jahren 2014 und 2015 die Länder Baden-Württemberg, Berlin und Schleswig-Holstein landesweite Konzepte zur Open-Access-Förderung. Im Sommer 2016 wird unter den politischen Parteien in Deutschland eine schriftliche Befragung durchgeführt. Ziel der Befragung ist die Ermittlung der Positionen der Parteien, um Rückschlüsse auf die weitere Open-Access-Entwicklung in Deutschland zu ziehen.
Vergleich von webbasierten Programmierschnittstellen zum Zugriff auf kontrollierte Vokabulare
(2016)
Diese Arbeit beschäftigt sich mit der Analyse von Webschnittstellen für kontrollierte Vokabulare von Informationseinrichtungen. Hierfür werden zunächst einige relevante Arten solcher Vokabulare vorgestellt. Außerdem wird ein Überblick über die in diesem Zusammenhang verwendeten Technologien und Standards für den maschinellen Datenaustausch über das World Wide Web gegeben. Darauf aufbauend werden schließlich die Schnittstellen von vier in der Bibliothekswelt viel genutzten Vokabularen miteinander verglichen. Zu diesem Zweck wird jedes Begriffssystem kurz vorgestellt und die Funktionalitäten der entsprechenden API untersucht. Danach werden die Untersuchungsobjekte nach ausgewählten Kriterien einander gegenübergestellt. Im Abschluss werden die Ergebnisse des Vergleichs präsentiert.
Während sich das Zahlungsverfahren Mobile Payment seit einigen Jahren international mehr und mehr etabliert, fristet es entgegen jährlich wiederkehrender Erfolgsprognosen in Deutschland immer noch ein Nischendasein. Die vorliegende Untersuchung entstand im Rahmen einer Bachelorarbeit des Studiengangs der Betriebswirtschaftslehre an der Hochschule Hannover und beschäftigt sich mit den Potentialen und Barrieren der Nutzung des Mobile Payment aus Kundensicht, mit dem Ziel, die wesentlichen Faktoren der geringen Nutzung in Deutschland zu identifizieren. Hierzu wurden Studierende sowohl mittels eines Fragebogens (N = 128) zu ihren persönlichen Nutzungs-Voraussetzungen sowie –Erfahrungen befragt, als auch um die Bewertung verschiedener Faktoren als Potential oder Barriere für eine mögliche Nutzung gebeten. Bei der Auswertung der Ergebnisse konnten Zusammenhänge zwischen den untersuchten Einflussgrößen und der Nutzung des Mobile Payment festgestellt werden. Insbesondere der fehlende Schutz, drohender Missbrauch und eine fehlende Standardanwendung erwiesen sich als wichtige Faktoren für die Entscheidung, Mobile Payment zu nutzen.