Refine
Year of publication
- 2022 (24) (remove)
Document Type
- Bachelor Thesis (24) (remove)
Has Fulltext
- yes (24)
Is part of the Bibliography
- no (24)
Keywords
- Digitalisierung (4)
- Wissenschaftliche Bibliothek (3)
- Deep learning (2)
- E-Learning (2)
- Informationskompetenz (2)
- Maschinelles Lernen (2)
- Neuronales Netz (2)
- Verwaltung (2)
- AI (1)
- Abalone (1)
- Abstract (1)
- Accessibility (1)
- Agile Softwareentwicklung (1)
- Agilität <Management> (1)
- AlphaGo (1)
- App <Programm> (1)
- Arbeitsbelastung (1)
- Autobewerter (1)
- Automation (1)
- Autonomes Fahrzeug (1)
- Außerirdisches Leben (1)
- Baden-Württemberg (1)
- Barrierefreiheit (1)
- Berufliche Qualifikation (1)
- Bestandsaufbau (1)
- Bestärkendes Lernen <Künstliche Intelligenz> (1)
- Bibliothek (1)
- Bibliotheksleiter (1)
- Bibliotheksleiterin (1)
- Bibliotheksorganisation (1)
- Bibliothekswissenschaft (1)
- Brettspiel (1)
- COVID-19 (1)
- Clubkultur (1)
- Company (1)
- Computersimulation (1)
- Critical Incident Technik (1)
- Data Management (1)
- Data Quality (1)
- Datenmanagement (1)
- Datenqualität (1)
- Design Thinking (1)
- Digitalization (1)
- E-Government (1)
- E-Voting (1)
- Elektronische Wahl (1)
- Erlebnisqualität (1)
- Fachkräftemangel (1)
- Fallstudie (1)
- Frageverhalten (1)
- GPGPU (1)
- Gehobener Dienst (1)
- General Purpose Computation on Graphics Processing Unit (1)
- GraFLAP (1)
- Hardwarebeschleunigung (1)
- Hochschuldidaktik (1)
- Informationsdidaktik (1)
- Informationsverhalten (1)
- Interactive Training (1)
- JFLAP-Wrapper (1)
- JUnit (1)
- Kano-Methode (1)
- Kano-Modell (1)
- Kommunalwahl (1)
- Kulturerbe (1)
- Kulturerbedaten (1)
- Künstliche Intelligenz (1)
- Landesbehörde (1)
- Landwirtschaft (1)
- Leibniz-Institut für Bildungsmedien, Georg-Eckert-Institut (1)
- Leitfadeninterview (1)
- Lernerfolgsmessung (1)
- Lernort (1)
- Lernsoftware (1)
- Linked Data (1)
- Literaturbericht (1)
- Literaturrecherche (1)
- Machine Learning (1)
- Maschinelles Sehen (1)
- Mobile Anwendung (1)
- MooPT (1)
- Moodle (1)
- Moritz, Sachsen-Lauenburg, Herzog (1)
- Männerkleidung (1)
- Open-air-Festival (1)
- Optische Zeichenerkennung (1)
- Parametrisierung (1)
- Personalentwicklung (1)
- Präsentation (1)
- Psychische Belastung (1)
- Quereinstieg (1)
- Rassismus (1)
- Raycasting (1)
- Reinforcement Learning (1)
- Richtlinie (1)
- Schema <Informatik> (1)
- Seiteneinsteiger (1)
- Seiteneinsteigerin (1)
- Signalverarbeitung (1)
- Social entrepreneurship (1)
- Softwareentwicklung (1)
- Softwaretest (1)
- Spezialbibliothek (1)
- Student (1)
- Super Resolution (1)
- Training (1)
- Trusted Computing (1)
- Unternehmen (1)
- VOXEL (1)
- Vertrauensdienste (1)
- Video (1)
- Video Abstract (1)
- Vielfalt (1)
- Volumen-Rendering (1)
- Web Based Training (1)
- Weiterbildung (1)
- Wikidata (1)
- Wissenskultur (1)
- Zugang (1)
- combining simulation and machine learning (1)
- machine learning (1)
- parameterization (1)
- question behaviour (1)
- shared autonomous vehicle (1)
- simulation (1)
- Öffentliche Bibliothek (1)
- Öffentlicher Personennahverkehr (1)
Institute
Im Bereich der wissenschaftlichen Recherche gibt das Abstract einen ersten Überblick über den Inhalt und die Ergebnisse eines Forschungsartikels. Das Format des Abstracts wird seit einigen Jahren auch in audiovisueller Form umgesetzt. Der Autor eines Papers kann zusätzlich zu seinem Artikel ein sogenanntes Video Abstract einreichen. Für die Erstellung eines Video Abstracts geben die Verlage bestimmte Richtlinien vor, die der Autor bei der Produktion einhalten soll. Diese Arbeit hat sich zum Ziel gesetzt, einen Standardisierungsansatz für institutionelle Bedingungen, auch Video Abstract Author Guidelines genannt, zu erarbeiten. Zu diesem Zweck wurden mit zwei Untersuchungen sowohl die Produktionsweise von Video Abstracts als auch die vom Verlag aufgestellten Guidelines analysiert. Mit den Ergebnissen der Untersuchungen wurde eine Handlungsempfehlung für die Verlage entwickelt. Außerdem ging aus den Ergebnissen hervor, dass einige Richtlinien Defizite aufweisen, welche die Verlage beheben sollten.
Bis heute ist völlig unbekannt, ob wir allein im Universum sind. Um auf dieses Thema eine Antwort zu finden, überprüft diese Bachelorarbeit, ob Convolutional (CNN) und Recurrent Neural Networks (RNN) für die Erkennung außerirdischer Signale geeignet sind.
Das Ziel war dabei, in einem Datensatz bestehend aus Spektrogrammen mehr als 50% aller außerirdischer Signale zu erkennen, da nur so ein Neuronales Netzwerk ein besseres Resultat als eine zufällige Klassifikation liefert, bei der im Mittel 50% aller Signale erkannt werden.
Dabei zeigte sich, dass sich mit beiden Varianten der Neuronalen Netzwerke bis zu 90% aller Signale erkennen lassen, die Vorhersagen von CNNs allerdings verlässlicher sind. RNNs bieten hingegen aufgrund ihrer geringeren Größe einen deutlich leichtgewichtigeren Ansatz und führen zu einer signifikanten Speicherersparnis.
Daraus folgt, dass Neuronale Netzwerke bei der Suche nach außerirdischem Leben im Universum helfen können, um die Frage „Sind wir allein im Universum?“ endgültig zu beantworten.
Die Arbeit hat das Ziel, Volumendaten effizient zu visualisieren, ohne diese in ein alternatives Repräsentationsformat wie Polygonnetze zu überführen. Dafür werden Voxel sowie ein Raycasting-Ansatz verwendet. Die Elemente des Volumens werden als Voxel (=volumetrische Pixel), das Volumen nachfolgend als ein dreidimensionales Array aus Voxel bezeichnet. Für jeden Pixel wird ein Strahl erzeugt, der das Array iterativ traversiert, wobei in jeder Iteration geprüft wird, ob das gegebene Volumenelement ein Datum hält oder nicht. Maßgeblich hierfür ist der von (Amanatides, Woo et al., 1987) vorgestellte Ansatz, den Strahl in solche Segmente zu zerlegen, die immer jeweils so lang wie der momentan zu untersuchende Voxel groß ist: In einer Iteration wird also immer genau ein Voxel untersucht. Die Arbeit wird diese Idee verfolgen, praktisch aber anders umsetzen und sie um eine zusätzliche Beschleunigungsstruktur ergänzen. Im Idealfall soll dieser Ansatz es erlauben, mindestens 512^3 Voxel in Echtzeit zu rendern. Der beschriebene Ansatz hat zusätzlich den Vorteil, dass Änderungen direkt sichtbar werden, weil für das anschließende Rendering, auf die modifizierten Daten zurückgegriffen wird.
Öffentliche Bibliotheken haben die Aufgabe, Medien und Veranstaltungen für alle zur Ausleihe und Nutzung bereitzustellen. Das Angebot der Informationseinrichtungen soll die gesellschaftliche Vielfalt widerspiegeln und Schwarze, Indigene und People of Color (kurz BIPoC – Black, Indigenous, People of Color) im Bestand repräsentieren. In diesem Zusammenhang gibt es Uneinigkeiten darüber, wie Bücher und audiovisuelle Medien behandelt werden sollen, die rassistische Inhalte haben. Ziel der Arbeit ist es, dies mithilfe leitfadengestützter Expert:inneninterviews herauszufinden und auch zu prüfen, wie BIPoC besser im Bibliotheksbestand repräsentiert werden können. Daraus sollen Empfehlungen für die rassismuskritische Bestandsentwicklung abgeleitet werden. In den Leitfadeninterviews nehmen Expert:innen Stellung zu der Frage, wann umstrittene Medien aus dem Bibliotheksbestand ausgesondert werden sollten und wie sie in Veranstaltungen und durch Texte kontextualisiert werden können. Sie nennen auch Kriterien zur Identifikation rassismuskritischer Medien. Dadurch konnte herausgefunden werden, dass Empfehlungslisten nur nach Überprüfung verwendet und Medien von und über BIPoC nicht durch eine Sonderaufstellung, sondern im regulären Bestand aufgestellt werden sollten. Empfehlungen der Bibliothek sollten selbstgewählt sein und in temporäre Ausstellungen eingebunden werden. Die Expertinnen empfehlen die bibliotheksübergreifende Vernetzung und Kooperation mit Menschen, die eine entsprechende Expertise haben. Damit die Angestellten entsprechende Maßnahmen für den Bibliotheksbestand entwickeln können, müssen sie weitergebildet werden. Bei der Medienauswahl und Maßnahmenentwicklung ist in jedem Fall ein machtkritisches Vorgehen notwendig.
Im ländlichen Raum können Mobilitätsbedarfe schwer über den öffentlichen Personennahverkehr gedeckt werden. Wie diese Bedarfslücke über den Einsatz kombinierter Transportkonzepte von Personen und Gütern reduziert werden kann, wird prototypisch über eine agentenbasierte Simulationsanwendung in der Simulationssoftware AnyLogic untersucht. Reale Mobilitätsdaten werden dabei jedoch nicht berücksichtigt.
Das Ziel der vorliegenden Arbeit ist die Verbesserung der Datengrundlage des Prototypen mit Hilfe von Machine Learning. Unter Verwendung des Forschungsansatzes Design Science Research wurden ML-Modelle entlang des CRISP-DM Frameworks entwickelt. Diese verarbeiten die zur Verfügung stehenden Mobilitätsdaten und können nach deren Integration in den Prototypen zur Parametrierung genutzt werden. Im Zuge der Arbeit werden dazu geeignete Parameter identifiziert, die Mobilitätsdaten beschafft und umfangreich für das Modelltraining in H2O Driverless AI transformiert. Das beste ML-Modell wird in den Prototypen integriert und es werden notwendige Anpassungen vorgenommen, um die Parametrierung zu ermöglichen. Die anschließende Evaluation der Simulationsanwendung zeigt eine datenbasierte und realitätsgetreuere Simulation des simultanen und kombinierten Transports von Personen und Gütern.
An der Hochschule Hannover wird das Lern-Management-System Moodle eingesetzt. Für die dort verfügbare Quizfunktion wurde der neue Fragetyp MooPT (Moodle Programming Task) von der Abteilung Informatik der Fakultät IV entwickelt. Einem solchen Quiz muss immer ein Frageverhalten zugewiesen werden. Die Frageverhalten, welche Moodle standardmäßig anbietet, sind nicht mit dem MooPT-Fragetypen kompatibel. Aus diesem Grund müssen diese angepasst werden. Dies wurde bereits für zwei der acht Standard-Frageverhalten von der Abteilung Informatik durchgeführt.
Diese Arbeit beschäftigt sich mit der Entwicklung der restlichen Verhalten für den MooPT-Fragetypen. Dabei wird die Moodle-Quiz-Komponente und der MooPT-Fragetyp mit seinen Frageverhalten analysiert. Anschließen wird auf Basis dieser Analyse die Entwicklung der restlichen Frageverhalten erläutert.
Der Quellcode der Moodle-Plattform ist in PHP geschrieben und somit auch der des MooPT-Fragetypen und der der Frageverhalten. Auf GitHub stehen die Implementierungen der entwickelten Frageverhalten unter der GPL-Lizenz zur Verfügung:
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemoopt
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemooptnopenalty
https://github.com/LennartRolfes/moodle-qbehaviour_deferredmooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_immediatemooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_interactivemoopt
Möglichkeiten der Nachqualifizierung für Quereinsteiger*innen in wissenschaftlichen Bibliotheken
(2022)
Der Fachkräftemangel und die Verschiebung und Diversifizierung von Tätigkeiten prägen die derzeitige Personalsituation in deutschen wissenschaftlichen Bibliotheken. In dieser Arbeit wird die Gruppe der Quereinsteiger*innen auf der Ebene des gehobenen Dienstes definiert und in den Fokus genommen: Anhand einer Umfrage, Recherche und Mailkontakt werden Möglichkeiten der Nachqualifizierung dieser heterogenen Zielgruppe eruiert. Dies betrifft sowohl die externe Personalentwicklung beziehungsweise Weiterbildung (Studiengänge und Zertifikatsprogramme) als auch die interne Personalentwicklung durch die Arbeitgeber. Durch die Perspektive auf die Personalentwicklungsmaßnahmen der Länder Niederlande, Großbritannien und Österreich werden Optimierungsmöglichkeiten für die Personalentwicklung in Deutschland aufgezeigt.
The purpose of this research is to explore results that are measured by social enterprises (= SEs) according to their mission and vision. Four SEs are examined for this reason. The status quo of aligned measurements was captured by conducting seven semi-structured interviews with persons from the middle and top management of the considered SEs. A conceptual framework, which categorizes output, outcome and impact measurements, is used as the basis for a structured content analysis. The findings imply that SEs’ measurements are not sufficiently aligned with their mission and vision. Outputs are measured by all considered SEs. However, they fail to measure outcomes with all its sublevels. Especially, measuring mindset change and behavior change outcomes are neglected by the examined SEs. That can lead to adjustments, where SEs only create more outputs but fail to create more outcomes and impact. Furthermore, neglecting outcome measurements makes existing but mostly unsystematic impact measurements invalid, since outputs, outcomes and impact build on each other. The research presented here provides one of the first investigations into the alignment of measurements with mission and vision in the context of SEs. Ultimately, the findings question SEs current measurements and aim to open further perspectives on improving the performance of SEs.
AlphaGo’s victory against Lee Sedol in the game of Go has been a milestone in artificial intelligence. After this success, the team behind the program further refined the architecture and applied it to many other games such as chess or shogi. In the following thesis, we try to apply the theory behind AlphaGo and its successor AlphaZero to the game of Abalone. Due to limitations in computational resources, we could not replicate the same exceptional performance.
Im Rahmen der zunehmenden Digitalisierung in Kulturerbeeinrichtungen gewinnt die Kontextualisierung digitaler Sammlungen mittels Linked Open Data (LOD) an Bedeutung. So auch für das Forschungsprojekt Moritz aus Buxtehude, in dem die historische Kleidersammlung des Moritz von Sachsen-Lauenburg interdisziplinär erforscht wird. Für die Kontextualisierung historischer Kleidung gibt es bisher jedoch keine etablierten Metadatenstandards oder Plattformen. Um eine niedrigschwellige Möglichkeit aufzuzeigen, wie Kulturerbeeinrichtungen die Metadaten ihrer Kleidungssammlungen als LOD veröffentlichen können, wird geprüft, inwiefern Wikidata sich hierfür anbietet. Dazu wird zunächst ein Wikidata-Schema für Kleidungsstücke entwickelt, welches anschließend durch die Erfassung von acht exemplarischen Objekten des Forschungsprojekts Moritz aus Buxtehude getestet und optimiert wird. Ergebnisse sind ein Wikidata-Property-Schema zur Erfassung von Kleidungsstücken, konkrete Handlungsempfehlungen für die Erfassung der weiteren Moritz-Objekte und ähnlicher Sammlungen, sowie Beispiele für Visualisierungen der kontextualisierten Objektdaten mit Hilfe von Wikidata. Die Ergebnisse der Arbeit zeigen, dass sich historische Kleidungsstücke mit geringem finanziellen, technischen und personellen Aufwand kontextualisieren lassen. Um das Potenzial voll auszuschöpfen, bedarf es allerdings weiterhin der engen Zusammenarbeit und des Engagements von Fachexpert:innen aus dem Kulturerbesektor und Informationswissenschaftler:innen bzw. der Wikidata-Community.