Refine
Year of publication
- 2022 (24) (remove)
Document Type
- Bachelor Thesis (24) (remove)
Has Fulltext
- yes (24)
Is part of the Bibliography
- no (24)
Keywords
- Digitalisierung (4)
- Wissenschaftliche Bibliothek (3)
- Deep learning (2)
- E-Learning (2)
- Informationskompetenz (2)
- Maschinelles Lernen (2)
- Neuronales Netz (2)
- Verwaltung (2)
- AI (1)
- Abalone (1)
Institute
Das Konzept der Agilität stiftet insbesondere im Kontext der Softwareentwicklung einen Nutzen. Es stellt sich die Frage, wie auch die öffentliche Verwaltung agiler werden und schlussendlich davon profitieren kann. Bislang liefern nur wenige Schriften eine dedizierte Auseinandersetzung mit dem Thema der agilen Verwaltung. In dieser Arbeit wird untersucht, ob agile Softwareentwicklung Ausgangspunkt einer potenziell agilen Verwaltung in Deutschland sein kann. Im Rahmen einer theorievergleichenden Gegenüberstellung wird ein Zielbild einer agilen Verwaltung ausgehend von den Merkmalen agiler Softwareentwicklung hergeleitet. Anschließend werden mögliche Spannungslinien zwischen dem entwickelten Zielbild und dem von Max Weber beschriebenen Idealtypus einer bürokratischen Verwaltung aufgedeckt. Im Ergebnis kennzeichnet eine agile Verwaltung ein Konglomerat unterschiedlicher Merkmale, die den Dimensionen Strategie, Struktur, Prozesse, Führung, Personal und Kultur zugeordnet werden können. Die öffentliche Verwaltung wird das Konzept der Agilität nicht vollständig, im Sinne der Ausprägung aller herausgearbeiteten Merkmale, organisational etablieren können. Die wesentlichen Spannungslinien ergeben sich aus den Bürokratiemerkmalen Amtshierarchie und Regelgebundenheit. Der Idealtypus einer agilen Verwaltung kann nur insofern eine Alternative zum Idealtypus der bürokratischen Verwaltung sein, als dass diejenigen Merkmale der Bürokratie, die sich mit den wesentlichen Strukturprinzipien des deutschen Staates decken, unberührt bleiben.
Ziel der nachfolgenden Arbeit ist die Erhebung des aktuellen Stands der Digitalisierung in der Landwirtschaft. Es gilt herauszufinden, wie weit landwirtschaftliche Betriebe in Deutschland heute bereits digitalisiert sind. Parallel dazu soll erörtert werden, welche Gründe eine weitergehende Digitalisierung gegenwärtig verhindern. Dabei ist zu berücksichtigen, welche Bedeutung Digitalisierung in der Landwirtschaft hat. Zur Beantwortung der Forschungsfrage werden sowohl qualitative (Systematische Literaturanalyse) als auch quantitative Forschungsmethoden (Online-Umfrage mit anschließender statistischer Auswertung) angewendet. Wesentliche Erkenntnisse dieser Arbeit sind, dass die Messung von Digitalisierungsgraden landwirtschaftlicher Betriebe mittels eines Reifegradmodells signifikante Unterschiede in der deutschen Landwirtschaft widerspiegeln und dass der Kostenfaktor einen erheblichen Druck auf den digitalen Wandel im Agrarsektor ausübt. Generationenwechsel, sowie herstellerübergreifende Lösungen stellen neben der Forderung von mehr Unterstützung seitens der Politik und öffentlicher Institutionen Diskussionspunkte dieser Abschlussarbeit dar.
Barrierefreiheit spielt eine wichtige Rolle für die Inklusion und Teilhabe von Menschen mit Behinderungen an der Gesellschaft. Mit dem Beschluss des Barrierefreiheitsstärkungsgesetzes soll ihnen ein gleichberechtigter Zugang zu bestimmten digitalen Diensten ermöglicht werden. Diese Arbeit befasst sich speziell mit den Anforderungen an die Barrierefreiheit in mobilen Anwendungen. Auf Grundlage der Web Content Accessibility Guidelines wird in dieser theoretischen Arbeit erläutert, wie eine App konzipiert und gestaltet werden muss, um barrierefrei zu sein. Das Ziel ist darzulegen, wie die verschiedenen Barrieren, die die Zugänglichkeit und Nutzbarkeit von mobilen Anwendungen für Menschen mit unterschiedlichen Arten von Behinderungen einschränken, vermieden oder beseitigt werden können. Dafür wird anhand konkreter Beispiele aufgezeigt, welche Barrieren im Zusammenhang mit verschiedenen Behinderungen die größten Schwierigkeiten bei der Bedienung auslösen. Aus der Betrachtung der international anerkannten Zugänglichkeitsrichtlinien geht hervor, dass zur Behebung dieser Probleme die Wahrnehmbarkeit, Bedienbarkeit, Verständlichkeit und Robustheit gewährleistet sein müssen, welche auch in Apps die Grundlage für Barrierefreiheit darstellen. Auf Basis dieser vier Prinzipien werden die Besonderheiten von Barrierefreiheit in mobilen Anwendungen und ihre typischen Probleme beschrieben, woraufhin Maßnahmen und Lösungen für mehr Accessibility in Apps herausgearbeitet werden. Zudem wird erläutert, ob und wie Kontrollen durchgeführt werden können, damit in Zukunft die Barrierefreiheit garantiert werden kann.
Mit der zunehmenden Digitalisierung hat die Informations- und Bibliothekslandschaft einen massiven Wandel erlebt. Insbesondere die Ausbreitung des Internets hat dafür gesorgt, dass man sich bei der Informationsrecherche nicht mehr nur auf die analogen Bibliotheksbestände beschränken muss. Ziel dieser Arbeit ist es, das wissenschaftliche Informationsverhalten von Studierenden im digitalen Zeitalter zu untersuchen. Unter Anwendung eines Systematic Literature Reviews werden dabei internationale Forschungsstudien der jüngsten elf Jahren analysiert und anschließend eine Handlungsempfehlung für Bibliotheken gegeben, wie sie die Informationskompetenz der Studierenden zeitgemäß fördern können. Unter anderem ging aus den Ergebnissen hervor, dass besonders Studienanfänger*innen Defizite im Bereich der wissenschaftlichen Recherche und Quellenevaluation haben.
Äußere Einflüsse wie beispielsweise die Digitalisierung oder der demografische Wandel durchziehen alle Bereiche des gesellschaftlichen Zusammenlebens. Der Konfrontation mit diesen Herausforderungen kann sich auch die öffentliche Verwaltung durch die Verzahnung mit Politik und Gesellschaft nicht entziehen. Eine Methode, um komplexen Herausforderungen zu begegnen, ist Design Thinking. Es stellt sich die Frage, welche Potenziale der Einsatz der Methodik im Kontext der öffentlichen Verwaltung bietet. Ziel dieser Arbeit ist es, die Design-Thinking-Methode in der öffentlichen Verwaltung zu untersuchen. Dazu wird im Rahmen einer Fallstudienanalyse ein Design-Thinking-Workshop durchgeführt. Durch Auswertung des Workshops sowie mithilfe einer SWOT-Analyse werden die Potenziale abgeleitet. Im Ergebnis können komplexe Herausforderungen mit Design Thinking bewältigt werden. Es zeigt sich eine grundsätzliche Offenheit gegenüber der neuen Methodik. Design Thinking wird als eine ganzheitliche Herangehensweise beschrieben. Der Einstieg in die Methodik ist dabei niederschwellig. Dabei gehen die Potenziale über die Abgeleiteten hinaus. Der Austausch von Wissen innerhalb des interdisziplinären Teams hat beispielsweise weitreichendere Effekte. Um die Potenziale bestmöglich nutzen zu können, bedarf es Übung und Erfahrung. Darüber hinaus sollte eine Betrachtung der Potenziale im Rahmen der vollen Potenzialentfaltung mit dem Feststellen von Schwächen und Risiken einhergehen. Die Anwendung von Design Thinking ist stets kontextabhängig.
Der digitale Wandel beschäftigt Hochschulen schon länger, doch verhalf die Corona-Pandemie zu einem Aufschwung in der Digitalisierung. Dies bringt Veränderungen in der Hochschullehre mit sich. Auch Hochschulbibliotheken sind für die digitale Bildung von Bedeutung. Es gilt herauszufinden, welche Anforderungen an die Lernraumgestaltung aufgrund der derzeitigen Hochschullehre entstehen. Ziel ist es, nachzuvollziehen, wie der Lernort Wissenschaftliche Bibliothek bei der Nutzung von neuen Technologien und dem Erwerb der dafür benötigten Kompetenzen helfen, und um welche Angebote und Dienstleistungen er ergänzt werden kann. Diese literaturbasierte Theoriearbeit beantwortet die Frage, wie Lernräume in Wissenschaftlichen Bibliotheken digital und hybrid gestaltet werden können, um die heutige Lehre an Hochschulen kompetenzorientiert zu unterstützen. Zentral ist die praxisorientierte Betrachtung von lehr- und lernunterstützenden Diensten wie Makerspaces, Learning Labs sowie Beratung und Schulung. Ein weiterer Schwerpunkt liegt auf dem Einsatz von digitalen und hybriden Elementen im physischen Lernraum wie interaktiven Whiteboards, Multitouch-Tables sowie Augmented und Virtual Reality. Die soziale Interaktion, Kooperationen, Supportstrukturen und die Kompetenzvermittlung bilden eine wichtige Basis. Zur Veranschaulichung von unterstützenden Angeboten für Lernen und Lehren werden Good-Practice-Beispiele herangezogen. Die erarbeitete Vielfalt an Handlungsmöglichkeiten zeigt, wie klassische Lernraumsettings durch organisatorische, didaktische und technische Ausstattungen erweitert, weiterentwickelt und verbessert werden können.
This research focuses on the fundamental ideas and underlying principles of E-Learning technology, as well as theoretical considerations for an optimal learning environment. This theoretical exploration was then used as a basis for the design and construction of a new, interactive Web-Based ESH-Training. The quality and effectiveness of this new course was then compared with that of the existing analog PDF-Training via a test with a diverse sample of employee learners. Learners were later surveyed to ascertain their views on both trainings in terms of the quality of the content, facilitator, resources, and length. Results clearly showed that regardless of demographic factors, most employee learners preferred the new, Web-Based ESH-Training to the analog PDF-Training.
Die Einführung einer elektronischen Stimmabgabe bei Kommunalwahlen (E-Voting) ist durch rechtliche und technische Herausforderungen derzeit nicht praktikabel umsetzbar. Untersuchungen zeigen, dass die Einführung zahlreiche Vorteile für die Wahlberechtigten und die Wahlbehörden haben könnte. Die zeitweise Einführung von E-Voting mit Wahlmaschinen wurde jedoch auch rechtlichen Gründen für unzulässig erklärt. So gab es in den letzten Jahren keine neuen Umsetzungsversuche.
Im Rahmen dieser Arbeit wird ein Konzept für eine elektronische Stimmabgabe bei Kommunalwahlen entwickelt. Um das Konzept in das derzeitige Wahlsystem zu integrieren, wird die Briefwahl als Basis gewählt. Unter Zuhilfenahme von Gesetzestexten wird der Ablauf beschrieben und als Prozessdiagramm dargestellt. Anschließend werden Anforderungen an ein E-Voting-System aus der Literatur aufgenommen und durch die Bildung von Kernaussagen konsolidiert. In jedem ermittelten Briefwahl-Prozessschritt wird die Untersuchung elektronischer Möglichkeiten durch die Prüfung der Kernaussagen bewertet. Anschließend wird die geeignetste elektronische Möglichkeit in das Konzept übernommen.
Die ermittelten Möglichkeiten zeigen, dass durch den Einsatz von Vertrauensdiensten und Vertrauensdiensteanbietern die Anforderungen erfüllt werden können. Daraus ergibt sich ein Konzept, welches mithilfe aktueller technischer und rechtlicher Entwicklungen eine elektronische Stimmabgabe ermöglichen kann. Unter der ganzheitlichen Betrachtung des Wahlsystems sind jedoch noch viele Herausforderungen zu beachten, die in dieser Arbeit nicht näher erläutert wurden. Die Entwicklungen der letzten Jahre begünstigen die Konzeptionierung einer elektronischen Stimmabgabe. Diesem steht jedoch weiterhin Herausforderungen durch fehlende rechtliche Bewertung, mangelndes Vertrauen, Gesetze, Verordnungen und Medienbrüche entgegen, die vor dem Einsatz bewältigt werden müssen.
Die vorliegende Arbeit befasst sich mit der Erlebnisqualität auf Open-Air-Tanzveranstaltungen unter Pandemiebedingungen. Um zu erforschen, welche Faktoren die Erwartungen der Teilnehmer:Innen von Events unter Pandemiebedingungen übertreffen und somit Begeisterung hervorrufen, wurden Befragungen mit Besucher:Innen des Modellprojekts "Back to dance" durchgeführt.
Die Critical Incident Technik stellt den qualitativen Teil der Untersuchung dar, welche mit einer quantitativen Forschung unter Anwendung der Kano-Befragung kombiniert wird. Die Ergebnisse einer Forschungsgruppe der Leibniz-Universität Hannover, die ebenfalls Besucher:Innen derselben Veranstaltung befragte, ergänzen die Analyse.
Im Rahmen der vorliegenden Arbeit wurde zunächst eine tiefgründige Literaturrecherche zu den Kernthemen Clubkultur, Dienstleistungs- und Erlebnisqualität sowie den angewendeten Methoden betrieben.
Insgesamt wird aus den Untersuchungen deutlich, dass - nach langer Zeit der Abstinenz - schon allein die Möglichkeit, an einer Veranstaltung teilzunehmen, zu großer Zufriedenheit führt. Daher zeigen die Besucher:Innen bezüglich einschränkender Regelungen wie dem Tragen einer Mund-Nasen-Bedeckung, veränderter Veranstaltungszeit oder fehlendem Alkoholausschank eine hohe Kompromissbereitschaft.
Seit 2013 ist die Erhebung der psychischen Belastung an deutschen Arbeitsplätzen verpflichtend, verankert ist dies im §4 ArbSchG. Studien wie die der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin belegen, dass dies nicht flächendeckend geschieht. Diese Arbeit beschäftigt sich zum einen mit der Frage, warum die psychische Belastung von Mitarbeitenden in kleinen wissenschaftlichen Bibliotheken in Baden-Württemberg nicht erhoben wird. Zum anderen mit der Frage nach dem Bewusstsein der Bibliotheksleitenden für das Thema psychische Belastung. Ziel ist dabei die Nennung von Gründen fehlender Erhebungen und eine Beschreibung des Bewusstseins der Leitungspersonen. Mithilfe von Leitfadeninterviews werden Daten erhoben und mit der inhaltlich strukturierenden Inhaltsanalyse nach Kuckartz ausgewertet. Im Theorieteil werden das Arbeitsschutzgesetz, die DIN EN ISO 10075-1:2017 und eine Leitlinie der Gemeinsamen deutschen Arbeitsschutzstrategie (GDA) vorgestellt. Thematisiert wird außerdem die Veränderung der Arbeitswelt von Bibliotheksmitarbeitenden und Studien zur Arbeitszufriedenheit dieser Personen. Ergebnisse dieser Arbeit sind Hindernisse, wie zum Beispiel unklare Zuständigkeiten und Mangel an Wissen. Das Bewusstsein wird in Bezug auf das Vorwissen über psychische Belastung und die Reflexion der eigenen Rolle und eigener Erhebungsmethoden ausgewertet. Ein übergreifendes Problem scheint die umgangssprachliche und damit negative Auffassung des Begriffs psychische Belastung zu sein.
Ziel dieser Bachelorarbeit ist es Empfehlungen für eine Neukonzeption zur Förderung von Informationskompetenzen an Spezialbibliotheken mit der Hauptzielgruppe Wissenschaftler*innen am Beispiel der Forschungsbibliothek des Leibniz-Institut für Bildungsmedien | Georg-Eckert-Instituts (GEI) unter Berücksichtigung der Wissenskulturen zu formulieren.
Es wird festgestellt, dass die lebenslange Weiterbildung der Informationskompetenz bei Wissenschaftler*innen unabdingbar ist und im Einklang mit der Steigerung der Forschungsproduktivität steht. Trotz dieser Erkenntnisse gibt es in der Fachliteratur bisher kaum nennenswerte Konzepte zur Förderung der Informationskompetenz der Forschenden in Spezialbibliotheken. Mit Hilfe der wissenskulturellen Analyse, basierend auf den Ansätzen der KIBA-Gruppe zu Informationsdidaktik und der Wissenskulturen von Karin Knorr-Cetina, wird ein Interview-Leitfaden entwickelt, mit Hilfe dessen bei 10 Mitarbeitenden des GEI eine Analyse der Wissenskultur und der Bedürfnisse durchgeführt wird. Die Ergebnisse zeigen, dass für die Förderung von Informationskompetenz ein ganzheitliches Konzept benötigt wird, welches sich nicht nur ausschließlich auf reine Schulungen beschränkt. Es sind verschiedene Formate notwendig, um die individuellen Bedürfnisse der Forschenden abzudecken. Besonders virtuelle Angebote sollen integriert werden. Die Ergebnisse lassen sich allerdings nicht auf andere Spezialbibliotheken deckungsgleich übertragen. Die wissenskulturelle Analyse kann jedoch als Grundlage angewendet werden, um auch in anderen Spezialbibliotheken ein neues Konzept zur Förderung der Informationskompetenz bei Wissenschaftler*innen zu entwickeln.
Bisher wurde die automatisierte Bewertung von Übungsaufgaben in LON-CAPA angeboten und mit mehreren Werkzeugen umgesetzt, darunter der JFLAP-Wrapper, der die Grundlage dieser Arbeit bildet. Daraus soll ein vollständiges eigenstehendes Programm erarbeitet werden, dass auch an andere Lernmanagementsysteme angebunden werden kann. Dabei erhält es den neuen Namen GraFLAP. Dazu wurden die Bewertungsprozesse im JFLAP-Wrapper zusammen gelegt und eine neue Schnittstelle nach ProFormA-2.1-Standard ergänzt. Außerdem sollte die Wartbarkeit verbessert werden, sodass zukünftige weiterführende Arbeiten erleichtert werden. Dazu wurden neue Datenstrukturen und Prozesse integriert, unter anderem ein einheitlicher Build-Prozess mit Maven und automatisierte Tests mit JUnit. GraFLAP bietet nun eine standardisierte Schnittstelle, übernimmt alle Bewertungsprozesse und ist so nun vollständig unabhängig von Lernmanagementsystemen.
Daten sind für jedes Unternehmen die treibende Kraft und die konsistenteste Quelle für qualifizierte Entscheidungsprozesse. Für die optimale Nutzung der vorliegenden Daten über alle Geschäftsbereiche hinweg wird das Datenmanagement benötigt, jedoch bringt dessen Einführung große Herausforderungen mit sich. Wird es nicht eingeführt bzw. umgesetzt hat dies Folgen für das Unternehmen wie z. B. Wettbewerbsnachteile und hohe Kosten. Ziel dieser Bachelorarbeit ist es von Datenmanagement, den Nutzen aufzuzeigen, die Herausforderungen zu identifizieren und Lösungsansätze zu untersuchen bzw. eigene zu entwickeln. Das Ergebnis ist eine Untersuchung und ein Vergleich des Nutzens, der Herausforderungen sowie der Lösungsansätze im Datenmanagement, zwischen Literatur und einem Anwendungsfall.
Recent developments in the field of deep learning have shown promising advances for a wide range of historically difficult computer vision problems. Using advanced deep learning techniques, researchers manage to perform high-quality single-image super-resolution, i.e., increasing the resolution of a given image without major losses in image quality, usually encountered when using traditional approaches such as standard interpolation. This thesis examines the process of deep learning super-resolution using convolutional neural networks and investigates whether the same deep learning models can be used to increase OCR results for low-quality text images.
Im Rahmen der zunehmenden Digitalisierung in Kulturerbeeinrichtungen gewinnt die Kontextualisierung digitaler Sammlungen mittels Linked Open Data (LOD) an Bedeutung. So auch für das Forschungsprojekt Moritz aus Buxtehude, in dem die historische Kleidersammlung des Moritz von Sachsen-Lauenburg interdisziplinär erforscht wird. Für die Kontextualisierung historischer Kleidung gibt es bisher jedoch keine etablierten Metadatenstandards oder Plattformen. Um eine niedrigschwellige Möglichkeit aufzuzeigen, wie Kulturerbeeinrichtungen die Metadaten ihrer Kleidungssammlungen als LOD veröffentlichen können, wird geprüft, inwiefern Wikidata sich hierfür anbietet. Dazu wird zunächst ein Wikidata-Schema für Kleidungsstücke entwickelt, welches anschließend durch die Erfassung von acht exemplarischen Objekten des Forschungsprojekts Moritz aus Buxtehude getestet und optimiert wird. Ergebnisse sind ein Wikidata-Property-Schema zur Erfassung von Kleidungsstücken, konkrete Handlungsempfehlungen für die Erfassung der weiteren Moritz-Objekte und ähnlicher Sammlungen, sowie Beispiele für Visualisierungen der kontextualisierten Objektdaten mit Hilfe von Wikidata. Die Ergebnisse der Arbeit zeigen, dass sich historische Kleidungsstücke mit geringem finanziellen, technischen und personellen Aufwand kontextualisieren lassen. Um das Potenzial voll auszuschöpfen, bedarf es allerdings weiterhin der engen Zusammenarbeit und des Engagements von Fachexpert:innen aus dem Kulturerbesektor und Informationswissenschaftler:innen bzw. der Wikidata-Community.
AlphaGo’s victory against Lee Sedol in the game of Go has been a milestone in artificial intelligence. After this success, the team behind the program further refined the architecture and applied it to many other games such as chess or shogi. In the following thesis, we try to apply the theory behind AlphaGo and its successor AlphaZero to the game of Abalone. Due to limitations in computational resources, we could not replicate the same exceptional performance.
The purpose of this research is to explore results that are measured by social enterprises (= SEs) according to their mission and vision. Four SEs are examined for this reason. The status quo of aligned measurements was captured by conducting seven semi-structured interviews with persons from the middle and top management of the considered SEs. A conceptual framework, which categorizes output, outcome and impact measurements, is used as the basis for a structured content analysis. The findings imply that SEs’ measurements are not sufficiently aligned with their mission and vision. Outputs are measured by all considered SEs. However, they fail to measure outcomes with all its sublevels. Especially, measuring mindset change and behavior change outcomes are neglected by the examined SEs. That can lead to adjustments, where SEs only create more outputs but fail to create more outcomes and impact. Furthermore, neglecting outcome measurements makes existing but mostly unsystematic impact measurements invalid, since outputs, outcomes and impact build on each other. The research presented here provides one of the first investigations into the alignment of measurements with mission and vision in the context of SEs. Ultimately, the findings question SEs current measurements and aim to open further perspectives on improving the performance of SEs.
Möglichkeiten der Nachqualifizierung für Quereinsteiger*innen in wissenschaftlichen Bibliotheken
(2022)
Der Fachkräftemangel und die Verschiebung und Diversifizierung von Tätigkeiten prägen die derzeitige Personalsituation in deutschen wissenschaftlichen Bibliotheken. In dieser Arbeit wird die Gruppe der Quereinsteiger*innen auf der Ebene des gehobenen Dienstes definiert und in den Fokus genommen: Anhand einer Umfrage, Recherche und Mailkontakt werden Möglichkeiten der Nachqualifizierung dieser heterogenen Zielgruppe eruiert. Dies betrifft sowohl die externe Personalentwicklung beziehungsweise Weiterbildung (Studiengänge und Zertifikatsprogramme) als auch die interne Personalentwicklung durch die Arbeitgeber. Durch die Perspektive auf die Personalentwicklungsmaßnahmen der Länder Niederlande, Großbritannien und Österreich werden Optimierungsmöglichkeiten für die Personalentwicklung in Deutschland aufgezeigt.
An der Hochschule Hannover wird das Lern-Management-System Moodle eingesetzt. Für die dort verfügbare Quizfunktion wurde der neue Fragetyp MooPT (Moodle Programming Task) von der Abteilung Informatik der Fakultät IV entwickelt. Einem solchen Quiz muss immer ein Frageverhalten zugewiesen werden. Die Frageverhalten, welche Moodle standardmäßig anbietet, sind nicht mit dem MooPT-Fragetypen kompatibel. Aus diesem Grund müssen diese angepasst werden. Dies wurde bereits für zwei der acht Standard-Frageverhalten von der Abteilung Informatik durchgeführt.
Diese Arbeit beschäftigt sich mit der Entwicklung der restlichen Verhalten für den MooPT-Fragetypen. Dabei wird die Moodle-Quiz-Komponente und der MooPT-Fragetyp mit seinen Frageverhalten analysiert. Anschließen wird auf Basis dieser Analyse die Entwicklung der restlichen Frageverhalten erläutert.
Der Quellcode der Moodle-Plattform ist in PHP geschrieben und somit auch der des MooPT-Fragetypen und der der Frageverhalten. Auf GitHub stehen die Implementierungen der entwickelten Frageverhalten unter der GPL-Lizenz zur Verfügung:
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemoopt
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemooptnopenalty
https://github.com/LennartRolfes/moodle-qbehaviour_deferredmooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_immediatemooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_interactivemoopt
Im ländlichen Raum können Mobilitätsbedarfe schwer über den öffentlichen Personennahverkehr gedeckt werden. Wie diese Bedarfslücke über den Einsatz kombinierter Transportkonzepte von Personen und Gütern reduziert werden kann, wird prototypisch über eine agentenbasierte Simulationsanwendung in der Simulationssoftware AnyLogic untersucht. Reale Mobilitätsdaten werden dabei jedoch nicht berücksichtigt.
Das Ziel der vorliegenden Arbeit ist die Verbesserung der Datengrundlage des Prototypen mit Hilfe von Machine Learning. Unter Verwendung des Forschungsansatzes Design Science Research wurden ML-Modelle entlang des CRISP-DM Frameworks entwickelt. Diese verarbeiten die zur Verfügung stehenden Mobilitätsdaten und können nach deren Integration in den Prototypen zur Parametrierung genutzt werden. Im Zuge der Arbeit werden dazu geeignete Parameter identifiziert, die Mobilitätsdaten beschafft und umfangreich für das Modelltraining in H2O Driverless AI transformiert. Das beste ML-Modell wird in den Prototypen integriert und es werden notwendige Anpassungen vorgenommen, um die Parametrierung zu ermöglichen. Die anschließende Evaluation der Simulationsanwendung zeigt eine datenbasierte und realitätsgetreuere Simulation des simultanen und kombinierten Transports von Personen und Gütern.
Öffentliche Bibliotheken haben die Aufgabe, Medien und Veranstaltungen für alle zur Ausleihe und Nutzung bereitzustellen. Das Angebot der Informationseinrichtungen soll die gesellschaftliche Vielfalt widerspiegeln und Schwarze, Indigene und People of Color (kurz BIPoC – Black, Indigenous, People of Color) im Bestand repräsentieren. In diesem Zusammenhang gibt es Uneinigkeiten darüber, wie Bücher und audiovisuelle Medien behandelt werden sollen, die rassistische Inhalte haben. Ziel der Arbeit ist es, dies mithilfe leitfadengestützter Expert:inneninterviews herauszufinden und auch zu prüfen, wie BIPoC besser im Bibliotheksbestand repräsentiert werden können. Daraus sollen Empfehlungen für die rassismuskritische Bestandsentwicklung abgeleitet werden. In den Leitfadeninterviews nehmen Expert:innen Stellung zu der Frage, wann umstrittene Medien aus dem Bibliotheksbestand ausgesondert werden sollten und wie sie in Veranstaltungen und durch Texte kontextualisiert werden können. Sie nennen auch Kriterien zur Identifikation rassismuskritischer Medien. Dadurch konnte herausgefunden werden, dass Empfehlungslisten nur nach Überprüfung verwendet und Medien von und über BIPoC nicht durch eine Sonderaufstellung, sondern im regulären Bestand aufgestellt werden sollten. Empfehlungen der Bibliothek sollten selbstgewählt sein und in temporäre Ausstellungen eingebunden werden. Die Expertinnen empfehlen die bibliotheksübergreifende Vernetzung und Kooperation mit Menschen, die eine entsprechende Expertise haben. Damit die Angestellten entsprechende Maßnahmen für den Bibliotheksbestand entwickeln können, müssen sie weitergebildet werden. Bei der Medienauswahl und Maßnahmenentwicklung ist in jedem Fall ein machtkritisches Vorgehen notwendig.
Die Arbeit hat das Ziel, Volumendaten effizient zu visualisieren, ohne diese in ein alternatives Repräsentationsformat wie Polygonnetze zu überführen. Dafür werden Voxel sowie ein Raycasting-Ansatz verwendet. Die Elemente des Volumens werden als Voxel (=volumetrische Pixel), das Volumen nachfolgend als ein dreidimensionales Array aus Voxel bezeichnet. Für jeden Pixel wird ein Strahl erzeugt, der das Array iterativ traversiert, wobei in jeder Iteration geprüft wird, ob das gegebene Volumenelement ein Datum hält oder nicht. Maßgeblich hierfür ist der von (Amanatides, Woo et al., 1987) vorgestellte Ansatz, den Strahl in solche Segmente zu zerlegen, die immer jeweils so lang wie der momentan zu untersuchende Voxel groß ist: In einer Iteration wird also immer genau ein Voxel untersucht. Die Arbeit wird diese Idee verfolgen, praktisch aber anders umsetzen und sie um eine zusätzliche Beschleunigungsstruktur ergänzen. Im Idealfall soll dieser Ansatz es erlauben, mindestens 512^3 Voxel in Echtzeit zu rendern. Der beschriebene Ansatz hat zusätzlich den Vorteil, dass Änderungen direkt sichtbar werden, weil für das anschließende Rendering, auf die modifizierten Daten zurückgegriffen wird.
Bis heute ist völlig unbekannt, ob wir allein im Universum sind. Um auf dieses Thema eine Antwort zu finden, überprüft diese Bachelorarbeit, ob Convolutional (CNN) und Recurrent Neural Networks (RNN) für die Erkennung außerirdischer Signale geeignet sind.
Das Ziel war dabei, in einem Datensatz bestehend aus Spektrogrammen mehr als 50% aller außerirdischer Signale zu erkennen, da nur so ein Neuronales Netzwerk ein besseres Resultat als eine zufällige Klassifikation liefert, bei der im Mittel 50% aller Signale erkannt werden.
Dabei zeigte sich, dass sich mit beiden Varianten der Neuronalen Netzwerke bis zu 90% aller Signale erkennen lassen, die Vorhersagen von CNNs allerdings verlässlicher sind. RNNs bieten hingegen aufgrund ihrer geringeren Größe einen deutlich leichtgewichtigeren Ansatz und führen zu einer signifikanten Speicherersparnis.
Daraus folgt, dass Neuronale Netzwerke bei der Suche nach außerirdischem Leben im Universum helfen können, um die Frage „Sind wir allein im Universum?“ endgültig zu beantworten.
Im Bereich der wissenschaftlichen Recherche gibt das Abstract einen ersten Überblick über den Inhalt und die Ergebnisse eines Forschungsartikels. Das Format des Abstracts wird seit einigen Jahren auch in audiovisueller Form umgesetzt. Der Autor eines Papers kann zusätzlich zu seinem Artikel ein sogenanntes Video Abstract einreichen. Für die Erstellung eines Video Abstracts geben die Verlage bestimmte Richtlinien vor, die der Autor bei der Produktion einhalten soll. Diese Arbeit hat sich zum Ziel gesetzt, einen Standardisierungsansatz für institutionelle Bedingungen, auch Video Abstract Author Guidelines genannt, zu erarbeiten. Zu diesem Zweck wurden mit zwei Untersuchungen sowohl die Produktionsweise von Video Abstracts als auch die vom Verlag aufgestellten Guidelines analysiert. Mit den Ergebnissen der Untersuchungen wurde eine Handlungsempfehlung für die Verlage entwickelt. Außerdem ging aus den Ergebnissen hervor, dass einige Richtlinien Defizite aufweisen, welche die Verlage beheben sollten.