Refine
Year of publication
Document Type
- Master's Thesis (24) (remove)
Has Fulltext
- yes (24)
Is part of the Bibliography
- no (24)
Keywords
- Machine Learning (3)
- Maschinelles Lernen (3)
- Clean Architecture (2)
- E-Learning (2)
- Eindringerkennung (2)
- Evolutionärer Algorithmus (2)
- Genetische Programmierung (2)
- Lernsoftware (2)
- Prolog (2)
- AI (1)
- APT (1)
- Advanced Persistent Thread (1)
- Agile Softwareentwicklung (1)
- Agile Softwareentwicklungsteams (1)
- Agilität <Management> (1)
- Aktienkursreaktionen (1)
- Android (1)
- Android <Systemplattform> (1)
- Android App Entwicklungsumgebung (1)
- Anforderungsprofil (1)
- Angriffserkennung (1)
- App <Programm> (1)
- Auswirkung (1)
- Automatenlehre (1)
- Automatentheorie (1)
- BAföG (1)
- Besucherstromanalyse (1)
- BilMoG (1)
- Bilanzrecht (1)
- Bluetooth Exposure Logging (1)
- Bluetooth-Standard (1)
- CEP (1)
- Complex Event Processing (1)
- Computer Vision (1)
- Critical Incident Technique (1)
- Cyberattacke (1)
- DAX (1)
- Datenanalyse (1)
- Deep learning (1)
- Diffusion Models (1)
- Digital Leadership (1)
- Digitale Transformation (1)
- Digitalisierung (1)
- ESP32 (1)
- Echtzeitverarbeitung (1)
- Edge computing (1)
- Energieautarkie (1)
- Energiegewinnung (1)
- Entscheidungsbaum (1)
- Ereignisgesteuerte Programmierung (1)
- Ereignisstudie (1)
- Erneuerbare Energien (1)
- Evaluation (1)
- Fallstudie (1)
- Finanzkommunikation (1)
- Finanzlage (1)
- Flanagan (1)
- Formale Sprache (1)
- Führung (1)
- GAN (1)
- Geldknappheit (1)
- Generative Adversarial Network (1)
- Genetic Programming (1)
- Geschäftsbericht (1)
- Graphdatenreduktion (1)
- Greedy-Algorithmus (1)
- Grundschule (1)
- Hochschule (1)
- Hybrid Work (1)
- Hybride Arbeit (1)
- IP 6 (1)
- IPv6 (1)
- IT-Sicherheit (1)
- Industrial espionage (1)
- Industriespionage (1)
- Informatikunterricht (1)
- Internet der Dinge (1)
- Intrusion Detection (1)
- Investor Relations (1)
- IoT (1)
- Irrelevanzminderung (1)
- JFLAP (1)
- Jahresabschlussfunktion (1)
- Java <Programmiersprache> (1)
- John Clemans (1)
- Kennzahlen (1)
- Klassifikation (1)
- Klassifizierung (1)
- Kooperative Lernumgebung (1)
- LON-CAPA (1)
- Logische Programmierung (1)
- Management (1)
- Marktuntersuchung (1)
- Maschinelles Sehen (1)
- Mensch (1)
- Mergers and Acquisitions (1)
- Methode kritischer Ereignisse (1)
- Middleware (1)
- Mikrocontroller ESP32 (1)
- Mikroservice (1)
- NLU (1)
- Nachhaltigkeit (1)
- Natürlichsprachliche Programmierung (1)
- Online-Lehre (1)
- OpenVPN (1)
- Pathologie (1)
- Pathology (1)
- Programmierumgebung (1)
- Programmsynthese (1)
- Prozesse (1)
- Prozesssteuerung (1)
- Qualitative Inhaltsanalyse (1)
- Quantitativ (1)
- Real-time Collaboration (1)
- Risikofaktor (1)
- SLIDE (1)
- Schulbildung (1)
- Speech and Logic IDE (1)
- Spionage (1)
- Steuerung (1)
- Studienfinanzierung (1)
- Studium (1)
- Subroutine (1)
- Suricata (1)
- Telearbeit (1)
- Theoretische Informatik (1)
- Unterprogramm (1)
- Unterricht (1)
- VPN (1)
- Vermögensgegenstand (1)
- Videokonferenz (1)
- Virtuelle Kraftwerke (1)
- Virtuelles privates Netzwerk (1)
- Wertorientierung (1)
- Wirtschaftsspionage (1)
- asyncapi (1)
- cloudevents (1)
- economic espionage (1)
- even-driven architecture (1)
- event-driven microservices (1)
- human (1)
- immaterielle VG (1)
- randomisierte MAC-Adressen (1)
- Übung <Hochschule> (1)
Institute
- Fakultät IV - Wirtschaft und Informatik (24) (remove)
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
Fortgeschrittene Konzepte der logischen Programmierung - für Kinder einfach zugänglich via NLP
(2019)
In dieser Arbeit wurde an der über Google Dialogflow gesteuerten Entwicklungsumgebung für logische Programmierung "Speech and Logic IDE" (SLIDE) geforscht. Die Anwendung wurde von Dialogflow zu der Bibliothek Snips NLU überführt, damit ohne Internetanbindung gearbeitet werden kann.
Als Hauptteil der Arbeit wurden die logischen Konzepte Variablen, Rekursion und Listen in die Anwendung implementiert. Es wurde eine Benennungsvorschrift eingeführt, die die Anwendung von starren Strukturen löst und es durch rekursive Verarbeitung erlaubt, beliebig komplexe Strukturen zu modellieren. Die Anwendung wurde anschließend im Rahmen der Sekundarstufe I betrachtet. Die behandelten Fragen waren:
"Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Fakten und Regeln zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Variablen, Rekursion und Listen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen außerhalb der mathematischen Domäne zu vermitteln?"
Dazu wurden zwei Unterrichtsbeispiele konzipiert, die sich im Deutschunterricht mit Grammatik und Lyrik auseinandersetzen, zwei Themen des niedersächsischen Kerncurriculums aus der Sekundarstufe I. Bei der Unterrichtsgestaltung wurde besonderes Augenmerk auf die neu eingeführten Konzepte gesetzt. Das zweite Unterrichtsbeispiel wurde im Rahmen einer Zusammenarbeit mit dem Projekthaus Zukunft MINT der Hochschule Hannover zweimalig mit unterschiedlichen 10. Klassen (IGS und Gymnasium) durchgeführt. Die theoretischen Ergebnisse der Arbeit zeigen, dass alle Fragen mit "Ja" beantwortet werden können. In der neuen Version von SLIDE ist es möglich die neuen Konzepte zu modellieren und es ist möglich Unterrichtsbeispiele zu konzipieren, die dieses Wissen vermitteln und sich auf Inhalte des Kerncurriculums beziehen. Die Ergebnisse der Feldexperimente in Form von Fragebögen fallen weniger aussagekräftig aus, da sich die SuS bereits am Ende der Sekundarstufe I befanden und die konzipierten Inhalte somit eine Wiederholung darstellten. Weiter muss anerkannt werden, dass viele Faktoren bei der Befragung nicht berücksichtigt werden konnten. Deswegen können aus den praktischen Versuchen keine umfassenden Schlüsse gezogen werden, eine optimistische Betrachtung zeigt ein generelles Interesse der Anwendung seitens der SuS. Die Erfahrungen legen nahe die Unterrichtsinhalte auf mehrere Unterrichtseinheiten aufzuteilen, damit die Teilnehmer mit Vorwissen an die neuen Konzepte herantreten und sich auf sie konzentrieren können.
In the last years generative models have gained large public attention due to their high level of quality in generated images. In short, generative models learn a distribution from a finite number of samples and are able then to generate infinite other samples. This can be applied to image data. In the past generative models have not been able to generate realistic images, but nowadays the results are almost indistinguishable from real images.
This work provides a comparative study of three generative models: Variational Autoencoder (VAE), Generative Adversarial Network (GAN) and Diffusion Models (DM). The goal is not to provide a definitive ranking indicating which one of them is the best, but to qualitatively and where possible quantitively decide which model is good with respect to a given criterion. Such criteria include realism, generalization and diversity, sampling, training difficulty, parameter efficiency, interpolating and inpainting capabilities, semantic editing as well as implementation difficulty. After a brief introduction of how each model works on the inside, they are compared against each other. The provided images help to see the differences among the models with respect to each criterion.
To give a short outlook on the results of the comparison of the three models, DMs generate most realistic images. They seem to generalize best and have a high variation among the generated images. However, they are based on an iterative process, which makes them the slowest of the three models in terms of sample generation time. On the other hand, GANs and VAEs generate their samples using one single forward-pass. The images generated by GANs are comparable to the DM and the images from VAEs are blurry, which makes them less desirable in comparison to GANs or DMs. However, both the VAE and the GAN, stand out from the DMs with respect to the interpolations and semantic editing, as they have a latent space, which makes space-walks possible and the changes are not as chaotic as in the case of DMs. Furthermore, concept-vectors can be found, which transform a given image along a given feature while leaving other features and structures mostly unchanged, which is difficult to archive with DMs.
Die Auswahl geeigneter Bewerber/Innen nimmt aufgrund der demographischen Entwicklung und der damit verbundenen Verknappung der Ressource Personal einen immer höheren Stellenwert ein. Der Einsatz von Anforderungsprofilen soll dabei helfen das Risiko einer fehlerhaften Auswahlentscheidung zu verringern und somit den geeignetsten Bewerber auszuwählen. Ein Trend hin zu den Soft-Skills, wie beispielsweise Teamfähigkeit und Kommunikationsbereitschaft, ist klar zu erkennen. Gegenstand der nachfolgenden Diplomarbeit ist daher die Entwicklung eines Anforderungsprofils, welches sich auf diese Soft-Skills konzentriert. Die Erstel-lung des Anforderungsprofils erfolgt dabei auf Grundlage der von John C. Flanagan entwickelten „Critical Incident Technique“, die im deutschen Sprachgebrauch auch als Methode der kritischen Ereignisse bezeichnet wird. Infolgedessen werden zunächst die theoretischen Grundlagen eines Anforderungsprofils sowie die der „Critical Incident Technique“ detailliert erläutert. Im Anschluss daran erfolgt eine ausführliche Beschreibung der methodischen Vorgehensweise, die den kompletten Ablauf der praktischen Durchführung widerspiegelt. In diesem Zusammenhang werden getroffene Entscheidungen, die zu einer Anpassung der Vorgehensweise führten, näher erläutert und begründet. Die aus den Mitarbeiterbefragungen gewonnenen „Critical Incidents“ werden nachfolgend kategorisiert und zu Anforderungsbereichen zusammengefasst, die abschließend zum Anforderungsprofil verdichtet werden. Ferner wird die Möglichkeit einer praktischen Anwendung der Ergebnisse anhand von drei vom Autor begleiteten Projekten dargestellt.
Das Bedürfnis Daten in Echtzeit zu analysieren und auf Ereignisse zu reagieren, ist innerhalb aller Branchen in den letzten Jahren stark gestiegen. Als die Analysetechnik für Echtzeitdatenströme hat sich das Complex Event Processing (CEP) durchgesetzt. Mithilfe von Regeln lassen sich kausale, temporale und räumliche Zusammenhänge von Ereignissen definieren und durch eine CEP-Engine evaluieren. Die Konstruktion von Regeln hat sich dabei als einschränkende Faktor von CEP herausgestellt. Greedy4Cep ist ein algorithmischer Ansatz zur automatisierten Erstellung von CEP-Regeln anhand eines historischen Datenstromes.
Durch die Globalisierung und den verschärften internationalen Wettbewerb sind innovative Unternehmen in zunehmendem Maße durch Industriespionage bedroht. Eine besondere Rolle kommt hierbei dem Faktor Mensch zu, der das größte Risiko für einen ungewollten Know-how-Abfluss darstellt. Hiervon ausgehend untersucht die vorliegende Arbeit, welche präventiven und repressiven Spionageabwehrmaßnahmen Unternehmen zur Verbesserung der personellen Sicherheit zur Verfügung stehen. Nach einer theoretischen Einführung in das Thema werden die Ergebnisse von acht Experteninterviews vorgestellt und in die bestehende Literatur integriert. Dabei zeigen die Ergebnisse, dass es keine Musterlösung gibt, sondern dass je nach Unternehmen, spezifischer Bedrohungslage und wirtschaftlichen Rahmenbedingungen ein individuelles und ganzheitliches Informationsschutzkonzept zu entwickeln ist.
Zusammen mit der Microservice-Bewegung werden immer häufiger synchrone Request-Response-Schnittstellen nach dem REST-Paradigma entwickelt, um Service-Landschaften zu integrieren. Die Einfachheit des Paradigmas verleitet viele Organisationen, nahezu die komplette Interprozesskommunikation ihres Ökosystems über diese Art von Schnittstelle abzuwickeln – nicht ohne Konsequenzen.
Diese Arbeit entwickelt Ansätze, wie die Integrationsprobleme, die bei übermäßiger Verwendung von REST entstehen, mithilfe von Event-Driven Architecture gelöst werden können, ohne den Status quo dieser Organisationen außer Acht zu lassen. Dafür werden der gegenwärtige Zustand der Integrationsmuster und eingesetzten Infrastruktur von Event-Driven Architecture kritisiert und Kriterien erarbeitet, die pragmatische und zugängliche Integrationsansätze erfüllen müssen. Um die Einführungskosten gering zu halten, wird eine Middleware entwickelt, die in bestehende REST-Schnittstellen eingesetzt werden kann und auf Basis der API-Aufrufe Events generiert. Darauf aufbauend werden vier Integrationsmuster entwickelt, die eine schrittweise Transformation zu Event-Driven Microservices ermöglichen. Um die Zugänglichkeit der Eventing-Infrastruktur zu erhöhen, wird außerdem wird die Standardisierung der Event-Struktur durch die CloudEvents-Spezifikation vorgeschlagen. Um die Zugänglichkeit weiter zu erhöhen, erfolgt die Kommunikation der Services nicht direkt mit dem Event-Broker, sondern über Proxies, die die Events per HTTP annehmen oder ausspielen. Um die Transparenz über den Datenfluss im System zu wahren, werden alle Produzenten und Konsumenten werden mitsamt ihrer Events durch den Beschreibungsstandard AsyncAPI dokumentiert.
Nach einer Validierung dieser Ansätze mithilfe eines Prototyps kommt diese Arbeit zu der Erkenntnis, dass der Einsatz der entwickelten Middleware für alle Organisationen sinnvoll ist, die bereits viele REST-Schnittstellen im Einsatz haben. Die Standardisierung der Event-Struktur und des Event-Protokolls mittels CloudEvents und HTTP-Proxies sowie die Dokumentation durch AsyncAPI empfiehlt sich auch unabhängig des Status quo für alle Organisationen, die Event-Driven Microservices entwickeln möchten.
Pathologists need to identify abnormal changes in tissue. With the developing digitalization, the used tissue slides are stored digitally. This enables pathologists to annotate the region of interest with the support of software tools. PathoLearn is a web-based learning platform explicitly developed for the teacher-student scenario, where the goal is that students learn to identify potential abnormal changes. Artificial intelligence (AI) and machine learning (ML) have become very important in medicine. Many health sectors already utilize AI and ML. This will only increase in the future, also in the field of pathology. Therefore, it is important to teach students the fundamentals and concepts of AI and ML early in their studies. Additionally, creating and training AI generally requires knowledge of programming and technical details. This thesis evaluates how this boundary can be overcome by comparing existing end-to-end AI platforms and teaching tools for AI. It was shown that a visual programming editor offers a fitting abstraction for creating neural networks without programming. This was extended with real-time collaboration to enable students to work in groups. Additionally, an automatic training feature was implemented, removing the necessity to know technical details about training neural networks.