Refine
Year of publication
Document Type
- Master's Thesis (24) (remove)
Has Fulltext
- yes (24)
Is part of the Bibliography
- no (24)
Keywords
- Machine Learning (3)
- Maschinelles Lernen (3)
- Clean Architecture (2)
- E-Learning (2)
- Eindringerkennung (2)
- Evolutionärer Algorithmus (2)
- Genetische Programmierung (2)
- Lernsoftware (2)
- Prolog (2)
- AI (1)
Institute
- Fakultät IV - Wirtschaft und Informatik (24) (remove)
Hybride Arbeit: Wo und wie wollen Mitglieder agiler Softwareentwicklungsteams zukünftig arbeiten?
(2022)
Vor dem Ausbruch der COVID-19 Pandemie haben Mitglieder agiler Softwareentwicklungsteams üblicherweise gemeinsam im Büro gearbeitet. Durch die rasche Verbreitung des Coronavirus wurden diese Teams weltweit ins Home Office geschickt, um die Ausbreitung des Virus einzudämmen. Verschiedene Studien weisen darauf hin, dass viele Mitglieder agiler Softwareentwicklungsteams nach dem Ende der Pandemie nicht wieder in Vollzeit in das Büro zurückkehren wollen, sondern einen hybriden Ansatz zwischen dem Büro und dem Home Office präferieren. Das Ziel dieser Abschlussarbeit ist herauszufinden, wie Mitglieder agiler Softwareentwicklungsteams sich die Zukunft ihrer Arbeit vorstellen. Dazu wurde eine quantitative Datenerhebung in Form einer webbasierten Befragung mittels eines standardisierten Fragebogens unter Mitgliedern agiler Softwareentwicklungsteams durchgeführt. Das Ergebnis ist, dass eine flexible Wahl des Arbeitsortes erwartet wird, wobei das Home Office zukünftig der präferierte Arbeitsort sein wird. Einen Einfluss durch agile Rahmenwerke und den dazugehörigen Praktiken auf die Wahl des Arbeitsortes konnte nicht festgestellt werden. Für die Zukunft wird keine signifikante Produktivitätssteigerung durch ein hybrides Arbeitsmodell erwartet.
Auf Basis einer standardisierten schriftlichen Befragung an der Hochschule Hannover wurden Auswirkungen von subjektiv empfundenem finanziellen Druck auf die Studiensituation untersucht. Schwerpunkt waren Auswirkungen auf die gesundheitliche Verfassung von Studierenden und auf verschiedene Aspekte des Studienerfolgs. Die erhobenen Daten wurden in einem zweistufigen Verfahren analysiert. Im ersten Schritt konnten mithilfe eines konfirmatorischen Analyseverfahrens unter Kontrolle verschiedener externer Faktoren signifikante Zusammenhänge des finanziellen Drucks mit der psychischen Gesundheit, der physischen Gesundheit, dem allgemeinen Stressempfinden im Studium, der Studienzufriedenheit und der Häufigkeit ernsthafter Zweifel an einem erfolgreichen Abschluss festgestellt werden. Für nicht signifikant wurden dagegen die Einflüsse auf die Studienabbruchneigung und auf die Studiendauer befunden. Im Rahmen einer nachfolgenden, explorativen Analyse mittels universeller Strukturgleichungsmodellierung wurde ein Modellentwurf ausgearbeitet, der ein hypothetisches Konstrukt der Wirkungsbeziehungen zwischen finanziellem Druck, der gesundheitlichen Situation und dem Studienerfolg darstellt. Im Hinblick auf den Studienerfolg könnte es sein, dass nur die Studienzufriedenheit direkt durch finanziellen Druck negativ beeinflusst wird. Die Abbruchneigung und die Häufigkeit ernsthafter Zweifel über einen erfolgreichen Abschluss könnten durch finanziellen Druck möglicherweise indirekt beeinflusst werden. Ebenso kann vermutet werden, dass die Einschätzung der Studierenden hinsichtlich ihres physischen Gesundheitszustands nur indirekt von finanziellem Druck abhängig ist.
Bluetooth ist ein weit verbreitetes drahtloses Übertragungsprotokoll, das in vielen mobilen Geräten wie bspw. Tablets, Kopfhörer oder Smartwatches verwendet wird. Bluetooth-fähige Geräte senden mehrmals pro Minute öffentliche Advertisements, die u.a. die einzigartige MAC-Adresse des Gerätes beinhalten. Das Mitschneiden dieser Advertisements mittels Bluetooth-Logger ermöglicht es, Bewegungen der Geräte zu analysieren und lassen somit Rückschlüsse auf die Bewegungen der Besitzenden zu.
Zum Schutz der Privatsphäre werden seit 2014 zufällig erzeugte MAC-Adressen in Advertisements verwendet. Eine sog. randomisierte MAC-Adresse bleibt durchschnittlich 15 Minuten lang gültig und wird dann durch eine neue zufällige Adresse ersetzt. Der Aufenthalt eines Geräts zu einem späteren Zeitpunkt kann nicht bestimmt werden. Dennoch kann der Wechsel eines Geräts von einem Bluetooth-Logger zu einem anderen innerhalb dieser 15 Minuten erkannt und somit eine Bewegung des Gerätes abgeleitet werden.
Durch Apps der Kontaktpersonennachverfolgung wie die Corona-Warn-App (CWA) senden auch vermeintlich inaktive Smartphones Bluetooth-Advertisements. Mit etwa einem Viertel der Aufzeichnungen unterstützt die CWA die Auswertungen dieser experimentellen Arbeit.
Um die praktische Anwendbarkeit zu demonstrieren, wurde der Erlebniszoo Hannover als Testgelände genutzt. Die Auswertung der über sieben Wochen gesammelten Daten ermöglichte die Analyse von Stoßzeiten, stark besuchten Orten und Besucherströmen.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
Die Angriffserkennung ist ein wesentlicher Bestandteil, Cyberangriffe zu verhindern und abzumildern. Dazu werden Daten aus verschiedenen Quellen gesammelt und auf Einbruchsspuren durchsucht. Die heutzutage produzierten Datenmengen sind ein wesentliches Problem für die Angriffserkennung. Besonders bei komplexen Cyberangriffen, die über einen längeren Zeitraum stattfinden, wächst die zu durchsuchende Datenmenge stark an und erschwert das Finden und Kombinieren der einzelnen Angriffsschritte.
Eine mögliche Lösung, um dem Problem entgegenzuwirken, ist die Reduktion der Datenmenge. Die Datenreduktion versucht, Daten herauszufiltern, die aus Sicht der Angriffserkennung irrelevant sind. Diese Ansätze werden unter dem Begriff Reduktionstechniken zusammengefasst. In dieser Arbeit werden Reduktionstechniken aus der Wissenschaft untersucht und auf Benchmark Datensätzen angewendet, um ihre Nutzbarkeit zu evaluieren. Dabei wird der Frage nachgegangen, ob die Reduktionstechniken in der Lage sind, irrelevante Daten ausfindig zu machen und zu reduzieren, ohne dass eine Beeinträchtigung der Angriffserkennung stattfindet. Die Evaluation der Angriffserkennung erfolgt durch ThreaTrace, welches eine Graph Neural Network basierte Methode ist.
Die Evaluierung zeigt, dass mehrere Reduktionstechniken die Datenmenge wesentlich reduzieren können, ohne die Angriffserkennung zu beeinträchtigen. Bei drei Techniken führt der Einsatz zu keinen nennenswerten Veränderungen der Erkennungsraten. Dabei wurden Reduktionsraten von bis zu 30 % erreicht. Bei der Anwendung einer Reduktionstechnik stieg die Erkennungsleistung sogar um 8 %. Lediglich bei zwei Techniken führt der Einsatz zum drastischen Absinken der Erkennungsrate.
Insgesamt zeigt die Arbeit, dass eine Datenreduktion angewandt werden kann, ohne die Angriffserkennung zu beeinträchtigen. In besonderen Fällen kann eine Datenreduktion, die Erkennungsleistung sogar verbessern. Allerdings ist der erfolgreiche Einsatz der Reduktionstechniken abhängig vom verwendeten Datensatz und der verwendeten Methode der Angriffserkennung.
Der deutsche Strommarkt befindet sich im Wandel von einer zentralen Stromerzeugung hin zu einer dezentralen. Eine wesentliche Rolle spielen in diesen Zusammenhang erneuerbare Energien, welche durch die Energiewende bis 2050 einen Anteil von mindestens 80 % des in Deutschland erzeugten Stroms ausmachen sollen. Diese haben jedoch den großen Nachteil, dass sie wetterbedingt eine hohe Volatilität aufweisen und eine geringe Planbarkeit der Stromerzeugung mit sich bringen. Um die Stabilität des Stromnetzes zu gewährleisten, müssen sich die erzeugte Strommenge und deren Verbrauch stets im Gleichgewicht befinden. Eine Möglichkeit, mit der Flexibilität der Erzeugung umzugehen, bietet das Konzept der virtuellen Kraftwerke. Diese sind ein Zusammenschluss vieler dezentraler Erzeugungsanlagen, welche von einer zentralen
technischen Steuerung koordiniert und gesteuert werden. Die vorliegende Arbeit soll einen Überblick über die aktuelle Situation auf dem Markt für virtuelle Kraftwerke geben. Mittels einer Expertenbefragung wurden diesbezüglich vier Hypothesen überprüft. Die Auswertung ergab, dass der Markt langfristig wächst und sich virtuelle Kraftwerke noch in der Erprobungsphase befinden. Entgegen gängigen Definitionen sind in virtuelle Kraftwerke häufig keine Speicher und Verbraucher integriert. Obwohl die Energieerzeugung ausschließlich mit erneuerbaren Energien möglich wäre, wird dies häufig nicht umgesetzt. Ein wichtiger Grund lag in dem vermehrten Einsatz von KWKAnlagen, welche überwiegend mit fossilen Brennstoffen betrieben werden.
Bedingt durch die zunehmende Digitalisierung der wissenschaftlichen Ausbildung entstanden verschiedenste Lehrplattformen, mit denen die Verwaltung von Lehrveranstaltungen und Lehrmitteln möglich geworden ist. Die Plattform LON-CAPA ist eine davon.
Neben der Verwaltung von Lehrveranstaltungen konnten innerhalb der Plattform über eine Programmierschnittstelle auch Übungsaufgaben definiert werden, die durch das Hinterlegen der korrekten Antwort oder bei der Definition von Multiple-Choice Aufgaben einem Studierenden automatisch Feedback über dessen Lösung geben können. Komplexere Aufgaben mussten dagegen häufig manuell durch Menschen korrigiert werden.
Für die formalen Sprachen und die Automatenlehre der theoretischen Informatik wurde daher die in Java geschriebene Bibliothek JFLAP modifiziert, um als Bewertungsinstrument Aufgaben aus diesem Themengebiet automatisch auf Korrektheit bewerten zu können. Ein genereller Interfaceansatz ermöglich zusätzliche eine zugängliche Definition weiterer Aufgaben für die untersuchten Themengebiete.
Die vergleichende Fallstudie untersucht die Auswirkungen des Einsatzes von Videokonferenzsoftware (VKS) in einer kooperativen Lernumgebung in einem Masterseminar der Hochschule Hannover im Studiengang Unternehmensentwicklung. Es wurden 13 problemzentrierte Interviews mit Teilnehmenden eines Online- und eines Präsenzkurses geführt. Die gewonnenen Daten aus den Interviewaussagen wurden unter Anwendung des an der Hochschule eingesetzten Evaluationsfragebogens auf Plausibilität geprüft. Es wurden acht Probanden aus dem Onlinekurs und fünf Probanden aus dem vorherigen Präsenzkurs befragt. Die Interviews wurden über eine qualitative Inhaltsanalyse ausgewertet. Die zentralen
Ergebnisse waren, dass das Teleteaching zwar funktioniert, die Onlinestudierenden aber eine niedrigere Aufmerksamkeit, eine gehemmte aktive Beteiligung, eine geringere Interaktion zwischen den Studierenden und eine erschwerte Interaktion in den Gruppenarbeiten wahrnehmen. Als größte Nachteile wurden die fehlenden persönlichen Kontakte und die niedrige Aufmerksamkeit identifiziert. Als größter Vorteil erwies sich die erhöhte Flexibilität durch den ersparten Anfahrtsweg. Ein für Teleteaching zentraler Erfolgsfaktor ist, dass die Kameras auch bei den Teilnehmenden angeschaltet sein sollten, damit die Aufmerksamkeit und die aktive Beteiligung gefördert werden. Zwölf der Probanden stuften den VKS-Einsatz als sinnvolle Ergänzung für Seminare ein. Präsenzseminare sind aber keinesfalls durch Onlineseminare zu ersetzen.
Eine wertorientierte Unternehmensführung hat in den letzten Jahren in den Unternehmen zunehmend an Bedeutung gewonnen. Wertorientierung stellt dabei ein Führungsverhalten dar, welches sich mit der Gestaltung und Realisierung von wertorientierten Zielen auf Managementebene beschäftigt. Heutzutage lebt Wertorientierung vom Einklang aus ökonomischen, ökologischen und gesellschaftlichen Gesichtspunkten. Die vorliegende Masterarbeit befasst sich mit der Geschäftsberichtsanalyse der DAX-30-Unternehmen hinsichtlich wertorientierter Steuerung. Dabei werden Unternehmen hinsichtlich ihres Bekenntnisses zur Wertorientierung, Veröffentlichung wertorientierter Kennzahlen und Höhe der Kapitalkostensätze untersucht.Hierbei kommt der Vergleichbarkeit und Transparenz eine entscheidende Rolle zu. Die Untersuchung ergibt ein hohes Bekenntnis zur Wertorientierung in nahezu allen betrachteten DAX-Unternehmen. Die Unternehmen führen viele Spitzenkennzahlen an, die vorwiegend auf dem Economic Value Added basieren. Zusätzlich werden eine Reihe weiterer, in der betrieblichen Praxis als wertorientierte Kennzahlen genutzte Messgrößen, herausgegeben. Eine Vergleichbarkeit untereinander gestaltet sich sehr schwierig, da Berechnung und Bezeichnung gleicher Kennzahlen sehr unterschiedlich sind. Daran wird sich ohne einheitlichen Standard in naher bis mittelfristiger Zukunft nichts ändern.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.
An der Digitalisierung und ihren Auswirkungen kommt heutzutage fast niemand mehr vorbei. Neue Technologien und digitale Trends halten Einzug in unsere Gesellschaft und in unsere Wirtschaft. Sie beeinflussen und verändern mit hoher Geschwindigkeit die Art, wie wir kommunizieren, interagieren und arbeiten. Viele Unternehmen durchlaufen vor diesem Hintergrund eine digitale Transformation, die tiefgreifende Veränderungen von Prozessen, Produkten, Geschäftsmodellen und oftmals von ganzen Unternehmen nach sich zieht. Auch die Art, Unternehmen und Mitarbeiter zu führen, wird einem Wandel unterliegen.
In diesem Zusammenhang wird häufig auf Digital Leadership als adäquates Modell verwiesen, welches aufzeigen soll, wie Führung in Zeiten der digitalen Transformation gestaltet werden kann. Auf Basis einer qualitativen Inhaltsanalyse wird in der vorliegenden Masterarbeit untersucht, ob das Führungskonzept Digital Leadership neue Führungsansätze und Erkenntnisse hervorbringt oder ob sich das Konzept bewährter Führungsansätze bedient und diese lediglich unter einer neuen Überschrift zusammenfasst.
Die Ergebnisse der Analyse zeigen, dass sich für das Konzept Digital Leadership noch keine allgemeingültige Definition durchgesetzt hat und verschiedene Quellen verschiedene Führungsansätze mit Digital Leadership in Verbindung bringen. Dennoch lassen sich Schwerpunkte erkennen, da die Handlungsempfehlungen sich mehrheitlich an partizipativen und beziehungsorientierten Führungsansätzen, wie der geteilten Führung und der Theorie der transformationalen Führung, ausrichten. Die Führungsansätze, die im Rahmen von Digital Leadership an Bedeutung gewinnen, sind nicht neu, sondern teilweise empirisch bereits gut erforscht.
Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung einer Entwicklungsumgebung als Android-App für den Einsatz im Schulunterricht. Die Anwendung ist mit der natürlichen Sprache zu bedienen und stellt eine Entwicklungsumgebung für das logische Programmierparadigma zur Verfügung. Die entstandene Software wird in einem Feldversuch mit Kindern der 4. Klassenstufe an einer Grundschule erprobt. Da Änderungen und neue Erkenntnisse möglichst effizient in die Software einfließen sollen, wurde die App nach der Clean Architecture umgesetzt. Die Ergebnisse aus der Feldforschung zeigen, dass die Schülerinnen und Schüler mit hoher Motivation an einem fachlichen Thema gearbeitet haben. Sie erlernten die Konzepte der Fakten, Regeln und der Wissensbasis und vertieften damit ihr Wissen zu geometrischen Formen in der Mathematik. Der Architekturansatz der App stellt dessen Vorteile deutlich an Fallbeispielen dar. Die Arbeit zeigt das spannende Feld der angewandten Wissenschaft, das die beiden Disziplinen Informatik und Didaktik verknüpft.
Die Prävention und Erkennung von Cyber-Angriffen ist eine Herausforderung von hoher Bedeutung, da die Digitalisierung nahezu aller Lebensbereiche immer weiter voranschreitet. Im Forschungssektor der sogenannten Intrusion Detection wird fortlaufend untersucht, inwiefern sich Machine Learning (ML) zur Erkennung von Angriffen eignet. Während ML-Algorithmen bei Anwendungsfällen wie Produktempfehlungen oder Spam-Filtern erfolgreich in Produktion eingesetzt werden können, gestaltet sich die Anwendung in der Intrusion Detection schwieriger.
In sogenannten signatur-basierten IDS-Systemen werden Regelwerke eingesetzt, um Angriffe im Netzwerkverkehr zur Laufzeit zu erkennen. Die Erstellung und Verwaltung dieser IDS-Regeln erfolgt normalerweise manuell und erfordert eine hohe Domänenexpertise. Diese Masterthesis liefert einen Forschungsbeitrag, da diese IDS-Regeln erstmals automatisiert unter der Verwendung von Machine Learning erzeugt werden. Die für diesen Zweck entwickelte Toolchain verwendet Entscheidungsbaum-Algorithmen zur Regelerzeugung aus Trainingsdaten. Des Weiteren werden die Regeln für den Einsatz in einem signatur-basierten IDS-System in das Format von Suricata konvertiert.
Die Evaluierung der erzeugten Regeln hat gezeigt, dass in einer Vielzahl von Experimenten hohe Erkennungsraten und wenige Fehlalarme möglich sind. Allerdings basieren die betroffenen Regelwerke zum Teil auf unterkomplexen Zusammenhängen in den zugrundeliegenden Trainingsdaten. Darüber hinaus verfügen die Regelwerke über eine eingeschränkte Generalisierungsfähigkeit. Für ein finales Urteil wäre es notwendig und empfehlenswert, zusätzliche Forschungskapazitäten für die Erstellung repräsentativer IDS-Datensätze aufzuwenden.
Die vorliegende Arbeit befasst sich mit dem Ansatz und der Bewertung originärer immaterieller Vermögensgegenstände des Anlagevermögens im handelsrechtlichen Jahresabschluss. Es handelt sich hierbei um die Untersuchung der Frage, ob die Verpflichtung zur Aktivierung oben genannter Vermögensgegenstände die Aussagekraft eines Jahresabschlusses nach HGB erhöht. Während die internationalen Rechnungslegungsstandards (IFRS) den Ansatz immaterieller Vermögensgegenstände – unabhängig davon, ob sie entgeltlich erworben oder selbst erstellt wurden – schon lange vorsehen, hat sich der Gesetzgeber in Deutschland im Rahmen des Bilanzrechtsmodernisierungsgesetzes nun auch dazu entschlossen, das HGB-Bilanzrecht u. a. in diesem Punkt den IFRS anzupassen und das bisher in § 248 Abs. 2 HGB kodifizierte Aktivierungsverbot aufzuheben. Der vom Bundesministerium der Justiz am 21. Mai 2008 veröffentlichte Gesetzentwurf dient als Grundlage der Untersuchung. Die einzelnen geplanten Änderungen wurden ausführlich betrachtet und werden je nach Bedeutung für den Ansatz und die Bewertung – mehr oder weniger stark – diskutiert. Wie sich im Verlauf dieser Arbeit zeigen wird, ist davon auszugehen, dass die zukünftig für originäre immaterielle Vermögensgegenstände geltende Aktivierungspflicht auf Grund der zu erbringenden Nachweise – ebenso wie nach IFRS – als faktisches Wahlrecht betrachtet werden kann. Somit hätte die Aufhebung des § 248 Abs. 2 HGB nur geringe Auswirkungen auf die Bilanzierung von Unternehmen. Wenn allerdings die Möglichkeit der Aktivierung in Anspruch genommen wird und relevante Angaben im Anhang gemacht werden, ist eine Erhöhung des Informationsgehaltes eines Jahresabschlusses zweifellos gegeben.
Pathologists need to identify abnormal changes in tissue. With the developing digitalization, the used tissue slides are stored digitally. This enables pathologists to annotate the region of interest with the support of software tools. PathoLearn is a web-based learning platform explicitly developed for the teacher-student scenario, where the goal is that students learn to identify potential abnormal changes. Artificial intelligence (AI) and machine learning (ML) have become very important in medicine. Many health sectors already utilize AI and ML. This will only increase in the future, also in the field of pathology. Therefore, it is important to teach students the fundamentals and concepts of AI and ML early in their studies. Additionally, creating and training AI generally requires knowledge of programming and technical details. This thesis evaluates how this boundary can be overcome by comparing existing end-to-end AI platforms and teaching tools for AI. It was shown that a visual programming editor offers a fitting abstraction for creating neural networks without programming. This was extended with real-time collaboration to enable students to work in groups. Additionally, an automatic training feature was implemented, removing the necessity to know technical details about training neural networks.
Zusammen mit der Microservice-Bewegung werden immer häufiger synchrone Request-Response-Schnittstellen nach dem REST-Paradigma entwickelt, um Service-Landschaften zu integrieren. Die Einfachheit des Paradigmas verleitet viele Organisationen, nahezu die komplette Interprozesskommunikation ihres Ökosystems über diese Art von Schnittstelle abzuwickeln – nicht ohne Konsequenzen.
Diese Arbeit entwickelt Ansätze, wie die Integrationsprobleme, die bei übermäßiger Verwendung von REST entstehen, mithilfe von Event-Driven Architecture gelöst werden können, ohne den Status quo dieser Organisationen außer Acht zu lassen. Dafür werden der gegenwärtige Zustand der Integrationsmuster und eingesetzten Infrastruktur von Event-Driven Architecture kritisiert und Kriterien erarbeitet, die pragmatische und zugängliche Integrationsansätze erfüllen müssen. Um die Einführungskosten gering zu halten, wird eine Middleware entwickelt, die in bestehende REST-Schnittstellen eingesetzt werden kann und auf Basis der API-Aufrufe Events generiert. Darauf aufbauend werden vier Integrationsmuster entwickelt, die eine schrittweise Transformation zu Event-Driven Microservices ermöglichen. Um die Zugänglichkeit der Eventing-Infrastruktur zu erhöhen, wird außerdem wird die Standardisierung der Event-Struktur durch die CloudEvents-Spezifikation vorgeschlagen. Um die Zugänglichkeit weiter zu erhöhen, erfolgt die Kommunikation der Services nicht direkt mit dem Event-Broker, sondern über Proxies, die die Events per HTTP annehmen oder ausspielen. Um die Transparenz über den Datenfluss im System zu wahren, werden alle Produzenten und Konsumenten werden mitsamt ihrer Events durch den Beschreibungsstandard AsyncAPI dokumentiert.
Nach einer Validierung dieser Ansätze mithilfe eines Prototyps kommt diese Arbeit zu der Erkenntnis, dass der Einsatz der entwickelten Middleware für alle Organisationen sinnvoll ist, die bereits viele REST-Schnittstellen im Einsatz haben. Die Standardisierung der Event-Struktur und des Event-Protokolls mittels CloudEvents und HTTP-Proxies sowie die Dokumentation durch AsyncAPI empfiehlt sich auch unabhängig des Status quo für alle Organisationen, die Event-Driven Microservices entwickeln möchten.
Durch die Globalisierung und den verschärften internationalen Wettbewerb sind innovative Unternehmen in zunehmendem Maße durch Industriespionage bedroht. Eine besondere Rolle kommt hierbei dem Faktor Mensch zu, der das größte Risiko für einen ungewollten Know-how-Abfluss darstellt. Hiervon ausgehend untersucht die vorliegende Arbeit, welche präventiven und repressiven Spionageabwehrmaßnahmen Unternehmen zur Verbesserung der personellen Sicherheit zur Verfügung stehen. Nach einer theoretischen Einführung in das Thema werden die Ergebnisse von acht Experteninterviews vorgestellt und in die bestehende Literatur integriert. Dabei zeigen die Ergebnisse, dass es keine Musterlösung gibt, sondern dass je nach Unternehmen, spezifischer Bedrohungslage und wirtschaftlichen Rahmenbedingungen ein individuelles und ganzheitliches Informationsschutzkonzept zu entwickeln ist.
Das Bedürfnis Daten in Echtzeit zu analysieren und auf Ereignisse zu reagieren, ist innerhalb aller Branchen in den letzten Jahren stark gestiegen. Als die Analysetechnik für Echtzeitdatenströme hat sich das Complex Event Processing (CEP) durchgesetzt. Mithilfe von Regeln lassen sich kausale, temporale und räumliche Zusammenhänge von Ereignissen definieren und durch eine CEP-Engine evaluieren. Die Konstruktion von Regeln hat sich dabei als einschränkende Faktor von CEP herausgestellt. Greedy4Cep ist ein algorithmischer Ansatz zur automatisierten Erstellung von CEP-Regeln anhand eines historischen Datenstromes.
Die Auswahl geeigneter Bewerber/Innen nimmt aufgrund der demographischen Entwicklung und der damit verbundenen Verknappung der Ressource Personal einen immer höheren Stellenwert ein. Der Einsatz von Anforderungsprofilen soll dabei helfen das Risiko einer fehlerhaften Auswahlentscheidung zu verringern und somit den geeignetsten Bewerber auszuwählen. Ein Trend hin zu den Soft-Skills, wie beispielsweise Teamfähigkeit und Kommunikationsbereitschaft, ist klar zu erkennen. Gegenstand der nachfolgenden Diplomarbeit ist daher die Entwicklung eines Anforderungsprofils, welches sich auf diese Soft-Skills konzentriert. Die Erstel-lung des Anforderungsprofils erfolgt dabei auf Grundlage der von John C. Flanagan entwickelten „Critical Incident Technique“, die im deutschen Sprachgebrauch auch als Methode der kritischen Ereignisse bezeichnet wird. Infolgedessen werden zunächst die theoretischen Grundlagen eines Anforderungsprofils sowie die der „Critical Incident Technique“ detailliert erläutert. Im Anschluss daran erfolgt eine ausführliche Beschreibung der methodischen Vorgehensweise, die den kompletten Ablauf der praktischen Durchführung widerspiegelt. In diesem Zusammenhang werden getroffene Entscheidungen, die zu einer Anpassung der Vorgehensweise führten, näher erläutert und begründet. Die aus den Mitarbeiterbefragungen gewonnenen „Critical Incidents“ werden nachfolgend kategorisiert und zu Anforderungsbereichen zusammengefasst, die abschließend zum Anforderungsprofil verdichtet werden. Ferner wird die Möglichkeit einer praktischen Anwendung der Ergebnisse anhand von drei vom Autor begleiteten Projekten dargestellt.
In the last years generative models have gained large public attention due to their high level of quality in generated images. In short, generative models learn a distribution from a finite number of samples and are able then to generate infinite other samples. This can be applied to image data. In the past generative models have not been able to generate realistic images, but nowadays the results are almost indistinguishable from real images.
This work provides a comparative study of three generative models: Variational Autoencoder (VAE), Generative Adversarial Network (GAN) and Diffusion Models (DM). The goal is not to provide a definitive ranking indicating which one of them is the best, but to qualitatively and where possible quantitively decide which model is good with respect to a given criterion. Such criteria include realism, generalization and diversity, sampling, training difficulty, parameter efficiency, interpolating and inpainting capabilities, semantic editing as well as implementation difficulty. After a brief introduction of how each model works on the inside, they are compared against each other. The provided images help to see the differences among the models with respect to each criterion.
To give a short outlook on the results of the comparison of the three models, DMs generate most realistic images. They seem to generalize best and have a high variation among the generated images. However, they are based on an iterative process, which makes them the slowest of the three models in terms of sample generation time. On the other hand, GANs and VAEs generate their samples using one single forward-pass. The images generated by GANs are comparable to the DM and the images from VAEs are blurry, which makes them less desirable in comparison to GANs or DMs. However, both the VAE and the GAN, stand out from the DMs with respect to the interpolations and semantic editing, as they have a latent space, which makes space-walks possible and the changes are not as chaotic as in the case of DMs. Furthermore, concept-vectors can be found, which transform a given image along a given feature while leaving other features and structures mostly unchanged, which is difficult to archive with DMs.
Fortgeschrittene Konzepte der logischen Programmierung - für Kinder einfach zugänglich via NLP
(2019)
In dieser Arbeit wurde an der über Google Dialogflow gesteuerten Entwicklungsumgebung für logische Programmierung "Speech and Logic IDE" (SLIDE) geforscht. Die Anwendung wurde von Dialogflow zu der Bibliothek Snips NLU überführt, damit ohne Internetanbindung gearbeitet werden kann.
Als Hauptteil der Arbeit wurden die logischen Konzepte Variablen, Rekursion und Listen in die Anwendung implementiert. Es wurde eine Benennungsvorschrift eingeführt, die die Anwendung von starren Strukturen löst und es durch rekursive Verarbeitung erlaubt, beliebig komplexe Strukturen zu modellieren. Die Anwendung wurde anschließend im Rahmen der Sekundarstufe I betrachtet. Die behandelten Fragen waren:
"Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Fakten und Regeln zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Variablen, Rekursion und Listen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen außerhalb der mathematischen Domäne zu vermitteln?"
Dazu wurden zwei Unterrichtsbeispiele konzipiert, die sich im Deutschunterricht mit Grammatik und Lyrik auseinandersetzen, zwei Themen des niedersächsischen Kerncurriculums aus der Sekundarstufe I. Bei der Unterrichtsgestaltung wurde besonderes Augenmerk auf die neu eingeführten Konzepte gesetzt. Das zweite Unterrichtsbeispiel wurde im Rahmen einer Zusammenarbeit mit dem Projekthaus Zukunft MINT der Hochschule Hannover zweimalig mit unterschiedlichen 10. Klassen (IGS und Gymnasium) durchgeführt. Die theoretischen Ergebnisse der Arbeit zeigen, dass alle Fragen mit "Ja" beantwortet werden können. In der neuen Version von SLIDE ist es möglich die neuen Konzepte zu modellieren und es ist möglich Unterrichtsbeispiele zu konzipieren, die dieses Wissen vermitteln und sich auf Inhalte des Kerncurriculums beziehen. Die Ergebnisse der Feldexperimente in Form von Fragebögen fallen weniger aussagekräftig aus, da sich die SuS bereits am Ende der Sekundarstufe I befanden und die konzipierten Inhalte somit eine Wiederholung darstellten. Weiter muss anerkannt werden, dass viele Faktoren bei der Befragung nicht berücksichtigt werden konnten. Deswegen können aus den praktischen Versuchen keine umfassenden Schlüsse gezogen werden, eine optimistische Betrachtung zeigt ein generelles Interesse der Anwendung seitens der SuS. Die Erfahrungen legen nahe die Unterrichtsinhalte auf mehrere Unterrichtseinheiten aufzuteilen, damit die Teilnehmer mit Vorwissen an die neuen Konzepte herantreten und sich auf sie konzentrieren können.
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.