Refine
Year of publication
Document Type
- Master's Thesis (24) (remove)
Has Fulltext
- yes (24)
Is part of the Bibliography
- no (24)
Keywords
- Machine Learning (3)
- Maschinelles Lernen (3)
- Clean Architecture (2)
- E-Learning (2)
- Eindringerkennung (2)
- Evolutionärer Algorithmus (2)
- Genetische Programmierung (2)
- Lernsoftware (2)
- Prolog (2)
- AI (1)
- APT (1)
- Advanced Persistent Thread (1)
- Agile Softwareentwicklung (1)
- Agile Softwareentwicklungsteams (1)
- Agilität <Management> (1)
- Aktienkursreaktionen (1)
- Android (1)
- Android <Systemplattform> (1)
- Android App Entwicklungsumgebung (1)
- Anforderungsprofil (1)
- Angriffserkennung (1)
- App <Programm> (1)
- Auswirkung (1)
- Automatenlehre (1)
- Automatentheorie (1)
- BAföG (1)
- Besucherstromanalyse (1)
- BilMoG (1)
- Bilanzrecht (1)
- Bluetooth Exposure Logging (1)
- Bluetooth-Standard (1)
- CEP (1)
- Complex Event Processing (1)
- Computer Vision (1)
- Critical Incident Technique (1)
- Cyberattacke (1)
- DAX (1)
- Datenanalyse (1)
- Deep learning (1)
- Diffusion Models (1)
- Digital Leadership (1)
- Digitale Transformation (1)
- Digitalisierung (1)
- ESP32 (1)
- Echtzeitverarbeitung (1)
- Edge computing (1)
- Energieautarkie (1)
- Energiegewinnung (1)
- Entscheidungsbaum (1)
- Ereignisgesteuerte Programmierung (1)
- Ereignisstudie (1)
- Erneuerbare Energien (1)
- Evaluation (1)
- Fallstudie (1)
- Finanzkommunikation (1)
- Finanzlage (1)
- Flanagan (1)
- Formale Sprache (1)
- Führung (1)
- GAN (1)
- Geldknappheit (1)
- Generative Adversarial Network (1)
- Genetic Programming (1)
- Geschäftsbericht (1)
- Graphdatenreduktion (1)
- Greedy-Algorithmus (1)
- Grundschule (1)
- Hochschule (1)
- Hybrid Work (1)
- Hybride Arbeit (1)
- IP 6 (1)
- IPv6 (1)
- IT-Sicherheit (1)
- Industrial espionage (1)
- Industriespionage (1)
- Informatikunterricht (1)
- Internet der Dinge (1)
- Intrusion Detection (1)
- Investor Relations (1)
- IoT (1)
- Irrelevanzminderung (1)
- JFLAP (1)
- Jahresabschlussfunktion (1)
- Java <Programmiersprache> (1)
- John Clemans (1)
- Kennzahlen (1)
- Klassifikation (1)
- Klassifizierung (1)
- Kooperative Lernumgebung (1)
- LON-CAPA (1)
- Logische Programmierung (1)
- Management (1)
- Marktuntersuchung (1)
- Maschinelles Sehen (1)
- Mensch (1)
- Mergers and Acquisitions (1)
- Methode kritischer Ereignisse (1)
- Middleware (1)
- Mikrocontroller ESP32 (1)
- Mikroservice (1)
- NLU (1)
- Nachhaltigkeit (1)
- Natürlichsprachliche Programmierung (1)
- Online-Lehre (1)
- OpenVPN (1)
- Pathologie (1)
- Pathology (1)
- Programmierumgebung (1)
- Programmsynthese (1)
- Prozesse (1)
- Prozesssteuerung (1)
- Qualitative Inhaltsanalyse (1)
- Quantitativ (1)
- Real-time Collaboration (1)
- Risikofaktor (1)
- SLIDE (1)
- Schulbildung (1)
- Speech and Logic IDE (1)
- Spionage (1)
- Steuerung (1)
- Studienfinanzierung (1)
- Studium (1)
- Subroutine (1)
- Suricata (1)
- Telearbeit (1)
- Theoretische Informatik (1)
- Unterprogramm (1)
- Unterricht (1)
- VPN (1)
- Vermögensgegenstand (1)
- Videokonferenz (1)
- Virtuelle Kraftwerke (1)
- Virtuelles privates Netzwerk (1)
- Wertorientierung (1)
- Wirtschaftsspionage (1)
- asyncapi (1)
- cloudevents (1)
- economic espionage (1)
- even-driven architecture (1)
- event-driven microservices (1)
- human (1)
- immaterielle VG (1)
- randomisierte MAC-Adressen (1)
- Übung <Hochschule> (1)
Institute
- Fakultät IV - Wirtschaft und Informatik (24) (remove)
Eine wertorientierte Unternehmensführung hat in den letzten Jahren in den Unternehmen zunehmend an Bedeutung gewonnen. Wertorientierung stellt dabei ein Führungsverhalten dar, welches sich mit der Gestaltung und Realisierung von wertorientierten Zielen auf Managementebene beschäftigt. Heutzutage lebt Wertorientierung vom Einklang aus ökonomischen, ökologischen und gesellschaftlichen Gesichtspunkten. Die vorliegende Masterarbeit befasst sich mit der Geschäftsberichtsanalyse der DAX-30-Unternehmen hinsichtlich wertorientierter Steuerung. Dabei werden Unternehmen hinsichtlich ihres Bekenntnisses zur Wertorientierung, Veröffentlichung wertorientierter Kennzahlen und Höhe der Kapitalkostensätze untersucht.Hierbei kommt der Vergleichbarkeit und Transparenz eine entscheidende Rolle zu. Die Untersuchung ergibt ein hohes Bekenntnis zur Wertorientierung in nahezu allen betrachteten DAX-Unternehmen. Die Unternehmen führen viele Spitzenkennzahlen an, die vorwiegend auf dem Economic Value Added basieren. Zusätzlich werden eine Reihe weiterer, in der betrieblichen Praxis als wertorientierte Kennzahlen genutzte Messgrößen, herausgegeben. Eine Vergleichbarkeit untereinander gestaltet sich sehr schwierig, da Berechnung und Bezeichnung gleicher Kennzahlen sehr unterschiedlich sind. Daran wird sich ohne einheitlichen Standard in naher bis mittelfristiger Zukunft nichts ändern.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
Die Angriffserkennung ist ein wesentlicher Bestandteil, Cyberangriffe zu verhindern und abzumildern. Dazu werden Daten aus verschiedenen Quellen gesammelt und auf Einbruchsspuren durchsucht. Die heutzutage produzierten Datenmengen sind ein wesentliches Problem für die Angriffserkennung. Besonders bei komplexen Cyberangriffen, die über einen längeren Zeitraum stattfinden, wächst die zu durchsuchende Datenmenge stark an und erschwert das Finden und Kombinieren der einzelnen Angriffsschritte.
Eine mögliche Lösung, um dem Problem entgegenzuwirken, ist die Reduktion der Datenmenge. Die Datenreduktion versucht, Daten herauszufiltern, die aus Sicht der Angriffserkennung irrelevant sind. Diese Ansätze werden unter dem Begriff Reduktionstechniken zusammengefasst. In dieser Arbeit werden Reduktionstechniken aus der Wissenschaft untersucht und auf Benchmark Datensätzen angewendet, um ihre Nutzbarkeit zu evaluieren. Dabei wird der Frage nachgegangen, ob die Reduktionstechniken in der Lage sind, irrelevante Daten ausfindig zu machen und zu reduzieren, ohne dass eine Beeinträchtigung der Angriffserkennung stattfindet. Die Evaluation der Angriffserkennung erfolgt durch ThreaTrace, welches eine Graph Neural Network basierte Methode ist.
Die Evaluierung zeigt, dass mehrere Reduktionstechniken die Datenmenge wesentlich reduzieren können, ohne die Angriffserkennung zu beeinträchtigen. Bei drei Techniken führt der Einsatz zu keinen nennenswerten Veränderungen der Erkennungsraten. Dabei wurden Reduktionsraten von bis zu 30 % erreicht. Bei der Anwendung einer Reduktionstechnik stieg die Erkennungsleistung sogar um 8 %. Lediglich bei zwei Techniken führt der Einsatz zum drastischen Absinken der Erkennungsrate.
Insgesamt zeigt die Arbeit, dass eine Datenreduktion angewandt werden kann, ohne die Angriffserkennung zu beeinträchtigen. In besonderen Fällen kann eine Datenreduktion, die Erkennungsleistung sogar verbessern. Allerdings ist der erfolgreiche Einsatz der Reduktionstechniken abhängig vom verwendeten Datensatz und der verwendeten Methode der Angriffserkennung.
Die vergleichende Fallstudie untersucht die Auswirkungen des Einsatzes von Videokonferenzsoftware (VKS) in einer kooperativen Lernumgebung in einem Masterseminar der Hochschule Hannover im Studiengang Unternehmensentwicklung. Es wurden 13 problemzentrierte Interviews mit Teilnehmenden eines Online- und eines Präsenzkurses geführt. Die gewonnenen Daten aus den Interviewaussagen wurden unter Anwendung des an der Hochschule eingesetzten Evaluationsfragebogens auf Plausibilität geprüft. Es wurden acht Probanden aus dem Onlinekurs und fünf Probanden aus dem vorherigen Präsenzkurs befragt. Die Interviews wurden über eine qualitative Inhaltsanalyse ausgewertet. Die zentralen
Ergebnisse waren, dass das Teleteaching zwar funktioniert, die Onlinestudierenden aber eine niedrigere Aufmerksamkeit, eine gehemmte aktive Beteiligung, eine geringere Interaktion zwischen den Studierenden und eine erschwerte Interaktion in den Gruppenarbeiten wahrnehmen. Als größte Nachteile wurden die fehlenden persönlichen Kontakte und die niedrige Aufmerksamkeit identifiziert. Als größter Vorteil erwies sich die erhöhte Flexibilität durch den ersparten Anfahrtsweg. Ein für Teleteaching zentraler Erfolgsfaktor ist, dass die Kameras auch bei den Teilnehmenden angeschaltet sein sollten, damit die Aufmerksamkeit und die aktive Beteiligung gefördert werden. Zwölf der Probanden stuften den VKS-Einsatz als sinnvolle Ergänzung für Seminare ein. Präsenzseminare sind aber keinesfalls durch Onlineseminare zu ersetzen.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.
Der deutsche Strommarkt befindet sich im Wandel von einer zentralen Stromerzeugung hin zu einer dezentralen. Eine wesentliche Rolle spielen in diesen Zusammenhang erneuerbare Energien, welche durch die Energiewende bis 2050 einen Anteil von mindestens 80 % des in Deutschland erzeugten Stroms ausmachen sollen. Diese haben jedoch den großen Nachteil, dass sie wetterbedingt eine hohe Volatilität aufweisen und eine geringe Planbarkeit der Stromerzeugung mit sich bringen. Um die Stabilität des Stromnetzes zu gewährleisten, müssen sich die erzeugte Strommenge und deren Verbrauch stets im Gleichgewicht befinden. Eine Möglichkeit, mit der Flexibilität der Erzeugung umzugehen, bietet das Konzept der virtuellen Kraftwerke. Diese sind ein Zusammenschluss vieler dezentraler Erzeugungsanlagen, welche von einer zentralen
technischen Steuerung koordiniert und gesteuert werden. Die vorliegende Arbeit soll einen Überblick über die aktuelle Situation auf dem Markt für virtuelle Kraftwerke geben. Mittels einer Expertenbefragung wurden diesbezüglich vier Hypothesen überprüft. Die Auswertung ergab, dass der Markt langfristig wächst und sich virtuelle Kraftwerke noch in der Erprobungsphase befinden. Entgegen gängigen Definitionen sind in virtuelle Kraftwerke häufig keine Speicher und Verbraucher integriert. Obwohl die Energieerzeugung ausschließlich mit erneuerbaren Energien möglich wäre, wird dies häufig nicht umgesetzt. Ein wichtiger Grund lag in dem vermehrten Einsatz von KWKAnlagen, welche überwiegend mit fossilen Brennstoffen betrieben werden.
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
Durch die Globalisierung und den verschärften internationalen Wettbewerb sind innovative Unternehmen in zunehmendem Maße durch Industriespionage bedroht. Eine besondere Rolle kommt hierbei dem Faktor Mensch zu, der das größte Risiko für einen ungewollten Know-how-Abfluss darstellt. Hiervon ausgehend untersucht die vorliegende Arbeit, welche präventiven und repressiven Spionageabwehrmaßnahmen Unternehmen zur Verbesserung der personellen Sicherheit zur Verfügung stehen. Nach einer theoretischen Einführung in das Thema werden die Ergebnisse von acht Experteninterviews vorgestellt und in die bestehende Literatur integriert. Dabei zeigen die Ergebnisse, dass es keine Musterlösung gibt, sondern dass je nach Unternehmen, spezifischer Bedrohungslage und wirtschaftlichen Rahmenbedingungen ein individuelles und ganzheitliches Informationsschutzkonzept zu entwickeln ist.