Refine
Year of publication
- 2020 (17) (remove)
Document Type
- Article (3)
- Bachelor Thesis (3)
- Book (3)
- Conference Proceeding (3)
- Master's Thesis (2)
- Working Paper (2)
- Part of a Book (1)
Has Fulltext
- yes (17)
Is part of the Bibliography
- no (17)
Keywords
- Benutzerfreundlichkeit (2)
- Computersicherheit (2)
- E-Learning (2)
- Evaluation (2)
- Simulation (2)
- Visual Analytics (2)
- 5-Faktoren-Modell der Persönlichkeit (1)
- Abschlussarbeit (1)
- Agent <Informatik> (1)
- Air Quality Monitoring (1)
- Android <Systemplattform> (1)
- Arbeitsklima (1)
- Arbeitswelt (1)
- Berufsleben (1)
- Berufsziel (1)
- Berufszufriedenheit (1)
- Checkliste (1)
- Complex Event Processing (1)
- Consistency (1)
- Crowdsensing (1)
- Crowdshipping (1)
- Datenbank (1)
- Datenbanksprache (1)
- Datenintegration (1)
- Datenmanagement (1)
- Datenmodell (1)
- Datenqualität (1)
- Datenstrom (1)
- Design Science (1)
- Designwissenschaft <Informatik> (1)
- Digitale Fabrik (1)
- Digitalisierung (1)
- Domain Driven Design (DDD) (1)
- Eilzustellung (1)
- Einstellung (1)
- Endredaktion (1)
- Energiemanagement (1)
- Energy Harvesting (1)
- Erfolg (1)
- Evolutionärer Algorithmus (1)
- Fallstudie (1)
- Fehlererkennung (1)
- Fehlerverhütung (1)
- Fertigungsanlage (1)
- Framework (1)
- Framework <Informatik> (1)
- Genetische Programmierung (1)
- Gesundheitsinformationssystem (1)
- Graja (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Information Visualization (1)
- Insurance Industry (1)
- Klein- und Mittelbetrieb (1)
- Kontraproduktivität (1)
- Kooperative Lernumgebung (1)
- Korruption (1)
- Luftqualität (1)
- Machine Learning (1)
- Maschinelles Lernen (1)
- Microservices (1)
- Mikrocontroller (1)
- Mikroservice (1)
- Monitoring (1)
- Network Security (1)
- Notfallmedizin (1)
- Online-Lehre (1)
- Onlineseminar (1)
- Organisation (1)
- Paket (1)
- Personalentwicklung (1)
- Policy Evaluation (1)
- Polizei (1)
- Portabilität (1)
- Produktionsanlage (1)
- Programmsynthese (1)
- Psychologie (1)
- Qualitative Inhaltsanalyse (1)
- Quality assessment (1)
- Qualität (1)
- Raspberry Pi (1)
- React <Framework, Informatik> (1)
- Rechnernetz (1)
- Regressionstest (1)
- Schwarmintelligenz (1)
- Schöpfungshöhe (1)
- Selbstmanagement (1)
- Semantisches Datenmodell (1)
- Siddhi (1)
- Simulation Modeling (1)
- Softwareentwicklung (1)
- Softwaretest (1)
- Stress (1)
- Studienarbeit (1)
- Subroutine (1)
- Unterprogramm (1)
- Urheberrecht (1)
- Usability Testing (1)
- Versicherungswirtschaft (1)
- Videokonferenz (1)
- Virtuelle Produktentwicklung (1)
- Virtuelle Realität (1)
- Wirtschaftsinformatik (1)
- Wirtschaftskriminalität (1)
- Wissensbasiertes System (1)
- Wissensextraktion (1)
- Zeiteinteilung (1)
- Zeitmanagement (1)
- Zufriedenheit (1)
- anaphylaxis (1)
- bluetooth low energy (1)
- cross-platform (1)
- cross-plattform (1)
- educational virtual realities (1)
- emergency medicine (1)
- flutter (1)
- head-mounted display (1)
- iOS (1)
- immersive media (1)
- presence experience (1)
- react native (1)
- simulation training (1)
- smart manufacturing (1)
- training effectiveness (1)
- vermeidbare Fehler (1)
- virtual emergency scenario (1)
- virtual patient simulation (1)
- virtual reality (1)
- Übung (1)
Institute
- Fakultät IV - Wirtschaft und Informatik (17) (remove)
Wie kann man den empfundenen Alltagsstress bewältigen und eigene, sinnvolle Ziele erreichen? Woher kommt die Zeitnot und was kann man tun? Gibt es Faktoren, die Glück und Erfolg fördern? Was kann man in seinem Studien- und Arbeitsalltag tun, um sich wohl zu fühlen und erfolgreich zu sein? Welche Zeitmanagement-Tools helfen bei der Organisation von Studium und Arbeitsalltag?
Diese und weitere Fragen werden im Workbook beantwortet. Der Selbstmanagement-Prozesskreis wird vorgestellt, verschiedene Modelle, Prinzipien und Techniken werden vermittelt. Mit vielen Reflexionsfragen und Übungen.
Am Beispiel des Fünf-Faktoren-Modells der Persönlichkeit aus der Psychologie (Big 5) wird exemplarisch gezeigt, wie komplexe Lerninhalte adäquat für eine Onlinevermittlung aufbereitet werden können und wie man zugleich die Lernmotivation der Teilnehmenden erhöhen kann. Hierfür wurde eine bestehende Lerneinheit mit Präsenzvermittlung im Umfang von einem halben Tag in ein Onlineformat übertragen. Der Kern des Onlineformats beinhaltet sechs Lernvideos, bestehend aus einem Videofilm zum Modellüberblick und je einem Videofilm für jeden der fünf Faktoren des Modells. In den Videofilmen agieren die fünf Mitglieder einer Rockband sowie ein Erzähler aus dem Off. Jedes Bandmitglied steht prototypisch für einen der fünf Faktoren des Modells. Die Darstellung der fünf Bandmitglieder (The Big Fives) und deren Interaktion werden als Grundlage genutzt, um die Anwendung des Fünf-Faktoren-Modells zu üben.
Background: Virtual reality (VR) is increasingly used as simulation technology in emergency medicine education and training, in particular for training nontechnical skills. Experimental studies comparing teaching and learning in VR with traditional training media often demonstrate the equivalence or even superiority regarding particular variables of learning or training effectiveness.
Objective: In the EPICSAVE (Enhanced Paramedic Vocational Training with Serious Games and Virtual Environments) project, a highly immersive room-scaled multi-user 3-dimensional VR simulation environment was developed. In this feasibility study, we wanted to gain initial insights into the training effectiveness and media use factors influencing learning and training in VR.
Methods: The virtual emergency scenario was anaphylaxis grade III with shock, swelling of the upper and lower respiratory tract, as well as skin symptoms in a 5-year-old girl (virtual patient) visiting an indoor family amusement park with her grandfather (virtual agent). A cross-sectional, one-group pretest and posttest design was used to evaluate the training effectiveness and quality of the training execution. The sample included 18 active emergency physicians.
Results: The 18 participants rated the VR simulation training positive in terms of training effectiveness and quality of the training execution. A strong, significant correlation (r=.53, P=.01) between experiencing presence and assessing training effectiveness was observed. Perceived limitations in usability and a relatively high extraneous cognitive load reduced this positive effect.
Conclusions: The training within the virtual simulation environment was rated as an effective educational approach. Specific media use factors appear to modulate training effectiveness (ie, improvement through “experience of presence” or reduction through perceived limitations in usability). These factors should be specific targets in the further development of this VR simulation training.
Microservices is an architectural style for complex application systems, promising some crucial benefits, e.g. better maintainability, flexible scalability, and fault tolerance. For this reason microservices has attracted attention in the software development departments of different industry sectors, such as ecommerce and streaming services. On the other hand, businesses have to face great challenges, which hamper the adoption of the architectural style. For instance, data are often persisted redundantly to provide fault tolerance. But the synchronization of those data for the sake of consistency is a major challenge. Our paper presents a case study from the insurance industry which focusses consistency issues when migrating a monolithic core application towards microservices. Based on the Domain Driven Design (DDD) methodology, we derive bounded contexts and a set of microservices assigned to these contexts. We discuss four different approaches to ensure consistency and propose a best practice to identify the most appropriate approach for a given scenario. Design and implementation details and compliance issues are presented as well.
Die vergleichende Fallstudie untersucht die Auswirkungen des Einsatzes von Videokonferenzsoftware (VKS) in einer kooperativen Lernumgebung in einem Masterseminar der Hochschule Hannover im Studiengang Unternehmensentwicklung. Es wurden 13 problemzentrierte Interviews mit Teilnehmenden eines Online- und eines Präsenzkurses geführt. Die gewonnenen Daten aus den Interviewaussagen wurden unter Anwendung des an der Hochschule eingesetzten Evaluationsfragebogens auf Plausibilität geprüft. Es wurden acht Probanden aus dem Onlinekurs und fünf Probanden aus dem vorherigen Präsenzkurs befragt. Die Interviews wurden über eine qualitative Inhaltsanalyse ausgewertet. Die zentralen
Ergebnisse waren, dass das Teleteaching zwar funktioniert, die Onlinestudierenden aber eine niedrigere Aufmerksamkeit, eine gehemmte aktive Beteiligung, eine geringere Interaktion zwischen den Studierenden und eine erschwerte Interaktion in den Gruppenarbeiten wahrnehmen. Als größte Nachteile wurden die fehlenden persönlichen Kontakte und die niedrige Aufmerksamkeit identifiziert. Als größter Vorteil erwies sich die erhöhte Flexibilität durch den ersparten Anfahrtsweg. Ein für Teleteaching zentraler Erfolgsfaktor ist, dass die Kameras auch bei den Teilnehmenden angeschaltet sein sollten, damit die Aufmerksamkeit und die aktive Beteiligung gefördert werden. Zwölf der Probanden stuften den VKS-Einsatz als sinnvolle Ergänzung für Seminare ein. Präsenzseminare sind aber keinesfalls durch Onlineseminare zu ersetzen.
Der Autobewerter Graja, der in der Lehre zum Bewerten studentischer Java-Programme verwendet wird, stellt ein komplexes Softwaresystem dar. Aufgrund einer kaum vorhandenen Testabdeckung durch Modul- und Integrationstests, ist die Gewährleistung der fehlerfreien Funktionalität in Hinsicht auf die Weiterentwicklung nicht garantiert. Da sich Graja auf das ProFormA-Aufgabenformat stützt, stellt sich die Frage, inwiefern sich die im ProFormA-Aufgabenformat vorausgesetzten Musterlösungen, für einen automatisierten Regressionstestmechanismus eignen.
Das Ziel dieser Forschung ist es ein Konzept, für einen solchen Regressionstestmechanismus zu erstellen und mithilfe einer Referenzimplementierung als Graja-Erweiterung in die Praxis umzusetzen. Der daraus entstandene Mechanismus operiert durch Verhaltensaufzeichnung und Verhaltensabgleich und konvertiert so das in Graja beobachtete Bewertungsverhalten einer Musterlösung in einen Testfall. In der Testphase findet anschließend ein Abgleich des Soll-Verhaltens eines Testfalls und des beobachteten Ist-Verhaltens einer Musterlösung statt. Die Differenzen dieses Abgleichs sind als potenzielle Regressionen zu behandeln, da diese eine semantische Änderung des Bewertungsergebnisses darstellen.
Um diesen Verhaltensabgleich robust und mit möglichst wenigen Fehlalarme zu realisieren, wurden die in Graja verwendeten Datenmodelle auf Eignung bezüglich einer Verhaltensaufzeichnung untersucht. Außerdem fand eine Datenaufzeichnung mit einer Teilmenge der Musterlösungen statt. Nachfolgend wurde eine Analyse dieser Rohdaten, mit dem Ziel potenzielles Rauschen innerhalb der Aufzeichnungen zu detektieren, durchgeführt. So konnte letztendlich eine Strategie für eine Rauschunterdrückung innerhalb der Verhaltensaufzeichnung entwickelt werden.
Abschließend wurde ein Datenmodell entwickelt, das erlaubt, die durch den Verhaltensabgleich detektierten Regressionen verständlich und lokalisierbar darzustellen. Der durch diese Arbeit entstandene automatisierte Regressionstestmechanismus stellt somit eine Grundlage für die Gewährleistung der korrekten Bewertungsfunktionalität innerhalb des Graja-Entwicklungsprozesses dar. Durch das Detektieren von Regressionen mithilfe der Musterlösungen, lassen sich nun Änderungen an Graja gewissenhaft in eine Produktionsumgebung übernehmen.
In diesem Beitrag werden die Ergebnisse einer Personalbefragung österreichischer Polizisten und Polizistinnen in Ausbildung geschildert, bei denen die Einstellung zu Korruption erhoben wurde. Weiterhin wurden Variablen wie Geschlecht, Alter und Bildungsgrad erhoben, die in Hellfeldforschung zu Korruption häufig als Merkmale von Korruptionstätern und Korruptionstäterinnen genannt werden. Im Fokus dieses Beitrags steht unter anderem die Frage, inwieweit sich Befunde aus dem Hellfeld von Korruption im Dunkelfeld abbilden. Zur Klärung dieser Frage werden Merkmale aus dem Hellfeld der Korruptionstäter und Korruptionstäterinnen auf eine Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption im Dunkelfeld überprüft. Zudem wird in diesem Beitrag die Frage geklärt, wie die Polizisten und Polizistinnen in Ausbildung hinsichtlich der Einstellung zu Korruption im Vergleich mit der Allgemeinbevölkerung Österreichs abschneiden. Polizisten und Polizistinnen in Ausbildung sind für das Bundesamt zur Korruptionsprävention und Korruptionsbekämpfung (kurz: BAK) die größte Zielgruppe bei der Ausbildung und Weiterbildung öffentlich Bediensteter in Österreich.
Die Ergebnisse lassen erkennen, dass sich die Befunde aus dem Hellfeld von Korruption nicht im Dunkelfeld abbilden, denn die überprüften Variablen weisen insgesamt betrachtet keine substanzielle Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption auf. Hinsichtlich des Vergleichs der österreichischen Polizisten und Polizistinnen in Ausbildung mit der Allgemeinbevölkerung Österreichs zeigen sich nur geringfügige Unterschiede in der Einstellung zu Korruption. Tendenziell lehnen die Polizisten und Polizistinnen in Ausbildung Korruption eher ab als die Allgemeinbevölkerung Österreichs.
Unter Crowdsensing versteht man Anwendungen, in denen Sensordaten kollaborativ von einer Menge von Freiwilligen erhoben werden. So kann Crowdsensing eingesetzt werden um die Luftqualität an Orten zu messen, an denen keine fest installierten Sensoren verfügbar sind. In Crowdsensing-Systemen müssen die Teilnehmer koordiniert und die Messdaten verarbeitet werden, um relevante Daten zu erhalten. Im Rahmen der Abschlussarbeit wurde ein System konzipiert und prototypisch umgesetzt, das auf einem Raspberry Pi (unter Einsatz geeigneter Sensoren) Sensordaten erhebt und mit der Complex Event Processing Technologie verarbeitet.
In parcel delivery, the “last mile” from the parcel hub to the customer is costly, especially for time-sensitive delivery tasks that have to be completed within hours after arrival. Recently, crowdshipping has attracted increased attention as a new alternative to traditional delivery modes. In crowdshipping, private citizens (“the crowd”) perform short detours in their daily lives to contribute to parcel delivery in exchange for small incentives. However, achieving desirable crowd behavior is challenging as the crowd is highly dynamic and consists of autonomous, self-interested individuals. Leveraging crowdshipping for time-sensitive deliveries remains an open challenge. In this paper, we present an agent-based approach to on-time parcel delivery with crowds. Our system performs data stream processing on the couriers’ smartphone sensor data to predict delivery delays. Whenever a delay is predicted, the system attempts to forge an agreement for transferring the parcel from the current deliverer to a more promising courier nearby. Our experiments show that through accurate delay predictions and purposeful task transfers many delays can be prevented that would occur without our approach.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
Untersuchungen zu Berufen der Wirtschaftsinformatik bleiben weiterhin
interessant, wenn sie helfen können, dem mittlerweile länger anhaltenden
IT-Fachkräftemangel entgegenzuwirken. Eine Untersuchung der Hochschule
Hannover zu Wirtschaftsinformatikern/-informatikerinnen in den ersten zehn Jahren im Beruf zeigt deren berufliche Ziele und die berufliche Zufriedenheit, die sie erlangen. Deutlich wird, dass Frauen und Männer das Arbeitsklima und die Arbeitsbedingungen sehr unterschiedlich wahrnehmen und daher auch unterschiedlich zufrieden sind. Dabei bemängeln Frauen vor allem Merkmale, die mit „fehlender Fairness“ zu beschreiben sind.
Vor der Abgabe einer Studien- oder Abschlussarbeit ist dringend eine sorgfältige Überarbeitung in Form einer Endredaktion vorzunehmen, um eine gute Bewertung der Arbeit nicht zu gefährden. Dies ist einfach; denn das Vorgehen ist schlicht und wenig aufwändig. Daher wäre es besonders ärgerlich, einfache Fehler nicht zu beheben und dafür Abzüge bei der Bewertung der Arbeit hinzunehmen. Für eine Endredaktion wird hiermit eine Anleitung vorgelegt.
With an increasing complexity and scale, sufficient evaluation of Information Systems (IS) becomes a challenging and difficult task. Simulation modeling has proven as suitable and efficient methodology for evaluating IS and IS artifacts, presupposed it meets certain quality demands. However, existing research on simulation modeling quality solely focuses on quality in terms of accuracy and credibility, disregarding the role of additional quality aspects. Therefore, this paper proposes two design artifacts in order to ensure a holistic quality view on simulation quality. First, associated literature is reviewed in order to extract relevant quality factors in the context of simulation modeling, which can be used to evaluate the overall quality of a simulated solution before, during or after a given project. Secondly, the deduced quality factors are integrated in a quality assessment framework to provide structural guidance on the quality assessment procedure for simulation. In line with a Design Science Research (DSR) approach, we demonstrate the eligibility of both design artifacts by means of prototyping as well as an example case. Moreover, the assessment framework is evaluated and iteratively adjusted with the help of expert feedback.
Vergleich von nativer App- und Cross-Platform-Entwicklung (Facebook React Native und Google Flutter)
(2020)
Die Entwicklung mobiler Applikationen für iOS und Android ist in der Regel mit viel Arbeit verbunden, da man für beide Plattformen gezwungenermaßen unterschiedlichen Quelltext schreiben muss. Abhilfe für dieses Problem schaffen Cross-Platform-Frameworks wie React Native von Facebook oder Flutter von Google. Anhand dieser Frameworks lassen sich Apps für beide Plattformen mit nur einer Codebase entwickeln. Eine kritische Stelle und oft gebrauchtes Kontra-Argument gegen die Entwicklung mit Cross-Platform-Frameworks ist die Hardwarenähe der nativen Applikationen, an welcher es den Frameworks vermeintlich mangelt. Doch wie ist der Stand der Dinge im Jahr 2020? Können Cross-Platform-Frameworks inzwischen performant und einfach auf Hardwarekomponenten zugreifen und machen damit die mühsame, native Entwicklung für iOS und Android vor allem in Anbetracht der Entwicklung von größerer Enterprise-Software obsolet?
Dieser Frage wird in dieser Arbeit nachgegangen und generell überprüft wie tauglich die Cross-Platform-Entwicklung ist. Nach dem Lesen dieser Bachelorarbeit sollte entschieden werden können, ob Cross-Platform-Frameworks für das Anwendungsproblem des Lesers geeignet sind. Um die Forschungsfrage zu beantworten, wurden je zwei Applikationen im Rahmen einer Fallstudie für je iOS und Android entwickelt, damit geprüft werden konnte, wie förderlich die zuvor genannten Frameworks sind. Der Fokus der Arbeit liegt also auf der Güte bzw. dem heutigen Stand der Cross-Platform-Entwicklung, vor allem im Bezug auf die Benutzung von Hardwarekomponenten bzw. betriebssystemspezifischen Diensten (Bluetooth, Kamera, etc.).
Die Ergebnisse der Fallstudie zeigen, dass es stets auf den Kontext und die Komplexität der zu realisierenden Anwendung ankommt inwiefern Cross-Platform-Frameworks verwendet werden können. In simplen Anwendungsfällen können Frameworks meist zu einer erheblichen Kostenminimierung und Zeitersparnis führen, wohingegen bei komplexeren Anwendungen relativ schnell Grenzen und starke Abhängigkeiten erreicht werden.
The network security framework VisITMeta allows the visual evaluation and management of security event detection policies. By means of a "what-if" simulation the sensitivity of policies to specific events can be tested and adjusted. This paper presents the results of a user study for testing the usability of the approach by measuring the correct completion of given tasks as well as the user satisfaction by means of the system usability scale.
Das Forschungscluster Industrie 4.0 stellt in acht Beiträgen aktuelle Ergebnisse aus seinen vielfältigen Forschungsprojekten vor. Es werden virtuelle Techniken in der Produktentwicklung, Lehrkonzepte für Industrie 4.0, Energy Harvesting bei Antennen, Energiemanagement in Produktionsanlagen, firmenübergreifende IT-Security Anforderungen, dezentral gesteuerte Produktionsprozesse und Spracherkennung mit Mikrocontrollern behandelt.
Das Forschungscluster Smart Data Analytics stellt in dem vorliegenden Band seine Forschung aus den Jahren 2019 und 2020 vor. In der ersten Hälfte des Bandes geben 20 Kurzporträts von laufenden oder kürzlich abgeschlossenen Projekten einen Überblick über die Forschungsthemen im Cluster. Enthalten in den Kurzporträts ist eine vollständige, kommentierte Liste der wissenschaftlichen Veröffentlichungen aus den Jahren 2019 und 2020. In der zweiten Hälfte dieses Bandes geben vier längere Beiträge exemplarisch einen tieferen Einblick in die Forschung des Clusters und behandeln Themen wie Fehlererkennung in Datenbanken, Analyse und Visualisierung von Sicherheitsvorfällen in Netzwerken, Wissensmodellierung und Datenintegration in der Medizin, sowie die Frage ob ein Computerprogramm Urheber eines Kunstwerkes im Sinne des Urheberrechts sein kann.