Refine
Year of publication
- 2020 (17) (remove)
Document Type
- Article (3)
- Bachelor Thesis (3)
- Book (3)
- Conference Proceeding (3)
- Master's Thesis (2)
- Working Paper (2)
- Part of a Book (1)
Has Fulltext
- yes (17)
Is part of the Bibliography
- no (17)
Keywords
- Benutzerfreundlichkeit (2)
- Computersicherheit (2)
- E-Learning (2)
- Evaluation (2)
- Simulation (2)
- Visual Analytics (2)
- 5-Faktoren-Modell der Persönlichkeit (1)
- Abschlussarbeit (1)
- Agent <Informatik> (1)
- Air Quality Monitoring (1)
- Android <Systemplattform> (1)
- Arbeitsklima (1)
- Arbeitswelt (1)
- Berufsleben (1)
- Berufsziel (1)
- Berufszufriedenheit (1)
- Checkliste (1)
- Complex Event Processing (1)
- Consistency (1)
- Crowdsensing (1)
- Crowdshipping (1)
- Datenbank (1)
- Datenbanksprache (1)
- Datenintegration (1)
- Datenmanagement (1)
- Datenmodell (1)
- Datenqualität (1)
- Datenstrom (1)
- Design Science (1)
- Designwissenschaft <Informatik> (1)
- Digitale Fabrik (1)
- Digitalisierung (1)
- Domain Driven Design (DDD) (1)
- Eilzustellung (1)
- Einstellung (1)
- Endredaktion (1)
- Energiemanagement (1)
- Energy Harvesting (1)
- Erfolg (1)
- Evolutionärer Algorithmus (1)
- Fallstudie (1)
- Fehlererkennung (1)
- Fehlerverhütung (1)
- Fertigungsanlage (1)
- Framework (1)
- Framework <Informatik> (1)
- Genetische Programmierung (1)
- Gesundheitsinformationssystem (1)
- Graja (1)
- Industrie 4.0 (1)
- Industry 4.0 (1)
- Information Visualization (1)
- Insurance Industry (1)
- Klein- und Mittelbetrieb (1)
- Kontraproduktivität (1)
- Kooperative Lernumgebung (1)
- Korruption (1)
- Luftqualität (1)
- Machine Learning (1)
- Maschinelles Lernen (1)
- Microservices (1)
- Mikrocontroller (1)
- Mikroservice (1)
- Monitoring (1)
- Network Security (1)
- Notfallmedizin (1)
- Online-Lehre (1)
- Onlineseminar (1)
- Organisation (1)
- Paket (1)
- Personalentwicklung (1)
- Policy Evaluation (1)
- Polizei (1)
- Portabilität (1)
- Produktionsanlage (1)
- Programmsynthese (1)
- Psychologie (1)
- Qualitative Inhaltsanalyse (1)
- Quality assessment (1)
- Qualität (1)
- Raspberry Pi (1)
- React <Framework, Informatik> (1)
- Rechnernetz (1)
- Regressionstest (1)
- Schwarmintelligenz (1)
- Schöpfungshöhe (1)
- Selbstmanagement (1)
- Semantisches Datenmodell (1)
- Siddhi (1)
- Simulation Modeling (1)
- Softwareentwicklung (1)
- Softwaretest (1)
- Stress (1)
- Studienarbeit (1)
- Subroutine (1)
- Unterprogramm (1)
- Urheberrecht (1)
- Usability Testing (1)
- Versicherungswirtschaft (1)
- Videokonferenz (1)
- Virtuelle Produktentwicklung (1)
- Virtuelle Realität (1)
- Wirtschaftsinformatik (1)
- Wirtschaftskriminalität (1)
- Wissensbasiertes System (1)
- Wissensextraktion (1)
- Zeiteinteilung (1)
- Zeitmanagement (1)
- Zufriedenheit (1)
- anaphylaxis (1)
- bluetooth low energy (1)
- cross-platform (1)
- cross-plattform (1)
- educational virtual realities (1)
- emergency medicine (1)
- flutter (1)
- head-mounted display (1)
- iOS (1)
- immersive media (1)
- presence experience (1)
- react native (1)
- simulation training (1)
- smart manufacturing (1)
- training effectiveness (1)
- vermeidbare Fehler (1)
- virtual emergency scenario (1)
- virtual patient simulation (1)
- virtual reality (1)
- Übung (1)
Institute
- Fakultät IV - Wirtschaft und Informatik (17) (remove)
The network security framework VisITMeta allows the visual evaluation and management of security event detection policies. By means of a "what-if" simulation the sensitivity of policies to specific events can be tested and adjusted. This paper presents the results of a user study for testing the usability of the approach by measuring the correct completion of given tasks as well as the user satisfaction by means of the system usability scale.
Vergleich von nativer App- und Cross-Platform-Entwicklung (Facebook React Native und Google Flutter)
(2020)
Die Entwicklung mobiler Applikationen für iOS und Android ist in der Regel mit viel Arbeit verbunden, da man für beide Plattformen gezwungenermaßen unterschiedlichen Quelltext schreiben muss. Abhilfe für dieses Problem schaffen Cross-Platform-Frameworks wie React Native von Facebook oder Flutter von Google. Anhand dieser Frameworks lassen sich Apps für beide Plattformen mit nur einer Codebase entwickeln. Eine kritische Stelle und oft gebrauchtes Kontra-Argument gegen die Entwicklung mit Cross-Platform-Frameworks ist die Hardwarenähe der nativen Applikationen, an welcher es den Frameworks vermeintlich mangelt. Doch wie ist der Stand der Dinge im Jahr 2020? Können Cross-Platform-Frameworks inzwischen performant und einfach auf Hardwarekomponenten zugreifen und machen damit die mühsame, native Entwicklung für iOS und Android vor allem in Anbetracht der Entwicklung von größerer Enterprise-Software obsolet?
Dieser Frage wird in dieser Arbeit nachgegangen und generell überprüft wie tauglich die Cross-Platform-Entwicklung ist. Nach dem Lesen dieser Bachelorarbeit sollte entschieden werden können, ob Cross-Platform-Frameworks für das Anwendungsproblem des Lesers geeignet sind. Um die Forschungsfrage zu beantworten, wurden je zwei Applikationen im Rahmen einer Fallstudie für je iOS und Android entwickelt, damit geprüft werden konnte, wie förderlich die zuvor genannten Frameworks sind. Der Fokus der Arbeit liegt also auf der Güte bzw. dem heutigen Stand der Cross-Platform-Entwicklung, vor allem im Bezug auf die Benutzung von Hardwarekomponenten bzw. betriebssystemspezifischen Diensten (Bluetooth, Kamera, etc.).
Die Ergebnisse der Fallstudie zeigen, dass es stets auf den Kontext und die Komplexität der zu realisierenden Anwendung ankommt inwiefern Cross-Platform-Frameworks verwendet werden können. In simplen Anwendungsfällen können Frameworks meist zu einer erheblichen Kostenminimierung und Zeitersparnis führen, wohingegen bei komplexeren Anwendungen relativ schnell Grenzen und starke Abhängigkeiten erreicht werden.
With an increasing complexity and scale, sufficient evaluation of Information Systems (IS) becomes a challenging and difficult task. Simulation modeling has proven as suitable and efficient methodology for evaluating IS and IS artifacts, presupposed it meets certain quality demands. However, existing research on simulation modeling quality solely focuses on quality in terms of accuracy and credibility, disregarding the role of additional quality aspects. Therefore, this paper proposes two design artifacts in order to ensure a holistic quality view on simulation quality. First, associated literature is reviewed in order to extract relevant quality factors in the context of simulation modeling, which can be used to evaluate the overall quality of a simulated solution before, during or after a given project. Secondly, the deduced quality factors are integrated in a quality assessment framework to provide structural guidance on the quality assessment procedure for simulation. In line with a Design Science Research (DSR) approach, we demonstrate the eligibility of both design artifacts by means of prototyping as well as an example case. Moreover, the assessment framework is evaluated and iteratively adjusted with the help of expert feedback.
Untersuchungen zu Berufen der Wirtschaftsinformatik bleiben weiterhin
interessant, wenn sie helfen können, dem mittlerweile länger anhaltenden
IT-Fachkräftemangel entgegenzuwirken. Eine Untersuchung der Hochschule
Hannover zu Wirtschaftsinformatikern/-informatikerinnen in den ersten zehn Jahren im Beruf zeigt deren berufliche Ziele und die berufliche Zufriedenheit, die sie erlangen. Deutlich wird, dass Frauen und Männer das Arbeitsklima und die Arbeitsbedingungen sehr unterschiedlich wahrnehmen und daher auch unterschiedlich zufrieden sind. Dabei bemängeln Frauen vor allem Merkmale, die mit „fehlender Fairness“ zu beschreiben sind.
Vor der Abgabe einer Studien- oder Abschlussarbeit ist dringend eine sorgfältige Überarbeitung in Form einer Endredaktion vorzunehmen, um eine gute Bewertung der Arbeit nicht zu gefährden. Dies ist einfach; denn das Vorgehen ist schlicht und wenig aufwändig. Daher wäre es besonders ärgerlich, einfache Fehler nicht zu beheben und dafür Abzüge bei der Bewertung der Arbeit hinzunehmen. Für eine Endredaktion wird hiermit eine Anleitung vorgelegt.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
In parcel delivery, the “last mile” from the parcel hub to the customer is costly, especially for time-sensitive delivery tasks that have to be completed within hours after arrival. Recently, crowdshipping has attracted increased attention as a new alternative to traditional delivery modes. In crowdshipping, private citizens (“the crowd”) perform short detours in their daily lives to contribute to parcel delivery in exchange for small incentives. However, achieving desirable crowd behavior is challenging as the crowd is highly dynamic and consists of autonomous, self-interested individuals. Leveraging crowdshipping for time-sensitive deliveries remains an open challenge. In this paper, we present an agent-based approach to on-time parcel delivery with crowds. Our system performs data stream processing on the couriers’ smartphone sensor data to predict delivery delays. Whenever a delay is predicted, the system attempts to forge an agreement for transferring the parcel from the current deliverer to a more promising courier nearby. Our experiments show that through accurate delay predictions and purposeful task transfers many delays can be prevented that would occur without our approach.
Unter Crowdsensing versteht man Anwendungen, in denen Sensordaten kollaborativ von einer Menge von Freiwilligen erhoben werden. So kann Crowdsensing eingesetzt werden um die Luftqualität an Orten zu messen, an denen keine fest installierten Sensoren verfügbar sind. In Crowdsensing-Systemen müssen die Teilnehmer koordiniert und die Messdaten verarbeitet werden, um relevante Daten zu erhalten. Im Rahmen der Abschlussarbeit wurde ein System konzipiert und prototypisch umgesetzt, das auf einem Raspberry Pi (unter Einsatz geeigneter Sensoren) Sensordaten erhebt und mit der Complex Event Processing Technologie verarbeitet.
In diesem Beitrag werden die Ergebnisse einer Personalbefragung österreichischer Polizisten und Polizistinnen in Ausbildung geschildert, bei denen die Einstellung zu Korruption erhoben wurde. Weiterhin wurden Variablen wie Geschlecht, Alter und Bildungsgrad erhoben, die in Hellfeldforschung zu Korruption häufig als Merkmale von Korruptionstätern und Korruptionstäterinnen genannt werden. Im Fokus dieses Beitrags steht unter anderem die Frage, inwieweit sich Befunde aus dem Hellfeld von Korruption im Dunkelfeld abbilden. Zur Klärung dieser Frage werden Merkmale aus dem Hellfeld der Korruptionstäter und Korruptionstäterinnen auf eine Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption im Dunkelfeld überprüft. Zudem wird in diesem Beitrag die Frage geklärt, wie die Polizisten und Polizistinnen in Ausbildung hinsichtlich der Einstellung zu Korruption im Vergleich mit der Allgemeinbevölkerung Österreichs abschneiden. Polizisten und Polizistinnen in Ausbildung sind für das Bundesamt zur Korruptionsprävention und Korruptionsbekämpfung (kurz: BAK) die größte Zielgruppe bei der Ausbildung und Weiterbildung öffentlich Bediensteter in Österreich.
Die Ergebnisse lassen erkennen, dass sich die Befunde aus dem Hellfeld von Korruption nicht im Dunkelfeld abbilden, denn die überprüften Variablen weisen insgesamt betrachtet keine substanzielle Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption auf. Hinsichtlich des Vergleichs der österreichischen Polizisten und Polizistinnen in Ausbildung mit der Allgemeinbevölkerung Österreichs zeigen sich nur geringfügige Unterschiede in der Einstellung zu Korruption. Tendenziell lehnen die Polizisten und Polizistinnen in Ausbildung Korruption eher ab als die Allgemeinbevölkerung Österreichs.
Der Autobewerter Graja, der in der Lehre zum Bewerten studentischer Java-Programme verwendet wird, stellt ein komplexes Softwaresystem dar. Aufgrund einer kaum vorhandenen Testabdeckung durch Modul- und Integrationstests, ist die Gewährleistung der fehlerfreien Funktionalität in Hinsicht auf die Weiterentwicklung nicht garantiert. Da sich Graja auf das ProFormA-Aufgabenformat stützt, stellt sich die Frage, inwiefern sich die im ProFormA-Aufgabenformat vorausgesetzten Musterlösungen, für einen automatisierten Regressionstestmechanismus eignen.
Das Ziel dieser Forschung ist es ein Konzept, für einen solchen Regressionstestmechanismus zu erstellen und mithilfe einer Referenzimplementierung als Graja-Erweiterung in die Praxis umzusetzen. Der daraus entstandene Mechanismus operiert durch Verhaltensaufzeichnung und Verhaltensabgleich und konvertiert so das in Graja beobachtete Bewertungsverhalten einer Musterlösung in einen Testfall. In der Testphase findet anschließend ein Abgleich des Soll-Verhaltens eines Testfalls und des beobachteten Ist-Verhaltens einer Musterlösung statt. Die Differenzen dieses Abgleichs sind als potenzielle Regressionen zu behandeln, da diese eine semantische Änderung des Bewertungsergebnisses darstellen.
Um diesen Verhaltensabgleich robust und mit möglichst wenigen Fehlalarme zu realisieren, wurden die in Graja verwendeten Datenmodelle auf Eignung bezüglich einer Verhaltensaufzeichnung untersucht. Außerdem fand eine Datenaufzeichnung mit einer Teilmenge der Musterlösungen statt. Nachfolgend wurde eine Analyse dieser Rohdaten, mit dem Ziel potenzielles Rauschen innerhalb der Aufzeichnungen zu detektieren, durchgeführt. So konnte letztendlich eine Strategie für eine Rauschunterdrückung innerhalb der Verhaltensaufzeichnung entwickelt werden.
Abschließend wurde ein Datenmodell entwickelt, das erlaubt, die durch den Verhaltensabgleich detektierten Regressionen verständlich und lokalisierbar darzustellen. Der durch diese Arbeit entstandene automatisierte Regressionstestmechanismus stellt somit eine Grundlage für die Gewährleistung der korrekten Bewertungsfunktionalität innerhalb des Graja-Entwicklungsprozesses dar. Durch das Detektieren von Regressionen mithilfe der Musterlösungen, lassen sich nun Änderungen an Graja gewissenhaft in eine Produktionsumgebung übernehmen.