Refine
Year of publication
Document Type
- Bachelor Thesis (47) (remove)
Has Fulltext
- yes (47)
Is part of the Bibliography
- no (47)
Keywords
- Benutzerfreundlichkeit (4)
- Lernsoftware (4)
- Usability (4)
- Deep learning (3)
- Maschinelles Lernen (3)
- Neuronales Netz (3)
- Verwaltung (3)
- Aufgabenüberprüfung (2)
- Complex Event Processing (2)
- Machine Learning (2)
- Marketing (2)
- Moodle (2)
- Nachhaltigkeit (2)
- Siddhi (2)
- Softwareentwicklung (2)
- Softwaretest (2)
- XML (2)
- Öffentlicher Personennahverkehr (2)
- AI (1)
- Abalone (1)
- Agile Softwareentwicklung (1)
- Agilität <Management> (1)
- Air Quality Monitoring (1)
- Algorithmus (1)
- AlphaGo (1)
- Android <Systemplattform> (1)
- Anforderungsmanagement (1)
- Angular (1)
- Anwendungssystem (1)
- App <Programm> (1)
- Aufgabensammlung (1)
- Augmented Reality (1)
- Auswertung (1)
- Autobewerter (1)
- Automatic Identification System <Schifffahrt> (1)
- Automation (1)
- Autonomes Fahrzeug (1)
- Außerirdisches Leben (1)
- Baum (1)
- Befragung (1)
- Bekleidungsindustrie (1)
- Belohnung (1)
- Benutzererlebnis (1)
- Benutzeroberfläche (1)
- Bestärkendes Lernen <Künstliche Intelligenz> (1)
- Beziehungsmanagement (1)
- Bildgebendes Verfahren (1)
- Brettspiel (1)
- Bronchokonstriktion (1)
- Business Intelligence (1)
- C2C (1)
- Cochlea (1)
- Commitment (1)
- Company (1)
- Competitive Intelligence (1)
- Complex Event Processing Engine (1)
- Computer Graphics (1)
- Computergrafik (1)
- Computersimulation (1)
- Contactless Payment (1)
- Container (1)
- Corruption (1)
- Crowdsensing (1)
- Data Management (1)
- Data Quality (1)
- Datenmanagement (1)
- Datenqualität (1)
- Datenverarbeitungssystem (1)
- Deep Learning (1)
- Design Thinking (1)
- Desktop-Computer (1)
- Digitale Pathologie (1)
- Digitalisierung (1)
- Dunkle Triade (1)
- E-Assessment (1)
- E-Government (1)
- E-Learning (1)
- E-Voting (1)
- EAP (1)
- Editor (1)
- Electronic Payment (1)
- Elektronische Wahl (1)
- Emotional Competence (1)
- Emotionale Kompetenz (1)
- Erfolgskontrolle (1)
- Erweiterte Realität <Informatik> (1)
- Esper (1)
- Evolutionärer Algorithmus (1)
- Eye-Tracking (1)
- Facebook (1)
- Factorial Survey (1)
- Fahrplan (1)
- Faktorieller Survey (1)
- Fallstudie (1)
- Frageverhalten (1)
- Freiluftsport (1)
- Führung (1)
- GPGPU (1)
- General Purpose Computation on Graphics Processing Unit (1)
- Generation Y (1)
- Genetischer Algorithmus (1)
- Gesundheit (1)
- GraFLAP (1)
- Grader (1)
- Graja (1)
- Grappa (1)
- Green Tourism (1)
- Handypayment (1)
- Hardwarebeschleunigung (1)
- IEEE 802.1X (1)
- IT-Sicherheit (1)
- Incentivierung (1)
- Instanziierungsservice (1)
- Intelligent Transport Systems (ITS) (1)
- JFLAP-Wrapper (1)
- JFugue (1)
- JUnit (1)
- Java <Programmiersprache> (1)
- Java <Programmiersprache> (1)
- KPI (1)
- Key Performance Indicator (1)
- Klein- und Mittelbetrieb (1)
- Kommunalwahl (1)
- Kommunikation (1)
- Komposition <Musik> (1)
- Konfigurationen (1)
- Konfigurationsverwaltung (1)
- Konkurrenzanalyse (1)
- Kontaktloses Bezahlen (1)
- Konverter (1)
- Korruption (1)
- Künstliche Intelligenz (1)
- LON-CAPA (1)
- Landesbehörde (1)
- Landmarke (1)
- Landmarkenbasierte Registrierung (1)
- Landwirtschaft (1)
- Leistungskennzahl (1)
- Leistungskennzahlen (1)
- Lernerfolgsmessung (1)
- Luftqualität (1)
- M-Payment (1)
- Machiavellismus (1)
- Marketingstrategie (1)
- Marktanalyse (1)
- Marktpotenzial (1)
- Maschinelles Sehen (1)
- Mediendesign (1)
- Menschliche Cochlea (1)
- Metriken (1)
- Mobile Money Transfer (1)
- Mobile-Payment (1)
- Mobiles Internet (1)
- Mobilfunkbasierende Bezahlung (1)
- Modellierung (1)
- Monitoring (1)
- MooPT (1)
- Moodle-STACK (1)
- Musikkomposition (1)
- Narzissmus (1)
- Netzwerk (1)
- Netzwerksicherheit (1)
- Node.js (1)
- Numerische Optimierung (1)
- Optimierung (1)
- Optische Zeichenerkennung (1)
- Organisationaler Zynismus (1)
- Organizational Cynicism (1)
- Outdoor (1)
- Parametrisierung (1)
- Pathologie (1)
- Payment (1)
- Personality (1)
- Personalpolitik (1)
- Persönlichkeit (1)
- Physically Based Rendering (1)
- Portabilität (1)
- ProFormA (1)
- Prognose (1)
- Programmieraufgabe (1)
- Programmierumgebung (1)
- Prototyp (1)
- Psychopathie (1)
- Punktwolke (1)
- RADIUS (1)
- Raspberry Pi (1)
- Raycasting (1)
- React <Framework, Informatik> (1)
- Real-Time Rendering (1)
- Regressionstest (1)
- Reinforcement Learning (1)
- Relationenalgebra (1)
- Rendering (1)
- Requirements engineering (1)
- Rückmeldung (1)
- Rückverfolgbarkeit (1)
- SUMO (Simulation of Urban MObility) (1)
- Salutogenese (1)
- Sandbox (1)
- Scientific Visualization (1)
- Server (1)
- Sicherheit (1)
- Signalverarbeitung (1)
- Simulation (1)
- Skelettieren <Bildverarbeitung> (1)
- Social Media (1)
- Social entrepreneurship (1)
- Software Engineering (1)
- Sprachassistent (1)
- Startup (1)
- Straßenverkehr (1)
- Studienerfolg (1)
- Super Resolution (1)
- Sustainability (1)
- Sustainable Tourism (1)
- Tourism (1)
- Tourismusmarketing (1)
- Traceability (1)
- Traffic Prediction (1)
- Traffic Simulation (1)
- Trusted Computing (1)
- UX/UI (1)
- Umsetzung <Informatik> (1)
- Unternehmen (1)
- Unternehmensgründung (1)
- Usability-Test (1)
- VOXEL (1)
- Verbesserung (1)
- Verkehrsleitsystem (1)
- Vertrauensdienste (1)
- Virtuelle soziale Netzwerke (1)
- Visualisierung (1)
- Volumen-Rendering (1)
- Web-Anwendung (1)
- WebGL (1)
- WebGL Einstieg (1)
- Webanwendung (1)
- Webentwicklung (1)
- Webgazer (1)
- Wettbewerbsanalyse (1)
- Wissensmanagement (1)
- Work-Life-Balance (1)
- World Wide Web (1)
- World Wide Web 2.0 (1)
- XING (1)
- abgesicherte Ausführungsumgebung (1)
- bluetooth low energy (1)
- combining simulation and machine learning (1)
- cross-platform (1)
- cross-plattform (1)
- flutter (1)
- generischer Editor (1)
- iOS (1)
- machine learning (1)
- mobile first (1)
- parameterization (1)
- question behaviour (1)
- react native (1)
- shared autonomous vehicle (1)
- simulation (1)
- studiVZ (1)
- variable Programmieraufgabe (1)
- zeitnahe Datenverarbeitung (1)
- ÖPNV (1)
- Öffentliche Verwaltung (1)
- Ökotourismus (1)
Institute
- Fakultät IV - Wirtschaft und Informatik (47) (remove)
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
Virtuelle soziale Netzwerke gewinnen im Bereich des Human Resource Managements an Bedeutung. In der vorliegenden Arbeit wird die Nutzbarkeit von virtuellen sozialen Netzwerken für das Human Resource Management systematisch untersucht. Die vorliegende Arbeit liefert zunächst theoretische Grundlagen in Bezug auf die verschiedenen Aufgabenfelder des Human Resource Managements und virtuelle soziale Netzwerke. Der Schwerpunkt der Arbeit liegt jedoch in der Rekonstruktion eines Lebenslaufs und einer Persönlichkeitseinschätzung mit Hilfe der Angaben aus virtuellen sozialen Netzwerken zu dieser Person.
Vergleich von nativer App- und Cross-Platform-Entwicklung (Facebook React Native und Google Flutter)
(2020)
Die Entwicklung mobiler Applikationen für iOS und Android ist in der Regel mit viel Arbeit verbunden, da man für beide Plattformen gezwungenermaßen unterschiedlichen Quelltext schreiben muss. Abhilfe für dieses Problem schaffen Cross-Platform-Frameworks wie React Native von Facebook oder Flutter von Google. Anhand dieser Frameworks lassen sich Apps für beide Plattformen mit nur einer Codebase entwickeln. Eine kritische Stelle und oft gebrauchtes Kontra-Argument gegen die Entwicklung mit Cross-Platform-Frameworks ist die Hardwarenähe der nativen Applikationen, an welcher es den Frameworks vermeintlich mangelt. Doch wie ist der Stand der Dinge im Jahr 2020? Können Cross-Platform-Frameworks inzwischen performant und einfach auf Hardwarekomponenten zugreifen und machen damit die mühsame, native Entwicklung für iOS und Android vor allem in Anbetracht der Entwicklung von größerer Enterprise-Software obsolet?
Dieser Frage wird in dieser Arbeit nachgegangen und generell überprüft wie tauglich die Cross-Platform-Entwicklung ist. Nach dem Lesen dieser Bachelorarbeit sollte entschieden werden können, ob Cross-Platform-Frameworks für das Anwendungsproblem des Lesers geeignet sind. Um die Forschungsfrage zu beantworten, wurden je zwei Applikationen im Rahmen einer Fallstudie für je iOS und Android entwickelt, damit geprüft werden konnte, wie förderlich die zuvor genannten Frameworks sind. Der Fokus der Arbeit liegt also auf der Güte bzw. dem heutigen Stand der Cross-Platform-Entwicklung, vor allem im Bezug auf die Benutzung von Hardwarekomponenten bzw. betriebssystemspezifischen Diensten (Bluetooth, Kamera, etc.).
Die Ergebnisse der Fallstudie zeigen, dass es stets auf den Kontext und die Komplexität der zu realisierenden Anwendung ankommt inwiefern Cross-Platform-Frameworks verwendet werden können. In simplen Anwendungsfällen können Frameworks meist zu einer erheblichen Kostenminimierung und Zeitersparnis führen, wohingegen bei komplexeren Anwendungen relativ schnell Grenzen und starke Abhängigkeiten erreicht werden.
Training and evaluating deep learning models on road graphs for traffic prediction using SUMO
(2024)
The escalation of traffic volume in urban areas poses multifaceted challenges including increased accident risks, congestion, and prolonged travel times. Traditional approaches of expanding road infrastructure face limitations such as space constraints and the potential exacerbation of traffic issues.
Intelligent Transport Systems (ITS) present an alternative strategy to alleviate traffic problems by leveraging data-driven solutions. Central to ITS is traffic prediction, a process vital for applications like Traffic Management and Navigation Systems.
Recent advancements in traffic prediction have witnessed a surge of interest, particularly in deep learning methods optimized for graph-based data processing, being considered the most promising avenue presently.
These methods typically rely on real-life datasets containing traffic sensor data such as METR-LA and PeMS. However, the finite nature of real-life data prompts exploration into augmenting training and testing datasets with simulated traffic data.
This thesis explores the potential of utilizing traffic simulations, employing the microscopic traffic simulator SUMO, to train and test deep learning models for traffic prediction. A framework integrating PyTorch and SUMO is proposed for this purpose, aiming to elucidate the feasibility and effectiveness of using simulated traffic data for enhancing predictive models in traffic management systems.
Bis heute ist völlig unbekannt, ob wir allein im Universum sind. Um auf dieses Thema eine Antwort zu finden, überprüft diese Bachelorarbeit, ob Convolutional (CNN) und Recurrent Neural Networks (RNN) für die Erkennung außerirdischer Signale geeignet sind.
Das Ziel war dabei, in einem Datensatz bestehend aus Spektrogrammen mehr als 50% aller außerirdischer Signale zu erkennen, da nur so ein Neuronales Netzwerk ein besseres Resultat als eine zufällige Klassifikation liefert, bei der im Mittel 50% aller Signale erkannt werden.
Dabei zeigte sich, dass sich mit beiden Varianten der Neuronalen Netzwerke bis zu 90% aller Signale erkennen lassen, die Vorhersagen von CNNs allerdings verlässlicher sind. RNNs bieten hingegen aufgrund ihrer geringeren Größe einen deutlich leichtgewichtigeren Ansatz und führen zu einer signifikanten Speicherersparnis.
Daraus folgt, dass Neuronale Netzwerke bei der Suche nach außerirdischem Leben im Universum helfen können, um die Frage „Sind wir allein im Universum?“ endgültig zu beantworten.
Die Arbeit hat das Ziel, Volumendaten effizient zu visualisieren, ohne diese in ein alternatives Repräsentationsformat wie Polygonnetze zu überführen. Dafür werden Voxel sowie ein Raycasting-Ansatz verwendet. Die Elemente des Volumens werden als Voxel (=volumetrische Pixel), das Volumen nachfolgend als ein dreidimensionales Array aus Voxel bezeichnet. Für jeden Pixel wird ein Strahl erzeugt, der das Array iterativ traversiert, wobei in jeder Iteration geprüft wird, ob das gegebene Volumenelement ein Datum hält oder nicht. Maßgeblich hierfür ist der von (Amanatides, Woo et al., 1987) vorgestellte Ansatz, den Strahl in solche Segmente zu zerlegen, die immer jeweils so lang wie der momentan zu untersuchende Voxel groß ist: In einer Iteration wird also immer genau ein Voxel untersucht. Die Arbeit wird diese Idee verfolgen, praktisch aber anders umsetzen und sie um eine zusätzliche Beschleunigungsstruktur ergänzen. Im Idealfall soll dieser Ansatz es erlauben, mindestens 512^3 Voxel in Echtzeit zu rendern. Der beschriebene Ansatz hat zusätzlich den Vorteil, dass Änderungen direkt sichtbar werden, weil für das anschließende Rendering, auf die modifizierten Daten zurückgegriffen wird.
Im ländlichen Raum können Mobilitätsbedarfe schwer über den öffentlichen Personennahverkehr gedeckt werden. Wie diese Bedarfslücke über den Einsatz kombinierter Transportkonzepte von Personen und Gütern reduziert werden kann, wird prototypisch über eine agentenbasierte Simulationsanwendung in der Simulationssoftware AnyLogic untersucht. Reale Mobilitätsdaten werden dabei jedoch nicht berücksichtigt.
Das Ziel der vorliegenden Arbeit ist die Verbesserung der Datengrundlage des Prototypen mit Hilfe von Machine Learning. Unter Verwendung des Forschungsansatzes Design Science Research wurden ML-Modelle entlang des CRISP-DM Frameworks entwickelt. Diese verarbeiten die zur Verfügung stehenden Mobilitätsdaten und können nach deren Integration in den Prototypen zur Parametrierung genutzt werden. Im Zuge der Arbeit werden dazu geeignete Parameter identifiziert, die Mobilitätsdaten beschafft und umfangreich für das Modelltraining in H2O Driverless AI transformiert. Das beste ML-Modell wird in den Prototypen integriert und es werden notwendige Anpassungen vorgenommen, um die Parametrierung zu ermöglichen. Die anschließende Evaluation der Simulationsanwendung zeigt eine datenbasierte und realitätsgetreuere Simulation des simultanen und kombinierten Transports von Personen und Gütern.
Während sich das Zahlungsverfahren Mobile Payment seit einigen Jahren international mehr und mehr etabliert, fristet es entgegen jährlich wiederkehrender Erfolgsprognosen in Deutschland immer noch ein Nischendasein. Die vorliegende Untersuchung entstand im Rahmen einer Bachelorarbeit des Studiengangs der Betriebswirtschaftslehre an der Hochschule Hannover und beschäftigt sich mit den Potentialen und Barrieren der Nutzung des Mobile Payment aus Kundensicht, mit dem Ziel, die wesentlichen Faktoren der geringen Nutzung in Deutschland zu identifizieren. Hierzu wurden Studierende sowohl mittels eines Fragebogens (N = 128) zu ihren persönlichen Nutzungs-Voraussetzungen sowie –Erfahrungen befragt, als auch um die Bewertung verschiedener Faktoren als Potential oder Barriere für eine mögliche Nutzung gebeten. Bei der Auswertung der Ergebnisse konnten Zusammenhänge zwischen den untersuchten Einflussgrößen und der Nutzung des Mobile Payment festgestellt werden. Insbesondere der fehlende Schutz, drohender Missbrauch und eine fehlende Standardanwendung erwiesen sich als wichtige Faktoren für die Entscheidung, Mobile Payment zu nutzen.
Die öffentlichen Verkehrsmittel sind ein wichtiger Bestandteil der heutigen Infrastrukturen. Allein im Jahr 2019 verzeichnete die Bundesrepublik Deutschland ein Fahrgastaufkommen von 9,7 Milliarden Personen im öffentlichen Personennahverkehr (ÖPNV). Die starke Nutzung des ÖPNV wird im heutigen Alltag durch die Nutzung mobiler Applikationen (Apps) für die Verbindungssuche unterstützt. Um den Fahrgästen einen größtmöglichen Komfort bei der Gestaltung ihrer Routenplanung zu bieten, entwickeln vor allem große Tarif- und Verkehrsverbünde wie der Großraum-Verkehr Hannover (GVH) ihre eigenen Apps. Dadurch haben die Fahrgäste jederzeit die Möglichkeit, sich bereits vor ihrer Reise Verbindungsübersichten anzeigen zu lassen. Mit der immer weiter fortschreitenden Technologie bieten sich jedoch neue und unerforschte Gebiete in der Entwicklung von ÖPNV-Apps. Durch eine nutzerzentrierte Konzeption können diese Technologien gezielt eingesetzt und ein Marktvorteil gegenüber Konkurrenten verschaffen werden.
An der Hochschule Hannover wird das Lern-Management-System Moodle eingesetzt. Für die dort verfügbare Quizfunktion wurde der neue Fragetyp MooPT (Moodle Programming Task) von der Abteilung Informatik der Fakultät IV entwickelt. Einem solchen Quiz muss immer ein Frageverhalten zugewiesen werden. Die Frageverhalten, welche Moodle standardmäßig anbietet, sind nicht mit dem MooPT-Fragetypen kompatibel. Aus diesem Grund müssen diese angepasst werden. Dies wurde bereits für zwei der acht Standard-Frageverhalten von der Abteilung Informatik durchgeführt.
Diese Arbeit beschäftigt sich mit der Entwicklung der restlichen Verhalten für den MooPT-Fragetypen. Dabei wird die Moodle-Quiz-Komponente und der MooPT-Fragetyp mit seinen Frageverhalten analysiert. Anschließen wird auf Basis dieser Analyse die Entwicklung der restlichen Frageverhalten erläutert.
Der Quellcode der Moodle-Plattform ist in PHP geschrieben und somit auch der des MooPT-Fragetypen und der der Frageverhalten. Auf GitHub stehen die Implementierungen der entwickelten Frageverhalten unter der GPL-Lizenz zur Verfügung:
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemoopt
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemooptnopenalty
https://github.com/LennartRolfes/moodle-qbehaviour_deferredmooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_immediatemooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_interactivemoopt
Nachhaltiges Anforderungsmanagement mit externen IT-Dienstleistern in der öffentlichen Verwaltung
(2023)
Kontext: Der Einfluss der Organisationskultur und -struktur auf das Outsourcing von IT-Prozessen in der öffentlichen Verwaltung wird untersucht.
Zielsetzung: Es wird die Wirkung der kulturellen und strukturellen Besonderheiten der öffentlichen Verwaltung auf die Zusammenarbeit mit externen IT-Dienstleistern erforscht. Ziel ist die Entwicklung eines nachhaltigen, zukunftswirksamen Konzepts des Anforderungsmanagements.
Methode: Expert*inneninterviews mit einer anschließenden qualitativen Inhaltsanalyse nach der Methodik von Gläser und Laudel werden durchgeführt.
Ergebnisse: Die Struktur der öffentlichen Verwaltung ist stark fragmentiert; die Kultur geprägt von Risikoaversion und bürokratischem Handeln.
Konklusion: Eine Kombination aus Kommunikations-, Wissens- und Beziehungsmanagement ermöglicht ein nachhaltiges Anforderungsmanagement.
Der Autobewerter Graja, der in der Lehre zum Bewerten studentischer Java-Programme verwendet wird, stellt ein komplexes Softwaresystem dar. Aufgrund einer kaum vorhandenen Testabdeckung durch Modul- und Integrationstests, ist die Gewährleistung der fehlerfreien Funktionalität in Hinsicht auf die Weiterentwicklung nicht garantiert. Da sich Graja auf das ProFormA-Aufgabenformat stützt, stellt sich die Frage, inwiefern sich die im ProFormA-Aufgabenformat vorausgesetzten Musterlösungen, für einen automatisierten Regressionstestmechanismus eignen.
Das Ziel dieser Forschung ist es ein Konzept, für einen solchen Regressionstestmechanismus zu erstellen und mithilfe einer Referenzimplementierung als Graja-Erweiterung in die Praxis umzusetzen. Der daraus entstandene Mechanismus operiert durch Verhaltensaufzeichnung und Verhaltensabgleich und konvertiert so das in Graja beobachtete Bewertungsverhalten einer Musterlösung in einen Testfall. In der Testphase findet anschließend ein Abgleich des Soll-Verhaltens eines Testfalls und des beobachteten Ist-Verhaltens einer Musterlösung statt. Die Differenzen dieses Abgleichs sind als potenzielle Regressionen zu behandeln, da diese eine semantische Änderung des Bewertungsergebnisses darstellen.
Um diesen Verhaltensabgleich robust und mit möglichst wenigen Fehlalarme zu realisieren, wurden die in Graja verwendeten Datenmodelle auf Eignung bezüglich einer Verhaltensaufzeichnung untersucht. Außerdem fand eine Datenaufzeichnung mit einer Teilmenge der Musterlösungen statt. Nachfolgend wurde eine Analyse dieser Rohdaten, mit dem Ziel potenzielles Rauschen innerhalb der Aufzeichnungen zu detektieren, durchgeführt. So konnte letztendlich eine Strategie für eine Rauschunterdrückung innerhalb der Verhaltensaufzeichnung entwickelt werden.
Abschließend wurde ein Datenmodell entwickelt, das erlaubt, die durch den Verhaltensabgleich detektierten Regressionen verständlich und lokalisierbar darzustellen. Der durch diese Arbeit entstandene automatisierte Regressionstestmechanismus stellt somit eine Grundlage für die Gewährleistung der korrekten Bewertungsfunktionalität innerhalb des Graja-Entwicklungsprozesses dar. Durch das Detektieren von Regressionen mithilfe der Musterlösungen, lassen sich nun Änderungen an Graja gewissenhaft in eine Produktionsumgebung übernehmen.
Metriken und Leistungskennzahlen zur Steuerung eines Startups mit einem Abonnement-Geschäftsmodell
(2017)
Diese Ausarbeitung schlüsselt wesentliche Metriken und Kennzahlen für Startups mit Abonnement-Geschäftsmodellen auf. Der Schwerpunkt liegt auf der Erklärung von Kennzahlen, welche innerhalb von neu gegründeten Startups mit einem Abonnement-Geschäftsmodell Anwendung finden sollten. Nach Einführung in die terminologischen Grundlagen, also nachdem die Begriffe Startup, Abonnement-Geschäftsmodelle und die Grundlagen von Kennzahlen erklärt wurden, werden zahlreiche Kennzahlen wie beispielsweise Average Revenue per User, Customer Churn Rate oder Customer Lifetime Value im Detail erklärt und anhand von Beispielrechnungen nahegebracht.
The purpose of this research is to explore results that are measured by social enterprises (= SEs) according to their mission and vision. Four SEs are examined for this reason. The status quo of aligned measurements was captured by conducting seven semi-structured interviews with persons from the middle and top management of the considered SEs. A conceptual framework, which categorizes output, outcome and impact measurements, is used as the basis for a structured content analysis. The findings imply that SEs’ measurements are not sufficiently aligned with their mission and vision. Outputs are measured by all considered SEs. However, they fail to measure outcomes with all its sublevels. Especially, measuring mindset change and behavior change outcomes are neglected by the examined SEs. That can lead to adjustments, where SEs only create more outputs but fail to create more outcomes and impact. Furthermore, neglecting outcome measurements makes existing but mostly unsystematic impact measurements invalid, since outputs, outcomes and impact build on each other. The research presented here provides one of the first investigations into the alignment of measurements with mission and vision in the context of SEs. Ultimately, the findings question SEs current measurements and aim to open further perspectives on improving the performance of SEs.
AlphaGo’s victory against Lee Sedol in the game of Go has been a milestone in artificial intelligence. After this success, the team behind the program further refined the architecture and applied it to many other games such as chess or shogi. In the following thesis, we try to apply the theory behind AlphaGo and its successor AlphaZero to the game of Abalone. Due to limitations in computational resources, we could not replicate the same exceptional performance.
Die Arbeit untersucht die Anwendung von maschinellem Lernen zur Erkennung von Aktivitäten von Schiffen anhand von AIS-Signalen. Das Automatic Identification System (AIS) wird von Schiffen genutzt, um Informationen über ihren Status in regelmäßigen Intervallen zu übertragen. Auf Basis der Daten wurden mithilfe von Machine Learning-Algorithmen aus der Gruppe der überwachten Klassifikationsalgorithmen Modelle gelernt, die in der Lage sind zu erkennen, welcher Aktivität ein Schiff zu einem Zeitpunkt nachgeht.
Da das erfolgreiche Lernen eines Modells von einer sorgfältigen Datenvorbereitung abhängt, wurden verschiedene Verfahren zur Datenvorbereitung verwendet. Anschließend wurden verschiedene Algorithmen eingesetzt, darunter der Random Forest und k-NN, um Modelle zu lernen.
Die Ergebnisse zeigen, dass die Aktivitäten mit einer Genauigkeit von bis zu 99% erkannt werden konnten, wenn in der Datenvorbereitung geeignete Verfahren gewählt wurden.
Im Rahmen der vorliegenden Bachelorarbeit ging es um die Forschungsfrage, ob eine landmarkenbasierte Registrierung hinreichende Ergebnisse für die Anpassung eines Formmodells an eine segmentierte Cochlea liefert. Dazu wurden zwölf Landmarken auf die Oberfläche einer segmentierten Cochlea sowie auf die eines ausgewählten Formmodells gesetzt. Im Anschluss wurden die Abstände zwischen korrespondieren Landmarken des Formmodells und der segmentierten Cochlea mithilfe von drei verschiedenen Optimierungsverfahren minimiert. Bei dem quantitativen Vergleich zwischen den Ergebnissen der vorgestellten Optimierungsverfahren konnten keine signifikanten Unterschiede festgestellt werden. In der Evaluation wurde demonstriert, dass das Formmodell an der segmentierten Cochlea insgesamt hinreichend angenähert werden konnte. Lediglich in der Basalregion und am Apex der Cochlea ist die Anpassung noch verbesserungsbedürftig.
Die vorliegende Arbeit ist der empirischen Untersuchung der Deliktart Korruption gewidmet. Mittels vignettenbasierter Befragung unter 89 Studierenden der Betriebswirtschaft und 74 Studierenden der Wirtschaftsinformatik wurde deren Korruptionsbewertung erforscht. Einbezogen wurden dabei neben soziodemografischen Merkmalen, sowohl Personenfaktoren, in Form des organisationalen Zynismus (Abhari, 2007) und der emotionalen Kompetenz (Rindermann, 2008), als auch der Situationsfaktor persönliche Notlage (krankes Kind) versus keine persönliche Notlage (arbeitslose Ehefrau). Diese Ausarbeitung ist eine überarbeitete Version der Bachelorarbeit gleichen Titels, die im März 2012 an der Hochschule Hannover, Fakultät Wirtschaft und Informatik, Abteilung Betriebswirtschaft abgegeben wurde. Die Arbeit wurde von Sina Maffenbeier und Sven Litzcke betreut. Die Ergebnisse zeigen, dass sich ehrenamtliches Engagement positiv und hoher organisationaler Zynismus negativ auf die Meldebereitschaft hinsichtlich korrupter Handlungen auswirken. Aufgrund fehlender anzeigebereiter Opfer stellt die Meldebereitschaft eine wichtige Komponente bei der Aufklärung von Korruptionsdelikten dar. Zudem wird gezeigt, dass hoher organisationaler Zynismus die Entscheidungsfindung für oder gegen Korruption erschwert und hohe emotionale Kompetenz sie erleichtert. Mit steigender emotionaler Kompetenz nimmt zudem das subjektive Empfinden zur Angebotshäufigkeit korrupter Offerten zu. Des Weiteren zeigen die Ergebnisse in Bezug auf den Situationsfaktor persönliche Notlage (krankes Kind), dass den Teilnehmern die Entscheidungsfindung schwerer fällt als bei keine persönliche Notlage (arbeitslose Ehefrau). Die Teilnehmer haben zudem mehr Verständnis für eine korrupte Handlung im Fall persönliche Notlage (krankes Kind).
Konzeption und Realisierung einer Anwendung zur Erstellung und Verwaltung von Server-Konfigurationen
(2021)
Die vorliegende Bachelorarbeit behandelt die Konzeption und Realisierung einer Anwendung zur Erstellung und Verwaltung von Server-Konfigurationen der Firma Hacon. Hierzu werden im Rahmen einer Anforderungsanalyse der Ist- und Soll-Zustand ermittelt sowie generelle Design-Prinzipien und Usability-Ziele aufgestellt. Nach der Auswahl der Architektur werden wesentliche Funktionalitäten der Anwendung umgesetzt und zuletzt die aufgestellten Anforderungen und Ziele mithilfe eines Usability-Tests evaluiert.