Refine
Year of publication
Document Type
- Conference Proceeding (69)
- Working Paper (66)
- Article (54)
- Bachelor Thesis (47)
- Report (34)
- Master's Thesis (24)
- Book (19)
- Study Thesis (10)
- Course Material (9)
- Preprint (7)
- Part of a Book (6)
- Lecture (4)
- Doctoral Thesis (2)
- Other (2)
Is part of the Bibliography
- no (353)
Keywords
- Digitalisierung (16)
- E-Learning (16)
- Korruption (12)
- Agilität <Management> (11)
- Führung (11)
- Grader (11)
- Herbarium (11)
- Programmierung (11)
- Autobewerter (10)
- Computerunterstütztes Lernen (10)
Institute
- Fakultät IV - Wirtschaft und Informatik (353) (remove)
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
Dieser Beitrag ist im Rahmen des Forschungsschwerpunktes Herbar Digital an der Fachhochschule Hannover entstanden. Es wird ein neuartiges Geschäftsprozessmodell für die Generierung und Digitalisierung von Herbarbelegen vorgestellt, in das mittels eines Prozessmusters eine Fertigungssteuerungskomponente eingebettet ist. Dieser Ansatz ist ein Beitrag zur Entwicklung eines präzisen Prozesscontrollings, das Herbarien ermöglichen soll, die massenhafte Digitalisierung von Herbarbelegen effizient durchzuführen.
Die vorliegende Arbeit stellt ein Kennzahlensystem für Geschäftsprozesse des Prozessbereichs „Herbarbeleg“ im Botanischen Garten und Botanischen Museum Berlin-Dahlem (BGBM) vor. Das Kennzahlensystem ist ein Controlling-Werkzeug, welches Leistungsunterschiede zwischen Ist- und Soll-Geschäftsprozessen verdeutlicht.<br /> Das Kennzahlensystem basiert auf Erkenntnissen zu Prozessbenchmarking, Kennzahlen sowie solchen des Forschungsschwerpunkts Herbar Digital und berücksichtigt die zentralen Aspekte Zeit, Kosten und Qualität. Die Kennzahl Stückkosten verifizierter Leistungen steht an der Spitze des Kennzahlensystems und repräsentiert die Produktionskosten eines mit ausreichender Qualität digitalisierten Herbarbelegs.
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
Fortgeschrittene Konzepte der logischen Programmierung - für Kinder einfach zugänglich via NLP
(2019)
In dieser Arbeit wurde an der über Google Dialogflow gesteuerten Entwicklungsumgebung für logische Programmierung "Speech and Logic IDE" (SLIDE) geforscht. Die Anwendung wurde von Dialogflow zu der Bibliothek Snips NLU überführt, damit ohne Internetanbindung gearbeitet werden kann.
Als Hauptteil der Arbeit wurden die logischen Konzepte Variablen, Rekursion und Listen in die Anwendung implementiert. Es wurde eine Benennungsvorschrift eingeführt, die die Anwendung von starren Strukturen löst und es durch rekursive Verarbeitung erlaubt, beliebig komplexe Strukturen zu modellieren. Die Anwendung wurde anschließend im Rahmen der Sekundarstufe I betrachtet. Die behandelten Fragen waren:
"Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Fakten und Regeln zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Variablen, Rekursion und Listen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen außerhalb der mathematischen Domäne zu vermitteln?"
Dazu wurden zwei Unterrichtsbeispiele konzipiert, die sich im Deutschunterricht mit Grammatik und Lyrik auseinandersetzen, zwei Themen des niedersächsischen Kerncurriculums aus der Sekundarstufe I. Bei der Unterrichtsgestaltung wurde besonderes Augenmerk auf die neu eingeführten Konzepte gesetzt. Das zweite Unterrichtsbeispiel wurde im Rahmen einer Zusammenarbeit mit dem Projekthaus Zukunft MINT der Hochschule Hannover zweimalig mit unterschiedlichen 10. Klassen (IGS und Gymnasium) durchgeführt. Die theoretischen Ergebnisse der Arbeit zeigen, dass alle Fragen mit "Ja" beantwortet werden können. In der neuen Version von SLIDE ist es möglich die neuen Konzepte zu modellieren und es ist möglich Unterrichtsbeispiele zu konzipieren, die dieses Wissen vermitteln und sich auf Inhalte des Kerncurriculums beziehen. Die Ergebnisse der Feldexperimente in Form von Fragebögen fallen weniger aussagekräftig aus, da sich die SuS bereits am Ende der Sekundarstufe I befanden und die konzipierten Inhalte somit eine Wiederholung darstellten. Weiter muss anerkannt werden, dass viele Faktoren bei der Befragung nicht berücksichtigt werden konnten. Deswegen können aus den praktischen Versuchen keine umfassenden Schlüsse gezogen werden, eine optimistische Betrachtung zeigt ein generelles Interesse der Anwendung seitens der SuS. Die Erfahrungen legen nahe die Unterrichtsinhalte auf mehrere Unterrichtseinheiten aufzuteilen, damit die Teilnehmer mit Vorwissen an die neuen Konzepte herantreten und sich auf sie konzentrieren können.
Training and evaluating deep learning models on road graphs for traffic prediction using SUMO
(2024)
The escalation of traffic volume in urban areas poses multifaceted challenges including increased accident risks, congestion, and prolonged travel times. Traditional approaches of expanding road infrastructure face limitations such as space constraints and the potential exacerbation of traffic issues.
Intelligent Transport Systems (ITS) present an alternative strategy to alleviate traffic problems by leveraging data-driven solutions. Central to ITS is traffic prediction, a process vital for applications like Traffic Management and Navigation Systems.
Recent advancements in traffic prediction have witnessed a surge of interest, particularly in deep learning methods optimized for graph-based data processing, being considered the most promising avenue presently.
These methods typically rely on real-life datasets containing traffic sensor data such as METR-LA and PeMS. However, the finite nature of real-life data prompts exploration into augmenting training and testing datasets with simulated traffic data.
This thesis explores the potential of utilizing traffic simulations, employing the microscopic traffic simulator SUMO, to train and test deep learning models for traffic prediction. A framework integrating PyTorch and SUMO is proposed for this purpose, aiming to elucidate the feasibility and effectiveness of using simulated traffic data for enhancing predictive models in traffic management systems.
Die Einführung einer elektronischen Stimmabgabe bei Kommunalwahlen (E-Voting) ist durch rechtliche und technische Herausforderungen derzeit nicht praktikabel umsetzbar. Untersuchungen zeigen, dass die Einführung zahlreiche Vorteile für die Wahlberechtigten und die Wahlbehörden haben könnte. Die zeitweise Einführung von E-Voting mit Wahlmaschinen wurde jedoch auch rechtlichen Gründen für unzulässig erklärt. So gab es in den letzten Jahren keine neuen Umsetzungsversuche.
Im Rahmen dieser Arbeit wird ein Konzept für eine elektronische Stimmabgabe bei Kommunalwahlen entwickelt. Um das Konzept in das derzeitige Wahlsystem zu integrieren, wird die Briefwahl als Basis gewählt. Unter Zuhilfenahme von Gesetzestexten wird der Ablauf beschrieben und als Prozessdiagramm dargestellt. Anschließend werden Anforderungen an ein E-Voting-System aus der Literatur aufgenommen und durch die Bildung von Kernaussagen konsolidiert. In jedem ermittelten Briefwahl-Prozessschritt wird die Untersuchung elektronischer Möglichkeiten durch die Prüfung der Kernaussagen bewertet. Anschließend wird die geeignetste elektronische Möglichkeit in das Konzept übernommen.
Die ermittelten Möglichkeiten zeigen, dass durch den Einsatz von Vertrauensdiensten und Vertrauensdiensteanbietern die Anforderungen erfüllt werden können. Daraus ergibt sich ein Konzept, welches mithilfe aktueller technischer und rechtlicher Entwicklungen eine elektronische Stimmabgabe ermöglichen kann. Unter der ganzheitlichen Betrachtung des Wahlsystems sind jedoch noch viele Herausforderungen zu beachten, die in dieser Arbeit nicht näher erläutert wurden. Die Entwicklungen der letzten Jahre begünstigen die Konzeptionierung einer elektronischen Stimmabgabe. Diesem steht jedoch weiterhin Herausforderungen durch fehlende rechtliche Bewertung, mangelndes Vertrauen, Gesetze, Verordnungen und Medienbrüche entgegen, die vor dem Einsatz bewältigt werden müssen.
Die Sammlung, Archivierung und Digitalisierung von Botanischen Belegen als Wertschöpfungskette
(2010)
Im Rahmen des Forschungsprojekts Herbar Digital an der Fachhochschule Hannover soll die Digitalisierung von Herbarbelegen um eine Zehnerpotenz auf 2 US-Dollar pro Beleg gesenkt werden. Ein Ansatz zielt auf die Optimierung von Geschäftsprozessen ab. Im Verlauf des Forschungsprojektes hat sich bei der Modellierung von Geschäftsprozessen zur Digitalisierung gezeigt, dass die Prozesse eines Herbariums nicht isoliert betrachtet werden können.<br /> Die vorliegende Untersuchung analysiert daher botanische Aktivitäten der Sammlung, Bestimmung, Digitalisierung, Lagerung und Auswertung von Belegen in acht deutschen Herbarien. So werden Ergebnisse über die Kombination der Ressourcen Arbeitsmittel, Personalien und Informationen in den einzelnen Aktivitäten offen gelegt, die bei der Referenzmodellierung von Geschäftsprozessen angewendet werden können. Die hier gewonnenen Ergebnisse der explorativen Vorgehensweise lassen sich in repräsentativen Untersuchungen tiefergehend analysieren.
In Niedersachsen setzt das Ministerium für Wissenschaft und Kultur seit 2007 ein Hochschulkennzahlensystem ein, um einen Teil des Grundhaushalts wettbewerblich an die Hochschulen zu verteilen. Über die Mittelvergabe hinaus ist ein Monitoringsystem integriert, mit dem die Entwicklung der Hochschulen beurteilt werden kann. Zur differenzierten Beurteilung werden monetäre und nichtmonetäre Hochschuldaten zu Kennzahlen verdichtet. Die Kennzahlen befinden sich jedoch auf einer zu hohen Aggregationsebene für ein hochschulinternes Controlling an der Fachhochschule Hannover. Daher dienen Berichtssysteme mit Standardberichten der Information über hochschulweite Prozesse und Ressourcen, um im zunehmenden Wettbewerb der Fachhochschulen fundierte Entscheidungen treffen zu können. Beispielhaft werden Standardberichte zu erbrachten Lehrleistungen als erste Komponente des nichtmonetären Controllings in einem Berichtssystem konzipiert. Methodisch basiert die Konzeption auf einer Informationsbedarfsanalyse mit induktiven und deduktiven Verfahren. Das Vorgehen lässt sich grundsätzlich auf weitere nichtmonetäre Leistungen (z. B. der Forschung) übertragen und in die konzipierte Struktur integrieren.
Die Forschung am Herbarbeleg ist in der Botanik und der Taxonomie einem Wandel ausgesetzt. Zunehmend werden in Herbarien digitale Kopien verwendet, die neue Auswertungs- und Analysemethoden ermöglichen. Die Entwicklung technischer und wirtschaftlicher Verfahren zur Herbarbeleg-Digitalisierung ist Gegenstand des Forschungsschwerpunkts Herbar Digital der Hochschule Hannover. Das Ziel von Herbar Digital ist es, das System der Virtualisierung von Herbarbelegen und deren Verwaltung so zu automatisieren, dass die Kosten von 20 US-$ auf 2 US-$ reduziert werden. Betrachtet man die Herbarbeleg-Digitalisierung als ein zu planendes 5-Jahres-Investitionsprojekt, dann sind unterschiedliche Szenarien und deren wirtschaftlichen Auswirkungen denkbar. In dem vorliegenden Arbeitspapier werden drei Szenarien entwickelt und soweit operationalisiert, dass sowohl Aussagen einer technischen Investitionsplanung als auch einer wirtschaftlichen Investitionsplanung über den Planungshorizont von 5 Jahren abgeleitet werden. In technischer Hinsicht werden die Produktion, Logistik (inkl. IT) sowie das Personal geplant. Die wirtschaftlichen Aussagen beziehen sich auf Standort- und Betriebsmittelkosten, IT- und Logistikkosten, Personalkosten sowie sonstige Kosten. Um den Projekterfolg sicherzustellen, sind beide Planungsbereiche in einem Konzept für das Investitionscontrolling integriert. Als Ergebnis von Szenario 1 ergeben sich bei einer Produktionsmenge von 1 Mio. digitalen Belegen Ausgaben in Höhe von 2,05 € pro Digitalisat. Das Szenario 1 ist als generelles Forschungsergebnis von Herbar Digital zu verstehen und liefert entsprechend eine Referenzlösung für alle Objekte im Kontext einer musealen Herbarbeleg-Digitalisierung. Bei einer Produktion von 5 Mio. Digitalisaten in Szenario 2 wird von einer Kooperation der Herbarien in Berlin und einem ausländischen Partner mit halben Lohnniveau ausgegangen. Es reduzieren sich die zahlungswirksamen Kosten auf 1,21 € pro Digitalisat. Das Ergebnis aus Szenario 2 bleibt auch in Szenario 3 konstant, worin unter Einbezug eines weiteren inländischen Kooperationspartners 10 Mio. digitale Herbarbelege hergestellt werden. Vermutlich ergeben sich unter den technischen Bedingungen keine weiteren Kostendegressionseffekte.
Neben circa 22.000 verschiedenen kultivierten Pflanzenarten besitzt die Zentraleinrichtung Botanischer Garten und Botanische Museum Berlin-Dahlem (BGBM) ca. 3,8 Millionen konservierter Pflanzenbelege aus aller Welt in seinem Herbarium. Diese Herbarbelege dienen als Grundlage wissenschaftlicher Forschung. Über die Erstellung digitaler Kopien kann das Versenden des empfindlichen Materials verhindert und der Zugang für Forscher erheblich erleichtert werden. Die Prozesse und Methoden der Digitalisierung werden in Herbar Digital untersucht, um eine Senkung der Kosten zu ermöglichen. In dem vorliegenden Arbeitspapier wird der Einsatz einer Balanced Scorecard als Steuerungsinstrument der Herbarbeleg-Digitalisierung untersucht. Das Instrument misst die Zielerreichung und unterstützt so Entscheidungen der Führung. Vision und Strategie der Unternehmung werden in mehreren Perspektiven operationalisiert. Für jedes Ziel sind Indikatoren, Sollwerte, Istwerte und Maßnahmen zu definieren. Die Istwerte werden zu den Indikatoren und Zeitpunkten verdichtet und zeigen so den Zielerreichungsgrad an. In einem individuellen Dashboard werden die Ziele, Indikatoren, Zielwerte, Maßnahmen und weitere Informationen angezeigt und können kommentiert werden. Die Planwerte sind die Basis für den operativen Planungsprozess. Die Struktur sieht vor, dass die Ziel-Dashboards aller Organisationseinheiten einer Hochschule schließlich zu Sub- und Teil-Balanced Scorecards miteinander verknüpft werden können. Es ergibt sich je nach Sachverhalt eine Übersicht über die Ziele und korrespondierenden Indikatoren sowie deren Entwicklung und Maßnahmen. Dies wird am Beispiel der Herbarbeleg-Digitalisierung verdeutlicht.
Die Prozesskostenrechnung zum Kosten- und Leistungsmanagement der Herbarbeleg-Digitalisierung
(2013)
Die Prozesskostenrechnung untersucht die Verteilung der Vollkosten auf die bei der Herbarbeleg-Digitalisierung anfallenden Tätigkeiten (hier exemplarisch in 2010). Außerdem stellt dieses Modell ein Instrument zum Monitoring neu eingesetzter Produkt- und Prozessinnovationen dar. Die Tätigkeiten sind in Projektkostenstellen abgegrenzt, um z. B. nach Einzel- und Gemeinkosten zu unterscheiden. Der Fokus liegt auf der Methodenentwicklung. Die Führungsaufgaben und unterstützenden Tätigkeiten sind in Bezug auf die Leistungsmenge neutral. Ihre Kosten werden auf leistungsmengeninduzierende Kerntätigkeiten umgelegt, die in sieben Phasenbereiche konsolidiert wurden. Für die untersuchten Projekte „Willdenow“ und „Global Plant Initiative“ ergaben sich jeweils Leistungs- und Kostenkennzahlen für die einzelnen Phasenbereiche. Entwicklungsbedarf des Modells besteht u. a. bei der Validität der Kostenträger, Zeichenerfassung, Kosten ehrenamtlicher Tätigkeiten, Reduktion der Komplexität und sonstiger Störungen. Die Prozesskostenrechnung ist als ein weiterführendes Instrument der Vollkostenrechnung entwickelt worden und kann auch als Deckungsbeitragsrechnung betrieben werden. Mit den Ergebnissen wird keine Kontrolle der Aufgabenwahrnehmung einzelner Mitarbeiter verfolgt.
Die Arbeit untersucht die Anwendung von maschinellem Lernen zur Erkennung von Aktivitäten von Schiffen anhand von AIS-Signalen. Das Automatic Identification System (AIS) wird von Schiffen genutzt, um Informationen über ihren Status in regelmäßigen Intervallen zu übertragen. Auf Basis der Daten wurden mithilfe von Machine Learning-Algorithmen aus der Gruppe der überwachten Klassifikationsalgorithmen Modelle gelernt, die in der Lage sind zu erkennen, welcher Aktivität ein Schiff zu einem Zeitpunkt nachgeht.
Da das erfolgreiche Lernen eines Modells von einer sorgfältigen Datenvorbereitung abhängt, wurden verschiedene Verfahren zur Datenvorbereitung verwendet. Anschließend wurden verschiedene Algorithmen eingesetzt, darunter der Random Forest und k-NN, um Modelle zu lernen.
Die Ergebnisse zeigen, dass die Aktivitäten mit einer Genauigkeit von bis zu 99% erkannt werden konnten, wenn in der Datenvorbereitung geeignete Verfahren gewählt wurden.
The negative effects of traffic, such as air quality problems and road congestion, put a strain on the infrastructure of cities and high-populated areas. A potential measure to reduce these negative effects are grocery home deliveries (e-grocery), which can bundle driving activities and, hence, result in decreased traffic and related emission outputs. Several studies have investigated the potential impact of e-grocery on traffic in various last-mile contexts. However, no holistic view on the sustainability of e-grocery across the entire supply chain has yet been proposed. Therefore, this paper presents an agent-based simulation to assess the impact of the e-grocery supply chain compared to the stationary one in terms of mileage and different emission outputs. The simulation shows that a high e-grocery utilization rate can aid in decreasing total driving distances by up to 255 % relative to the optimal value as well as CO 2 emissions by up to 50 %.
Context: Agile software development (ASD) sets social aspects like communication and collaboration in focus. Thus, one may assume that the specific work organization of companies impacts the work of ASD teams. A major change in work organization is the switch to a 4-day work week, which some companies investigated in experiments. Also, recent studies show that ASD teams are affected by the switch to remote work since the Covid 19 pandemic outbreak in 2020.
Objective: Our study presents empirical findings on the effects on ASD teams operating remote in a 4-day work week organization. Method: We performed a qualitative single case study and conducted seven semi-structured interviews, observed 14 agile practices and screened eight project documents and protocols of agile practices.
Results: We found, that the teams adapted the agile method in use due to the change to a 4-day work week environment and the switch to remote work. The productivity of the two ASD teams did not decrease. Although the stress level of the ASD team member increased due to the 4-day work week, we found that the job satisfaction of the individual ASD team members is affected positively. Finally, we point to affects on social facets of the ASD teams.
Conclusion: The research community benefits from our results as the current state of research dealing with the effects of a 4-day work week on ASD teams is limited. Also, our findings provide several practical implications for ASD teams working remote in a 4-day work week.
Das Ziel dieser Bachelorarbeit war die Entwicklung einer voll funktionstüchtigen Webanwendung, die für den Anwendungsfall „Bronchokonstriktion“ Werkzeuge für die Darstellung und die händische Nachbearbeitung von Bilddaten und Vorhersagen aus Neuronalen Netzen bereitstellt. Dadurch können die Test- und Trainingsdatensätze für problematische Fälle erweitert werden. Konkret wurde die Anwendung durch die Verwendung von standardisierten und individuell auf das Problem zugeschnittenen Software-Engineering-Methoden sowie unter Beachtung allgemeiner Usability-Prinzipien entwickelt und evaluiert. Diese Bachelorarbeit fand in Zusammenarbeit mit dem Fraunhofer ITEM und der Forschungsgruppe „Bioinformatik“ statt.
In the last years generative models have gained large public attention due to their high level of quality in generated images. In short, generative models learn a distribution from a finite number of samples and are able then to generate infinite other samples. This can be applied to image data. In the past generative models have not been able to generate realistic images, but nowadays the results are almost indistinguishable from real images.
This work provides a comparative study of three generative models: Variational Autoencoder (VAE), Generative Adversarial Network (GAN) and Diffusion Models (DM). The goal is not to provide a definitive ranking indicating which one of them is the best, but to qualitatively and where possible quantitively decide which model is good with respect to a given criterion. Such criteria include realism, generalization and diversity, sampling, training difficulty, parameter efficiency, interpolating and inpainting capabilities, semantic editing as well as implementation difficulty. After a brief introduction of how each model works on the inside, they are compared against each other. The provided images help to see the differences among the models with respect to each criterion.
To give a short outlook on the results of the comparison of the three models, DMs generate most realistic images. They seem to generalize best and have a high variation among the generated images. However, they are based on an iterative process, which makes them the slowest of the three models in terms of sample generation time. On the other hand, GANs and VAEs generate their samples using one single forward-pass. The images generated by GANs are comparable to the DM and the images from VAEs are blurry, which makes them less desirable in comparison to GANs or DMs. However, both the VAE and the GAN, stand out from the DMs with respect to the interpolations and semantic editing, as they have a latent space, which makes space-walks possible and the changes are not as chaotic as in the case of DMs. Furthermore, concept-vectors can be found, which transform a given image along a given feature while leaving other features and structures mostly unchanged, which is difficult to archive with DMs.
Delphi is a frequently used research method in the information systems (IS) field. The last fifteen years have seen many variants of the Delphi Method proposed and used in IS research. However, these variants do not seem to be properly derived; while all variants share certain characteristics, their reasoning for differentiation inconsistently varies. It seems that researchers tend to create “new” Delphi Method variants, although the underlying modification of the Delphi Method is, in fact, minor. This leads to a heterogeneity of Delphi Method variants and undermines scientific rigor when using Delphi. The study addresses this deficit and (1) identifies different variants of Delphi and determines their characteristics, (2) critically reflects to what extent a clear distinction between these variants exists, (3) shows the clearly distinguishable Delphi Method variants and their characteristics, (4) develops a proposed taxonomy of Delphi Method variants, and (5) evaluates and applies this taxonomy. The proposed taxonomy helps clearly differentiate Delphi Method variants and enhances methodological rigor when using the Delphi Method.