Refine
Year of publication
Document Type
- Conference Proceeding (69)
- Working Paper (66)
- Article (54)
- Bachelor Thesis (47)
- Report (34)
- Master's Thesis (24)
- Book (19)
- Study Thesis (10)
- Course Material (9)
- Preprint (7)
Is part of the Bibliography
- no (353)
Keywords
- Digitalisierung (16)
- E-Learning (16)
- Korruption (12)
- Agilität <Management> (11)
- Führung (11)
- Grader (11)
- Herbarium (11)
- Programmierung (11)
- Autobewerter (10)
- Computerunterstütztes Lernen (10)
Institute
- Fakultät IV - Wirtschaft und Informatik (353) (remove)
In the context of modern mobility, topics such as smart-cities, Car2Car-Communication, extensive vehicle sensor-data, e-mobility and charging point management systems have to be considered. These topics of modern mobility often have in common that they are characterized by complex and extensive data situations. Vehicle position data, sensor data or vehicle communication data must be preprocessed, aggregated and analyzed. In many cases, the data is interdependent. For example, the vehicle position data of electric vehicles and surrounding charging points have a dependence on one another and characterize a competition situation between the vehicles. In the case of Car2Car-Communication, the positions of the vehicles must also be viewed in relation to each other. The data are dependent on each other and will influence the ability to establish a communication. This dependency can provoke very complex and large data situations, which can no longer be treated efficiently. With this work, a model is presented in order to be able to map such typical data situations with a strong dependency of the data among each other. Microservices can help reduce complexity.
This document describes the work done during the Research Semester in Summer 2006 of Prof. Dr. Stefan Wohlfeil. It is about Security Management tasks and how these tasks might be supported by Open Source software tools. I begin with a short discussion of general management tasks and describe some additional, security related management tasks. These security related tasks should then be added to a software tool which already provides the general tasks. Nagios is such a tool. It is extended to also perform some of the security related management tasks, too. I describe the new checking scripts and how Nagios needs to be configured to use these scripts. The work has been done in cooperation with colleagues from the Polytech- nic of Namibia in Windhoek, Namibia. This opportunity was used to also establish a partnership between the Department of Computer Science at FH Hannover and the Department of Information Technology at the Polytechnic. A first Memorandum of Agreement lays the groundwork for future staff or student exchange.
Radioisotope-guided sentinel lymph node dissection (sLND) has shown high diagnostic reliability in prostate (PCa) and other cancers. To overcome the limitations of the radioactive tracers, magnetometer-guided sLND using superparamagnetic iron oxide nanoparticles (SPIONs) has been successfully used in PCa. This prospective study (SentiMag Pro II, DRKS00007671) determined the diagnostic accuracy of magnetometer-guided sLND in intermediate- and high-risk PCa. Fifty intermediate- or high-risk PCa patients (prostate-specific antigen (PSA) >= 10 ng/mL and/or Gleason score >= 7; median PSA 10.8 ng/mL, IQR 7.4–19.2 ng/mL) were enrolled. After the intraprostatic SPIONs injection a day earlier, patients underwent magnetometer-guided sLND and extended lymph node dissection (eLND, followed by radical prostatectomy. SLNs were detected in in vivo and in ex vivo samples. Diagnostic accuracy of sLND was assessed using eLND as the reference. SLNs were detected in all patients (detection rate 100%), with 447 sentinel lymph nodes SLNs (median 9, IQR 6–12) being identified and 966 LNs (median 18, IQR 15–23) being removed. Thirty-six percent (18/50) of patients had LN metastases (median 2, IQR 1–3). Magnetometer-guided sLND had 100% sensitivity, 97.0% specificity, 94.4% positive predictive value, 100% negative predictive value, 0.0% false negative rate, and 3.0% additional diagnostic value (LN metastases only in SLNs outside the eLND template). In vivo, one positive SLN/LN-positive patient was missed, resulting in a sensitivity of 94.4%. In conclusion, this new magnetic sentinel procedure has high accuracy for nodal staging in intermediate- and high-risk PCa. The reliability of intraoperative SLN detection using this magnetometer system requires verification in further multicentric studies.
Das Verhalten von Fußgängern wird seit einigen Jahrzehnten mit dem Ziel erforscht, Empfehlungen zur Reduzierung von Verletzten und Toten im Straßenverkehr auszusprechen. Diese Studie befasst sich mit ausgewählten Ergebnissen nationaler und internationaler Studien zum Fußgängerverhalten und verfolgt das Ziel, die bisherigen Forschungsergebnisse anhand einer verdeckten Beobachtung von Fußgängern im Straßenverkehr zu überprüfen. Hierzu wurde das Verhalten an einer Fußgängerampel in Hannover an zwei Wochentagen mehrere Stunden lang beobachtet. Bei der Auswertung der Ergebnisse konnten signifikante Zusammenhänge zwischen den untersuchten Einflussgrößen und dem Verhalten der beobachteten Personen festgestellt werden. Insbesondere deren Alter, die Anwesenheit weiterer Personen und das Fehlverhalten weiterer Personen erwiesen sich als die wichtige Prädiktoren für die Entscheidung, selbst bei Rot zu gehen.
In huge warehouses or stockrooms, it is often very difficult to find a certain item, because it has been misplaced and is therefore not at its assumed position. This position paper presents an approach on how to coordinate mobile RFID agents using a blackboard architecture based on Complex Event Processing.
Ziel der nachfolgenden Arbeit ist die Erhebung des aktuellen Stands der Digitalisierung in der Landwirtschaft. Es gilt herauszufinden, wie weit landwirtschaftliche Betriebe in Deutschland heute bereits digitalisiert sind. Parallel dazu soll erörtert werden, welche Gründe eine weitergehende Digitalisierung gegenwärtig verhindern. Dabei ist zu berücksichtigen, welche Bedeutung Digitalisierung in der Landwirtschaft hat. Zur Beantwortung der Forschungsfrage werden sowohl qualitative (Systematische Literaturanalyse) als auch quantitative Forschungsmethoden (Online-Umfrage mit anschließender statistischer Auswertung) angewendet. Wesentliche Erkenntnisse dieser Arbeit sind, dass die Messung von Digitalisierungsgraden landwirtschaftlicher Betriebe mittels eines Reifegradmodells signifikante Unterschiede in der deutschen Landwirtschaft widerspiegeln und dass der Kostenfaktor einen erheblichen Druck auf den digitalen Wandel im Agrarsektor ausübt. Generationenwechsel, sowie herstellerübergreifende Lösungen stellen neben der Forderung von mehr Unterstützung seitens der Politik und öffentlicher Institutionen Diskussionspunkte dieser Abschlussarbeit dar.
Wie kann man den empfundenen Alltagsstress bewältigen und eigene, sinnvolle Ziele erreichen? Woher kommt die Zeitnot und was kann man tun? Gibt es Faktoren, die Glück und Erfolg fördern? Was kann man in seinem Studien- und Arbeitsalltag tun, um sich wohl zu fühlen und erfolgreich zu sein? Welche Zeitmanagement-Tools helfen bei der Organisation von Studium und Arbeitsalltag?
Diese und weitere Fragen werden im Workbook beantwortet. Der Selbstmanagement-Prozesskreis wird vorgestellt, verschiedene Modelle, Prinzipien und Techniken werden vermittelt. Mit vielen Reflexionsfragen und Übungen.
Gender und Diversity spielen in der Wirtschaft und Verwaltung eine große Rolle. Der Begriff Gender beschreibt das soziale Geschlecht. In unserer Wahrnehmung unterscheiden wir zwischen männlich und weiblich und ordnen entsprechende Attribute zu. Die Differenzierung geschieht auf individueller, interaktionaler und institutionaler Ebene und ist immer mit Wertungen versehen (Gender Orders). Dadurch kommt es zu Ungleichheiten und Ungerechtigkeiten. Der Begriff „Diversity“ (Vielfalt) beschreibt die Vielfalt der Mitglieder (z.B. die Mitarbeitenden), der Bezugsgruppen (z.B. Geldgeber) und der Kunden einer Organisation bzw. eines Betriebes. Unterschieden werden Geschlecht, Kultur, Alter, Behinderung, familiäre Situation und sexuelle Orientierung. Ziel von Gender Mainstreaming und Diversity Management ist es, Chancengleichheit im Unternehmen bzw. in der Verwaltung zu schaffen. Chancengleichheit als personalpolitisches Ziel beinhaltet den Abbau von Diskriminierungen, gleiche Rechte und Chancen und Möglichkeiten sowie die sinnvolle Berücksichtigung und Einbeziehung der verschiedenen Mitarbeiter- und Kundengruppen. In dem folgenden Artikel werden Gender Mainstreaming und Diversity Management und deren Instrumente beschrieben. Eine Checkliste, Praxis und Fallbeispiele ermöglichen das Bearbeiten des Themas und die Umsetzung in die Praxis.
Gender und Kommunikation
(2010)
In diesem Artikel werden die Zusammenhänge zwischen Gender und Kommunikation erörtert, an Fallbeispielen und Untersuchungen erläutert und reflektiert. Der Begriff Gender beschreibt das soziale Geschlecht. Der Prozess der Kommunikation besteht aus Encodieren und Decodieren auf der nonverbalen, paraverbalen und verbalen Ebene. Dies wird unter anderem von Gender beeinflusst. Durch das Konzept des Doing Gender werden Wahrnehmungen, Kommunikationsverhalten sowie die statistischen Gegebenheiten und Rahmenbedingungen, in denen sich die Kommunikation abspielt, analysiert. Geschlechtstypische kommunikative Muster werden beschrieben und deren Grenzen durch Rahmenbedingungen reflektiert.
In diesem Beitrag wird zunächst geklärt, was der Begriff Authentizität beinhaltet und was entsprechend authentische Führung bedeutet. Im dritten Kapitel geht es ausführlich um den Begriff der Persönlichkeit und ausgewählte Theorien der Persönlichkeitspsychologie. Das vierte Kapitel beschäftigt sich mit Professionalität und professioneller Führung. Anschließend werden die Ausführungen stärker auf die berufliche Praxis bezogen. Im fünften Kapitel werden zwei ausgewählte Persönlichkeitstests vorgestellt, die auch in Unternehmen im Recruitment von Führungskräften eingesetzt werden. Das sechste Kapitel befasst sich mit Konzepten und Techniken zur Persönlichkeitsentwicklung. Im siebten Kapitel wird noch einmal ein Fazit gezogen. Die in der Einleitung aufgeworfenen Fragen werden zusammenfassend beantwortet.
Zunächst werden ausgewählte Theorien und Modelle zu Persönlichkeit dargestellt, der Bezug zu Führungseigenschaften und Führungsverhalten wird gezogen. Im dritten Kapitel wird Führung definiert und vertiefend erläutert. Nach einem Modell von Schulz von Thun werden in den nachfolgenden Kapiteln Wesensgemäße Führung, Situationsgerechte Führung sowie Metakommunikative Führung anhand ausgewählter Modelle erörtert. Danach wird spezifisch auf die Führungsbeziehung eingegangen (wobei natürlich auch Kommunikation sich bereits mit der Beziehung von Führungskraft und Mitarbeiter befasst). Abschließend werden die eingangs aufgeworfenen Fragen beantwortet.
In diesem Text werden Moderationsmethode und Moderationszyklus erläutert. Die einzelnen Phasen und deren Bausteine werden beschrieben. Durch viele Beispiele soll die Anwendung der Bausteine erleichtert werden. Durch die Anwendungsbeispiele der Bausteine sowie die Erläuterungen zu Moderationsvorbereitung und Moderatorenrolle (Haltung und Fragetechnik) sollen die Lesenden in die Lage versetzt werden, die Moderationsmethode nach der Teilnahme an der Beispielmoderation und deren Reflexion selbst anzuwenden.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership".
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership". Checklisten, Übungen, Arbeitsblätter, Links und Foliensätze.
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Checklisten, Übungen, Arbeitsblätter, Links und Foliensätze. Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Recent developments in the field of deep learning have shown promising advances for a wide range of historically difficult computer vision problems. Using advanced deep learning techniques, researchers manage to perform high-quality single-image super-resolution, i.e., increasing the resolution of a given image without major losses in image quality, usually encountered when using traditional approaches such as standard interpolation. This thesis examines the process of deep learning super-resolution using convolutional neural networks and investigates whether the same deep learning models can be used to increase OCR results for low-quality text images.
Cradle to Cradle – An analysis of the market potential in the German outdoor apparel industry
(2016)
The purpose of this study is to investigate the market potential in the German outdoor apparel industry by focusing on sustainable production in terms of environmental and human health. A literature study of the Cradle to Cradle (C2C) design concept is provided, as it represents a solution for pollution, waste and environmental destruction caused by the current industrial design and waste management. The data for the subsequent market- and competitive analysis of the German outdoor apparel industry was collected through secondary research in order to identify several key market indicators for the assessment of the market potential. The outcome of this research is the identification of a positioning strategy for outdoor apparel according to the C2C design concept. The results show stagnant growth rates in recent years in the German outdoor apparel market and strong rivalry among the competitors. However, a significant market potential was calculated and beneficial trends for sustainable outdoor brands were recognised. These findings reveal the existence of a market potential for an outdoor apparel brand according to the C2C design concept. By following a positioning strategy of transparency and full commitment to a sustainable production, the company might be able to gain market shares from its competitors, as future predictions indicate slow growth rates in the market. The results of this analysis can be of great interest for entrepreneurs that plan to enter the German outdoor apparel industry.
The paper presents a comprehensive model of a banking system that integrates network effects, bankruptcy costs, fire sales, and cross-holdings. For the integrated financial market we prove the existence of a price-payment equilibrium and design an algorithm for the computation of the greatest and the least equilibrium. The number of defaults corresponding to the greatest price-payment equilibrium is analyzed in several comparative case studies. These illustrate the individual and joint impact of interbank liabilities, bankruptcy costs, fire sales and cross-holdings on systemic risk. We study policy implications and regulatory instruments, including central bank guarantees and quantitative easing, the significance of last wills of financial institutions, and capital requirements.
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
Dieser Beitrag ist im Rahmen des Forschungsschwerpunktes Herbar Digital an der Fachhochschule Hannover entstanden. Es wird ein neuartiges Geschäftsprozessmodell für die Generierung und Digitalisierung von Herbarbelegen vorgestellt, in das mittels eines Prozessmusters eine Fertigungssteuerungskomponente eingebettet ist. Dieser Ansatz ist ein Beitrag zur Entwicklung eines präzisen Prozesscontrollings, das Herbarien ermöglichen soll, die massenhafte Digitalisierung von Herbarbelegen effizient durchzuführen.
Die vorliegende Arbeit stellt ein Kennzahlensystem für Geschäftsprozesse des Prozessbereichs „Herbarbeleg“ im Botanischen Garten und Botanischen Museum Berlin-Dahlem (BGBM) vor. Das Kennzahlensystem ist ein Controlling-Werkzeug, welches Leistungsunterschiede zwischen Ist- und Soll-Geschäftsprozessen verdeutlicht.<br /> Das Kennzahlensystem basiert auf Erkenntnissen zu Prozessbenchmarking, Kennzahlen sowie solchen des Forschungsschwerpunkts Herbar Digital und berücksichtigt die zentralen Aspekte Zeit, Kosten und Qualität. Die Kennzahl Stückkosten verifizierter Leistungen steht an der Spitze des Kennzahlensystems und repräsentiert die Produktionskosten eines mit ausreichender Qualität digitalisierten Herbarbelegs.
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
Fortgeschrittene Konzepte der logischen Programmierung - für Kinder einfach zugänglich via NLP
(2019)
In dieser Arbeit wurde an der über Google Dialogflow gesteuerten Entwicklungsumgebung für logische Programmierung "Speech and Logic IDE" (SLIDE) geforscht. Die Anwendung wurde von Dialogflow zu der Bibliothek Snips NLU überführt, damit ohne Internetanbindung gearbeitet werden kann.
Als Hauptteil der Arbeit wurden die logischen Konzepte Variablen, Rekursion und Listen in die Anwendung implementiert. Es wurde eine Benennungsvorschrift eingeführt, die die Anwendung von starren Strukturen löst und es durch rekursive Verarbeitung erlaubt, beliebig komplexe Strukturen zu modellieren. Die Anwendung wurde anschließend im Rahmen der Sekundarstufe I betrachtet. Die behandelten Fragen waren:
"Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Fakten und Regeln zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Variablen, Rekursion und Listen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen außerhalb der mathematischen Domäne zu vermitteln?"
Dazu wurden zwei Unterrichtsbeispiele konzipiert, die sich im Deutschunterricht mit Grammatik und Lyrik auseinandersetzen, zwei Themen des niedersächsischen Kerncurriculums aus der Sekundarstufe I. Bei der Unterrichtsgestaltung wurde besonderes Augenmerk auf die neu eingeführten Konzepte gesetzt. Das zweite Unterrichtsbeispiel wurde im Rahmen einer Zusammenarbeit mit dem Projekthaus Zukunft MINT der Hochschule Hannover zweimalig mit unterschiedlichen 10. Klassen (IGS und Gymnasium) durchgeführt. Die theoretischen Ergebnisse der Arbeit zeigen, dass alle Fragen mit "Ja" beantwortet werden können. In der neuen Version von SLIDE ist es möglich die neuen Konzepte zu modellieren und es ist möglich Unterrichtsbeispiele zu konzipieren, die dieses Wissen vermitteln und sich auf Inhalte des Kerncurriculums beziehen. Die Ergebnisse der Feldexperimente in Form von Fragebögen fallen weniger aussagekräftig aus, da sich die SuS bereits am Ende der Sekundarstufe I befanden und die konzipierten Inhalte somit eine Wiederholung darstellten. Weiter muss anerkannt werden, dass viele Faktoren bei der Befragung nicht berücksichtigt werden konnten. Deswegen können aus den praktischen Versuchen keine umfassenden Schlüsse gezogen werden, eine optimistische Betrachtung zeigt ein generelles Interesse der Anwendung seitens der SuS. Die Erfahrungen legen nahe die Unterrichtsinhalte auf mehrere Unterrichtseinheiten aufzuteilen, damit die Teilnehmer mit Vorwissen an die neuen Konzepte herantreten und sich auf sie konzentrieren können.
Training and evaluating deep learning models on road graphs for traffic prediction using SUMO
(2024)
The escalation of traffic volume in urban areas poses multifaceted challenges including increased accident risks, congestion, and prolonged travel times. Traditional approaches of expanding road infrastructure face limitations such as space constraints and the potential exacerbation of traffic issues.
Intelligent Transport Systems (ITS) present an alternative strategy to alleviate traffic problems by leveraging data-driven solutions. Central to ITS is traffic prediction, a process vital for applications like Traffic Management and Navigation Systems.
Recent advancements in traffic prediction have witnessed a surge of interest, particularly in deep learning methods optimized for graph-based data processing, being considered the most promising avenue presently.
These methods typically rely on real-life datasets containing traffic sensor data such as METR-LA and PeMS. However, the finite nature of real-life data prompts exploration into augmenting training and testing datasets with simulated traffic data.
This thesis explores the potential of utilizing traffic simulations, employing the microscopic traffic simulator SUMO, to train and test deep learning models for traffic prediction. A framework integrating PyTorch and SUMO is proposed for this purpose, aiming to elucidate the feasibility and effectiveness of using simulated traffic data for enhancing predictive models in traffic management systems.
Die Einführung einer elektronischen Stimmabgabe bei Kommunalwahlen (E-Voting) ist durch rechtliche und technische Herausforderungen derzeit nicht praktikabel umsetzbar. Untersuchungen zeigen, dass die Einführung zahlreiche Vorteile für die Wahlberechtigten und die Wahlbehörden haben könnte. Die zeitweise Einführung von E-Voting mit Wahlmaschinen wurde jedoch auch rechtlichen Gründen für unzulässig erklärt. So gab es in den letzten Jahren keine neuen Umsetzungsversuche.
Im Rahmen dieser Arbeit wird ein Konzept für eine elektronische Stimmabgabe bei Kommunalwahlen entwickelt. Um das Konzept in das derzeitige Wahlsystem zu integrieren, wird die Briefwahl als Basis gewählt. Unter Zuhilfenahme von Gesetzestexten wird der Ablauf beschrieben und als Prozessdiagramm dargestellt. Anschließend werden Anforderungen an ein E-Voting-System aus der Literatur aufgenommen und durch die Bildung von Kernaussagen konsolidiert. In jedem ermittelten Briefwahl-Prozessschritt wird die Untersuchung elektronischer Möglichkeiten durch die Prüfung der Kernaussagen bewertet. Anschließend wird die geeignetste elektronische Möglichkeit in das Konzept übernommen.
Die ermittelten Möglichkeiten zeigen, dass durch den Einsatz von Vertrauensdiensten und Vertrauensdiensteanbietern die Anforderungen erfüllt werden können. Daraus ergibt sich ein Konzept, welches mithilfe aktueller technischer und rechtlicher Entwicklungen eine elektronische Stimmabgabe ermöglichen kann. Unter der ganzheitlichen Betrachtung des Wahlsystems sind jedoch noch viele Herausforderungen zu beachten, die in dieser Arbeit nicht näher erläutert wurden. Die Entwicklungen der letzten Jahre begünstigen die Konzeptionierung einer elektronischen Stimmabgabe. Diesem steht jedoch weiterhin Herausforderungen durch fehlende rechtliche Bewertung, mangelndes Vertrauen, Gesetze, Verordnungen und Medienbrüche entgegen, die vor dem Einsatz bewältigt werden müssen.
Die Sammlung, Archivierung und Digitalisierung von Botanischen Belegen als Wertschöpfungskette
(2010)
Im Rahmen des Forschungsprojekts Herbar Digital an der Fachhochschule Hannover soll die Digitalisierung von Herbarbelegen um eine Zehnerpotenz auf 2 US-Dollar pro Beleg gesenkt werden. Ein Ansatz zielt auf die Optimierung von Geschäftsprozessen ab. Im Verlauf des Forschungsprojektes hat sich bei der Modellierung von Geschäftsprozessen zur Digitalisierung gezeigt, dass die Prozesse eines Herbariums nicht isoliert betrachtet werden können.<br /> Die vorliegende Untersuchung analysiert daher botanische Aktivitäten der Sammlung, Bestimmung, Digitalisierung, Lagerung und Auswertung von Belegen in acht deutschen Herbarien. So werden Ergebnisse über die Kombination der Ressourcen Arbeitsmittel, Personalien und Informationen in den einzelnen Aktivitäten offen gelegt, die bei der Referenzmodellierung von Geschäftsprozessen angewendet werden können. Die hier gewonnenen Ergebnisse der explorativen Vorgehensweise lassen sich in repräsentativen Untersuchungen tiefergehend analysieren.
In Niedersachsen setzt das Ministerium für Wissenschaft und Kultur seit 2007 ein Hochschulkennzahlensystem ein, um einen Teil des Grundhaushalts wettbewerblich an die Hochschulen zu verteilen. Über die Mittelvergabe hinaus ist ein Monitoringsystem integriert, mit dem die Entwicklung der Hochschulen beurteilt werden kann. Zur differenzierten Beurteilung werden monetäre und nichtmonetäre Hochschuldaten zu Kennzahlen verdichtet. Die Kennzahlen befinden sich jedoch auf einer zu hohen Aggregationsebene für ein hochschulinternes Controlling an der Fachhochschule Hannover. Daher dienen Berichtssysteme mit Standardberichten der Information über hochschulweite Prozesse und Ressourcen, um im zunehmenden Wettbewerb der Fachhochschulen fundierte Entscheidungen treffen zu können. Beispielhaft werden Standardberichte zu erbrachten Lehrleistungen als erste Komponente des nichtmonetären Controllings in einem Berichtssystem konzipiert. Methodisch basiert die Konzeption auf einer Informationsbedarfsanalyse mit induktiven und deduktiven Verfahren. Das Vorgehen lässt sich grundsätzlich auf weitere nichtmonetäre Leistungen (z. B. der Forschung) übertragen und in die konzipierte Struktur integrieren.
Die Forschung am Herbarbeleg ist in der Botanik und der Taxonomie einem Wandel ausgesetzt. Zunehmend werden in Herbarien digitale Kopien verwendet, die neue Auswertungs- und Analysemethoden ermöglichen. Die Entwicklung technischer und wirtschaftlicher Verfahren zur Herbarbeleg-Digitalisierung ist Gegenstand des Forschungsschwerpunkts Herbar Digital der Hochschule Hannover. Das Ziel von Herbar Digital ist es, das System der Virtualisierung von Herbarbelegen und deren Verwaltung so zu automatisieren, dass die Kosten von 20 US-$ auf 2 US-$ reduziert werden. Betrachtet man die Herbarbeleg-Digitalisierung als ein zu planendes 5-Jahres-Investitionsprojekt, dann sind unterschiedliche Szenarien und deren wirtschaftlichen Auswirkungen denkbar. In dem vorliegenden Arbeitspapier werden drei Szenarien entwickelt und soweit operationalisiert, dass sowohl Aussagen einer technischen Investitionsplanung als auch einer wirtschaftlichen Investitionsplanung über den Planungshorizont von 5 Jahren abgeleitet werden. In technischer Hinsicht werden die Produktion, Logistik (inkl. IT) sowie das Personal geplant. Die wirtschaftlichen Aussagen beziehen sich auf Standort- und Betriebsmittelkosten, IT- und Logistikkosten, Personalkosten sowie sonstige Kosten. Um den Projekterfolg sicherzustellen, sind beide Planungsbereiche in einem Konzept für das Investitionscontrolling integriert. Als Ergebnis von Szenario 1 ergeben sich bei einer Produktionsmenge von 1 Mio. digitalen Belegen Ausgaben in Höhe von 2,05 € pro Digitalisat. Das Szenario 1 ist als generelles Forschungsergebnis von Herbar Digital zu verstehen und liefert entsprechend eine Referenzlösung für alle Objekte im Kontext einer musealen Herbarbeleg-Digitalisierung. Bei einer Produktion von 5 Mio. Digitalisaten in Szenario 2 wird von einer Kooperation der Herbarien in Berlin und einem ausländischen Partner mit halben Lohnniveau ausgegangen. Es reduzieren sich die zahlungswirksamen Kosten auf 1,21 € pro Digitalisat. Das Ergebnis aus Szenario 2 bleibt auch in Szenario 3 konstant, worin unter Einbezug eines weiteren inländischen Kooperationspartners 10 Mio. digitale Herbarbelege hergestellt werden. Vermutlich ergeben sich unter den technischen Bedingungen keine weiteren Kostendegressionseffekte.
Neben circa 22.000 verschiedenen kultivierten Pflanzenarten besitzt die Zentraleinrichtung Botanischer Garten und Botanische Museum Berlin-Dahlem (BGBM) ca. 3,8 Millionen konservierter Pflanzenbelege aus aller Welt in seinem Herbarium. Diese Herbarbelege dienen als Grundlage wissenschaftlicher Forschung. Über die Erstellung digitaler Kopien kann das Versenden des empfindlichen Materials verhindert und der Zugang für Forscher erheblich erleichtert werden. Die Prozesse und Methoden der Digitalisierung werden in Herbar Digital untersucht, um eine Senkung der Kosten zu ermöglichen. In dem vorliegenden Arbeitspapier wird der Einsatz einer Balanced Scorecard als Steuerungsinstrument der Herbarbeleg-Digitalisierung untersucht. Das Instrument misst die Zielerreichung und unterstützt so Entscheidungen der Führung. Vision und Strategie der Unternehmung werden in mehreren Perspektiven operationalisiert. Für jedes Ziel sind Indikatoren, Sollwerte, Istwerte und Maßnahmen zu definieren. Die Istwerte werden zu den Indikatoren und Zeitpunkten verdichtet und zeigen so den Zielerreichungsgrad an. In einem individuellen Dashboard werden die Ziele, Indikatoren, Zielwerte, Maßnahmen und weitere Informationen angezeigt und können kommentiert werden. Die Planwerte sind die Basis für den operativen Planungsprozess. Die Struktur sieht vor, dass die Ziel-Dashboards aller Organisationseinheiten einer Hochschule schließlich zu Sub- und Teil-Balanced Scorecards miteinander verknüpft werden können. Es ergibt sich je nach Sachverhalt eine Übersicht über die Ziele und korrespondierenden Indikatoren sowie deren Entwicklung und Maßnahmen. Dies wird am Beispiel der Herbarbeleg-Digitalisierung verdeutlicht.
Die Prozesskostenrechnung zum Kosten- und Leistungsmanagement der Herbarbeleg-Digitalisierung
(2013)
Die Prozesskostenrechnung untersucht die Verteilung der Vollkosten auf die bei der Herbarbeleg-Digitalisierung anfallenden Tätigkeiten (hier exemplarisch in 2010). Außerdem stellt dieses Modell ein Instrument zum Monitoring neu eingesetzter Produkt- und Prozessinnovationen dar. Die Tätigkeiten sind in Projektkostenstellen abgegrenzt, um z. B. nach Einzel- und Gemeinkosten zu unterscheiden. Der Fokus liegt auf der Methodenentwicklung. Die Führungsaufgaben und unterstützenden Tätigkeiten sind in Bezug auf die Leistungsmenge neutral. Ihre Kosten werden auf leistungsmengeninduzierende Kerntätigkeiten umgelegt, die in sieben Phasenbereiche konsolidiert wurden. Für die untersuchten Projekte „Willdenow“ und „Global Plant Initiative“ ergaben sich jeweils Leistungs- und Kostenkennzahlen für die einzelnen Phasenbereiche. Entwicklungsbedarf des Modells besteht u. a. bei der Validität der Kostenträger, Zeichenerfassung, Kosten ehrenamtlicher Tätigkeiten, Reduktion der Komplexität und sonstiger Störungen. Die Prozesskostenrechnung ist als ein weiterführendes Instrument der Vollkostenrechnung entwickelt worden und kann auch als Deckungsbeitragsrechnung betrieben werden. Mit den Ergebnissen wird keine Kontrolle der Aufgabenwahrnehmung einzelner Mitarbeiter verfolgt.
Die Arbeit untersucht die Anwendung von maschinellem Lernen zur Erkennung von Aktivitäten von Schiffen anhand von AIS-Signalen. Das Automatic Identification System (AIS) wird von Schiffen genutzt, um Informationen über ihren Status in regelmäßigen Intervallen zu übertragen. Auf Basis der Daten wurden mithilfe von Machine Learning-Algorithmen aus der Gruppe der überwachten Klassifikationsalgorithmen Modelle gelernt, die in der Lage sind zu erkennen, welcher Aktivität ein Schiff zu einem Zeitpunkt nachgeht.
Da das erfolgreiche Lernen eines Modells von einer sorgfältigen Datenvorbereitung abhängt, wurden verschiedene Verfahren zur Datenvorbereitung verwendet. Anschließend wurden verschiedene Algorithmen eingesetzt, darunter der Random Forest und k-NN, um Modelle zu lernen.
Die Ergebnisse zeigen, dass die Aktivitäten mit einer Genauigkeit von bis zu 99% erkannt werden konnten, wenn in der Datenvorbereitung geeignete Verfahren gewählt wurden.
The negative effects of traffic, such as air quality problems and road congestion, put a strain on the infrastructure of cities and high-populated areas. A potential measure to reduce these negative effects are grocery home deliveries (e-grocery), which can bundle driving activities and, hence, result in decreased traffic and related emission outputs. Several studies have investigated the potential impact of e-grocery on traffic in various last-mile contexts. However, no holistic view on the sustainability of e-grocery across the entire supply chain has yet been proposed. Therefore, this paper presents an agent-based simulation to assess the impact of the e-grocery supply chain compared to the stationary one in terms of mileage and different emission outputs. The simulation shows that a high e-grocery utilization rate can aid in decreasing total driving distances by up to 255 % relative to the optimal value as well as CO 2 emissions by up to 50 %.
Context: Agile software development (ASD) sets social aspects like communication and collaboration in focus. Thus, one may assume that the specific work organization of companies impacts the work of ASD teams. A major change in work organization is the switch to a 4-day work week, which some companies investigated in experiments. Also, recent studies show that ASD teams are affected by the switch to remote work since the Covid 19 pandemic outbreak in 2020.
Objective: Our study presents empirical findings on the effects on ASD teams operating remote in a 4-day work week organization. Method: We performed a qualitative single case study and conducted seven semi-structured interviews, observed 14 agile practices and screened eight project documents and protocols of agile practices.
Results: We found, that the teams adapted the agile method in use due to the change to a 4-day work week environment and the switch to remote work. The productivity of the two ASD teams did not decrease. Although the stress level of the ASD team member increased due to the 4-day work week, we found that the job satisfaction of the individual ASD team members is affected positively. Finally, we point to affects on social facets of the ASD teams.
Conclusion: The research community benefits from our results as the current state of research dealing with the effects of a 4-day work week on ASD teams is limited. Also, our findings provide several practical implications for ASD teams working remote in a 4-day work week.
Das Ziel dieser Bachelorarbeit war die Entwicklung einer voll funktionstüchtigen Webanwendung, die für den Anwendungsfall „Bronchokonstriktion“ Werkzeuge für die Darstellung und die händische Nachbearbeitung von Bilddaten und Vorhersagen aus Neuronalen Netzen bereitstellt. Dadurch können die Test- und Trainingsdatensätze für problematische Fälle erweitert werden. Konkret wurde die Anwendung durch die Verwendung von standardisierten und individuell auf das Problem zugeschnittenen Software-Engineering-Methoden sowie unter Beachtung allgemeiner Usability-Prinzipien entwickelt und evaluiert. Diese Bachelorarbeit fand in Zusammenarbeit mit dem Fraunhofer ITEM und der Forschungsgruppe „Bioinformatik“ statt.
In the last years generative models have gained large public attention due to their high level of quality in generated images. In short, generative models learn a distribution from a finite number of samples and are able then to generate infinite other samples. This can be applied to image data. In the past generative models have not been able to generate realistic images, but nowadays the results are almost indistinguishable from real images.
This work provides a comparative study of three generative models: Variational Autoencoder (VAE), Generative Adversarial Network (GAN) and Diffusion Models (DM). The goal is not to provide a definitive ranking indicating which one of them is the best, but to qualitatively and where possible quantitively decide which model is good with respect to a given criterion. Such criteria include realism, generalization and diversity, sampling, training difficulty, parameter efficiency, interpolating and inpainting capabilities, semantic editing as well as implementation difficulty. After a brief introduction of how each model works on the inside, they are compared against each other. The provided images help to see the differences among the models with respect to each criterion.
To give a short outlook on the results of the comparison of the three models, DMs generate most realistic images. They seem to generalize best and have a high variation among the generated images. However, they are based on an iterative process, which makes them the slowest of the three models in terms of sample generation time. On the other hand, GANs and VAEs generate their samples using one single forward-pass. The images generated by GANs are comparable to the DM and the images from VAEs are blurry, which makes them less desirable in comparison to GANs or DMs. However, both the VAE and the GAN, stand out from the DMs with respect to the interpolations and semantic editing, as they have a latent space, which makes space-walks possible and the changes are not as chaotic as in the case of DMs. Furthermore, concept-vectors can be found, which transform a given image along a given feature while leaving other features and structures mostly unchanged, which is difficult to archive with DMs.
Delphi is a frequently used research method in the information systems (IS) field. The last fifteen years have seen many variants of the Delphi Method proposed and used in IS research. However, these variants do not seem to be properly derived; while all variants share certain characteristics, their reasoning for differentiation inconsistently varies. It seems that researchers tend to create “new” Delphi Method variants, although the underlying modification of the Delphi Method is, in fact, minor. This leads to a heterogeneity of Delphi Method variants and undermines scientific rigor when using Delphi. The study addresses this deficit and (1) identifies different variants of Delphi and determines their characteristics, (2) critically reflects to what extent a clear distinction between these variants exists, (3) shows the clearly distinguishable Delphi Method variants and their characteristics, (4) develops a proposed taxonomy of Delphi Method variants, and (5) evaluates and applies this taxonomy. The proposed taxonomy helps clearly differentiate Delphi Method variants and enhances methodological rigor when using the Delphi Method.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Autonomous and integrated passenger and freight transport (APFIT) is a promising approach to tackle both, traffic and last-mile-related issues such as environmental emissions, social and spatial conflicts or operational inefficiencies. By conducting an agent-based simulation, we shed light on this widely unexplored research topic and provide first indications regarding influential target figures of such a system in the rural area of Sarstedt, Germany. Our results show that larger fleets entail inefficiencies due to suboptimal utilization of monetary and material resources and increase traffic volume while higher amounts of unused vehicles may exacerbate spatial conflicts. Nevertheless, to fit the given demand within our study area, a comparatively large fleet of about 25 vehicles is necessary to provide reliable service, assuming maximum passenger waiting times of six minutes to the expense of higher standby times, rebalancing effort, and higher costs for vehicle acquisition and maintenance.
At University of Applied Sciences and Arts Hannover, LON-CAPA is used as a learning management system beside Moodle. LON-CAPA has a strong focus on e-assessment in mathematics and sciences. We used LON-CAPA in Hannover mainly in mathematics courses.
Since theoretical computer science needs a lot of mathematics, this course is also well-suited for e-assessment in LON-CAPA. Beside this, we already used JFLAP as an interactive tool to deal with automata, machines and grammars in theoretical computer science. In LON-CAPA, there exists a possibility of using external graders to grade problems.
We decided to write a grading engine (with JFLAP inside) to grade automata, machines and grammars handed in by students and to couple this with LON-CAPA. This report describes the types of questions that are now possible with this grader and how they can be authored in LON-CAPA.
Bisher wurde die automatisierte Bewertung von Übungsaufgaben in LON-CAPA angeboten und mit mehreren Werkzeugen umgesetzt, darunter der JFLAP-Wrapper, der die Grundlage dieser Arbeit bildet. Daraus soll ein vollständiges eigenstehendes Programm erarbeitet werden, dass auch an andere Lernmanagementsysteme angebunden werden kann. Dabei erhält es den neuen Namen GraFLAP. Dazu wurden die Bewertungsprozesse im JFLAP-Wrapper zusammen gelegt und eine neue Schnittstelle nach ProFormA-2.1-Standard ergänzt. Außerdem sollte die Wartbarkeit verbessert werden, sodass zukünftige weiterführende Arbeiten erleichtert werden. Dazu wurden neue Datenstrukturen und Prozesse integriert, unter anderem ein einheitlicher Build-Prozess mit Maven und automatisierte Tests mit JUnit. GraFLAP bietet nun eine standardisierte Schnittstelle, übernimmt alle Bewertungsprozesse und ist so nun vollständig unabhängig von Lernmanagementsystemen.
In dieser Arbeit wurde ein System entwickelt, welches Übungsaufgaben der relationalen Algebra automatisch auswertet und dies in Form einer Punktevergabe bewertet. Darüber hinaus ist das System in der Lage lernunterstützende Feedbacks zu generieren. Dadurch sollen Studierende, die im Rahmen der Datenbank-Vorlesung relationale Algebra lernen, eine korrekte und optimierte Sprachanwendung im Bereich der relationalen Algebra lernen.
Trotz der vielfältigen Bemühungen ist auch in Niedersachsen der Anteil von Professorinnen an Fachhochschulen - insbesondere in technisch orientierten Studiengängen - noch sehr gering. Deshalb wird das Ziel, den Frauenanteil bei den Professuren zu steigern, auch weiterhin intensiv verfolgt. Das Forschungsprojekt „Verbesserung der Chancen potenzieller Professorinnen“ will dazu einen Beitrag leisten. Auf der Basis des Projektes „PROfessur“ und in enger Kooperation mit diesem soll in dem Forschungsprojekt eine empirische Erhebung durchgeführt werden. Diese hat das Ziel, durch eine Befragung von potenziellen Professorinnen zu ermitteln, welche Unterstützungen diese Zielgruppe benötigt, um zukünftig ihre Erfolgschancen bei Berufungsverfahren zu erhöhen. Aus den Ergebnissen dieser Bedarfsanalyse können dann erste konkrete Ansätze und Maßnahmen zur Verbesserung der Erfolgschancen potenzieller Professorinnen für niedersächsische Fachhochschulen abgeleitet werden.
Im Wintersemester 2005/06 und im darauf folgenden Sommersemester wurde an der FHH ein fachbereichsübergreifendes Vortragsprogramm für promovierte Gastreferentinnen aus der Wirtschaftspraxis geplant und durchgeführt. Zur Evaluation des Projekts und zur Entwicklung eines Konzeptes für einzelne Fakultäten wurde eine empirische Erhebung in Form einer Befragung der Teilnehmerinnen an dem Gastvortragsprogramm und der beteiligten Professorinnen und Professoren durchgeführt. Schwerpunkte der Befragung bildeten die Fragen nach der bisherigen und der zukünftigen Einbindung von Gastreferentinnen in die Lehre der FHH sowie die Beurteilung des Gastvortragsprogramms.
Seit einiger Zeit lässt sich eine Neuorientierung im Marketing beobachten: Lag früher der Fokus auf den umsatz- und wachstumsorientierten Strategien der Neukunden-Akquisition, so bilden heute die Themen des Kundenbindungs- und des Relationship-Managements die Schwerpunkte einer kundenorientierten Unternehmensführung.
Verstärkten Bemühungen und steigenden Investitionen der Unternehmen im „Bindungswettbewerb“ stehen jedoch auf Seiten der Nachfrager immer öfter sinkende Loyalitätsraten gegenüber. Selbst ein hoher Grad an Kundenzufriedenheit vermag die Abwanderung von Kunden häufig nicht aufzuhalten.
In Theorie und Praxis blieb das Thema der Wiedergewinnung ehemaliger Kunden bisher weitgehend vernachlässigt und empirische Daten liegen nur vereinzelt vor. An der FH Hannover wurde deshalb 1999 eine nicht auftragsgebundene, von der Hochschule selbst initiierte, empirische Erhebung über die Rückgewinnung abgewanderter Kunden durchgeführt. Diese Studie zum Customer Recovery Management konzentriert sich auf die Dienstleistungsbranche und gliedert sich in drei Stufen: eine Vor-, eine Haupt- und eine Nebenstudie.
Im Wintersemester 2005/06 und im darauf folgenden Sommersemester wurde an der FHH ein fachbereichsübergreifendes Vortragsprogramm für promovierte Gastreferentinnen aus der Wirtschaftspraxis geplant und durchgeführt. Die Resonanz darauf war sehr positiv. Die Ergebnisse der im November 2006 durchgeführten Evaluation des Gastvortragsprogramms zeigen deutlich, dass das Projekt sowohl aus Sicht der Professorenschaft als auch aus Sicht der Referentinnen als sehr erfolgreich anzusehen ist. Vor diesem Hintergrund erscheint es besonders sinnvoll, eine Konzeption für ein Gastvortragsprogramm an einzelnen Fakuläten der FHH zu entwickeln. Die Konzeption beinhaltet einen einfachen, jedoch realistischen und erprobten Ablaufplan, detaillierte Handlungsempfehlungen für jede Projektphase, sowie umfangreiche, konkrete Organisationshilfen, wie z.B. komplette Musterbriefe.
Die psychologischen Regeln der Wahrnehmungsorganisation sind relevant für die praktische Designgestaltung. Mit einem Design soll regelmäßig eine spezifische Assoziation ausgelöst werden. Beispielsweise soll eine Medikamentenverpackung seriös wirken, ein Auto sportlich und ein Mobiltelefon innovativ. Jede Gestaltung löst beim Betrachter Assoziationen und Empfindungen aus. Beispielsweise finden die meisten Menschen einen Kreis angenehmer als eine unregelmäßig zerfaserte Form. Aus diesem Beispiel kann man ableiten: Es gibt Regeln, nach denen die menschliche Wahrnehmung verläuft. Regeln, die auf den ersten Blick für alle wahrnehmenden Menschen gelten. In der folgenden Studie wird untersucht, ob solche Regeln wirklich für alle Menschen gelten. In der folgenden Untersuchung wird speziell der Zusammenhang zwischen Persönlichkeitsunterschieden und Wahrnehmungsbewertungen untersucht. Hierfür werden Unterschiede in der Persönlichkeit der Versuchsteilnehmer mittels des Fünf-Faktoren-Modells der Persönlichkeit gemessen. Für die Untersuchung wurden insgesamt 142 Studierende der Fachhochschule Hannover gewonnen.
Nachfolgend wird der einfachste Designfall als Versuchsbasis eingesetzt: Es wird mit zwei Designgrundelementen gearbeitet, einem weißen Quadrat und einem schwarzen Kreis. Beide Elemente werden auf ihre Form reduziert, Farbe und Tiefe werden konstant gehalten. Das Versuchsmaterial besteht aus siebzehn Kombinationen eines Punktes mit einem Quadrat (Formate). Je weniger symmetrisch ein Format ist, desto hässlicher wird es bewertet. Während die allgemeinpsychologischen Hypothesen weitgehend bestätigt wurden, wurden die persönlichkeitspsychologischen Hypothesen nur teilweise bestätigt. Gewissenhafte Personen bevorzugen symmetrische Formate und bewerten diese als schöner, allerdings wird der Zusammenhang nicht signifikant. Nicht bestätigt hat sich die Erwartung, dass Personen mit hoher "Offenheit für Neues" asymmetrische Designkompositionen bevorzugen. Die Nichtbestätigung der persönlichkeitspsychologischen Hypothesen könnte an der Operationalisierung der Formate liegen. Durch Reduktion auf die Farben schwarz und weiß sowie auf die beiden Grundfiguren Quadrat und Kreis könnten nur schwache Effekte hervorgerufen worden sein. In Folgeuntersuchungen sollten durch ein modifiziertes Reizmaterial stärkere Effekte erzeugt werden. Die insgesamt geringe »Offenheit für Neues« bei den Studierenden könnte ferner zu einer Varianzeinschränkung geführt haben, so dass die Korrelationen der Wahrnehmungsurteile mit dieser Persönlichkeitsdimension nicht signifikant werden.