Refine
Year of publication
Document Type
- Conference Proceeding (69)
- Working Paper (66)
- Article (54)
- Bachelor Thesis (47)
- Report (34)
- Master's Thesis (24)
- Book (19)
- Study Thesis (10)
- Course Material (9)
- Preprint (7)
Is part of the Bibliography
- no (353)
Keywords
- Digitalisierung (16)
- E-Learning (16)
- Korruption (12)
- Agilität <Management> (11)
- Führung (11)
- Grader (11)
- Herbarium (11)
- Programmierung (11)
- Autobewerter (10)
- Computerunterstütztes Lernen (10)
- Herbar Digital (10)
- Agile Softwareentwicklung (9)
- Computersicherheit (9)
- Mikroservice (9)
- Serviceorientierte Architektur (9)
- Übung <Hochschule> (9)
- Angewandte Botanik (8)
- Betriebswirtschaftslehre (8)
- E-Assessment (8)
- Gepresste Pflanzen (8)
- Lernaufgabe (8)
- Nachhaltigkeit (8)
- Softwaretest (8)
- Telearbeit (8)
- Virtualisierung (8)
- Management (7)
- Programmieraufgabe (7)
- SOA (7)
- Benutzerfreundlichkeit (6)
- Complex Event Processing (6)
- Evaluation (6)
- ISO 9001 (6)
- Künstliche Intelligenz (6)
- Lernsoftware (6)
- Maschinelles Lernen (6)
- Neuronales Netz (6)
- Psychologie (6)
- Selbstmanagement (6)
- Unternehmen (6)
- Wissenschaftliches Arbeiten (6)
- XML (6)
- Controlling (5)
- Einstellung (5)
- Gender Mainstreaming (5)
- Gleichberechtigung (5)
- Herbarbeleg (5)
- Insurance Industry (5)
- Java <Programmiersprache> (5)
- Kommunikation (5)
- Machine Learning (5)
- ProFormA (5)
- Qualitätsmanagement (5)
- Rechnernetz (5)
- Studium (5)
- Versicherungswirtschaft (5)
- Visualisierung (5)
- Wissensmanagement (5)
- Automation (4)
- Computersimulation (4)
- Corruption (4)
- Deep learning (4)
- Eindringerkennung (4)
- Erneuerbare Energien (4)
- Finanzkrise (4)
- Generation Y (4)
- Hochschule (4)
- Hochschule Hannover (4)
- Hochschulpolitik (4)
- IT-Sicherheit (4)
- JUnit (4)
- Klein- und Mittelbetrieb (4)
- Marketing (4)
- Persönlichkeit (4)
- Projektmanagement (4)
- Quotierung (4)
- Resilienz (4)
- Simulation (4)
- Softwarewerkzeug (4)
- Stress (4)
- Unternehmensgründung (4)
- Usability (4)
- Verwaltung (4)
- Agile methods (3)
- Agile software development (3)
- Arbeitswelt (3)
- Benutzeroberfläche (3)
- Biogas (3)
- CEP (3)
- COVID-19 (3)
- Chancengleichheit (3)
- Cloud Computing (3)
- Cyberattacke (3)
- Datenqualität (3)
- Digital Natives (3)
- Empfehlungssystem (3)
- Ereignisgesteuerte Programmierung (3)
- Evolutionärer Algorithmus (3)
- Finanzierung (3)
- Fragebogen (3)
- Gender (3)
- Graja (3)
- Hannover / Fachhochschule (3)
- Information Visualization (3)
- Java (3)
- Java <Programmiersprache> (3)
- Kapitalisierung (3)
- Konfiguration <Informatik> (3)
- Kontraproduktivität (3)
- LON-CAPA (3)
- Landwirtschaft (3)
- Lernen (3)
- Marktanalyse (3)
- Microservices (3)
- Network Security (3)
- OSGi (3)
- Personalpolitik (3)
- Prognose (3)
- Prozessmodell (3)
- Psychology at Work (3)
- Rechtsanwalt (3)
- Regelenergie (3)
- Reserveleistung (3)
- Risikomanagement (3)
- Scrum <Vorgehensmodell> (3)
- Security (3)
- Selbstführung (3)
- Semantic Web (3)
- Skala (3)
- Softwareentwicklung (3)
- Softwarewartung (3)
- Variabilität (3)
- Virtuelle Realität (3)
- Wirtschaftsinformatik (3)
- World Wide Web (3)
- complex event processing (3)
- e-Assessment (3)
- microservices (3)
- mobile health (3)
- AI (2)
- ARIS (2)
- Achtsamkeit (2)
- Affektives Commitment (2)
- Agent <Informatik> (2)
- Akzeptanz (2)
- Analyse (2)
- Android (2)
- Android <Systemplattform> (2)
- Anwendungssystem (2)
- App <Programm> (2)
- Arbeitspsychologie (2)
- Arbeitsqualität (2)
- Arbeitszufriedenheit (2)
- Aufgabenüberprüfung (2)
- Authentische Führung (2)
- Bachelorstudium (2)
- Balanced Scorecard (2)
- Befragung (2)
- Benutzererlebnis (2)
- Berichtssystem (2)
- Bevölkerungsentwicklung (2)
- Bewertungsschema (2)
- Big Data (2)
- Biometrie (2)
- CI/CD (2)
- Chatbot (2)
- Clean Architecture (2)
- Commitment (2)
- Consistency (2)
- Consumerization (2)
- Data Management (2)
- Datenmanagement (2)
- Datenschutz (2)
- Datenstrom (2)
- Datenverarbeitungssystem (2)
- Design Thinking (2)
- DevOps (2)
- Dienstgüte (2)
- Digital Leadership (2)
- ECA (2)
- EEG (2)
- Einführung (2)
- Erfolgsfaktor (2)
- Europa (2)
- Facebook (2)
- Factorial Survey (2)
- Faktorieller Survey (2)
- Fallstudie (2)
- Fehlerverhütung (2)
- Führungstechnik (2)
- Fünf-Faktoren-Modell (2)
- Gegenwärtigkeit (2)
- Genetische Programmierung (2)
- Genetischer Algorithmus (2)
- Geschäftsmodell (2)
- Geschäftsprozessmanagement (2)
- Geschäftsprozessmodellierung (2)
- Grappa (2)
- Grundschule (2)
- Hochschulcontrolling (2)
- Hyman P. (2)
- ISO 9001 6.1 (2)
- ISO/IEC 20000 (2)
- IT-Dienstleistung (2)
- Indicator Measurement (2)
- Individuelle Programmieraufgaben (2)
- Informatikunterricht (2)
- JFLAP (2)
- John Maynard (2)
- Keynes (2)
- Krankenhaus (2)
- Kreativität (2)
- Kreditwesen (2)
- Lehre (2)
- Leistungskennzahl (2)
- Lerntechnik (2)
- Luftqualität (2)
- Marxismus (2)
- Maschinelles Sehen (2)
- Mediendesign (2)
- Messinstrument (2)
- Microservice (2)
- Microservices Architecture (2)
- Middleware (2)
- Minsky (2)
- Mitarbeiterbeteiligung (2)
- Mittelstand (2)
- Modellierung (2)
- Moodle (2)
- Motivation (2)
- Neoliberalismus (2)
- Open Source (2)
- Organisationsentwicklung (2)
- Otto (GmbH & Co KG) (2)
- Pathologie (2)
- Patient (2)
- Personality (2)
- Persönlichkeitspsychologie (2)
- Positive Leadership (2)
- Positive Psychologie (2)
- Professionalisierung (2)
- Programmierumgebung (2)
- Prolog (2)
- Prozesse (2)
- Prozessmanagement (2)
- Prozessmuster (2)
- Prüfungsangst (2)
- Psychopathie (2)
- Qualität (2)
- Rationalisierung (2)
- Remote work (2)
- Rendering (2)
- Resiliency (2)
- Schwarmintelligenz (2)
- Server (2)
- Service-orientation (2)
- Siddhi (2)
- Smart Device (2)
- Software Engineering (2)
- Soziale Arbeit (2)
- Spiritualität (2)
- Steuerungssystem (2)
- Strategie (2)
- Straßenverkehr (2)
- Stressbewältigung (2)
- Studienarbeit (2)
- Tertiärbereich (2)
- Theoretische Informatik (2)
- Unternehmensberatung (2)
- Urban Logistics (2)
- User Interfaces (2)
- Verarbeitung komplexer Ereignisse (2)
- Versicherung (2)
- Versicherungsbetrieb (2)
- Vignette (2)
- Visual Analytics (2)
- Vortragsreihe (2)
- Wert (2)
- Wirtschaft (2)
- Wirtschaftskrise (2)
- Work-Life-Balance (2)
- World Wide Web 2.0 (2)
- XML-Model (2)
- XML-Schema (2)
- Zertifizierung (2)
- acceptance (2)
- agile methods (2)
- agile software development (2)
- build automation (2)
- build server (2)
- business process management (2)
- digital divide (2)
- digitalization (2)
- eduscrum (2)
- emotionale Bindung (2)
- evaluation (2)
- event-driven architecture (2)
- event-driven process chain (2)
- general practitioners (2)
- herbal (2)
- mHealth (2)
- machine learning (2)
- production control (2)
- remote work (2)
- specimen (2)
- studiVZ (2)
- tablet (2)
- virtual reality (2)
- Öffentlicher Personennahverkehr (2)
- Übung <Hochschule> (2)
- 3d mapping (1)
- 4-day work week (1)
- 5-Faktoren-Modell der Persönlichkeit (1)
- AI influences (1)
- API (1)
- APT (1)
- Abalone (1)
- Absatz- und Beschaffungsrhythmen (1)
- Abschiedsvorlesung (1)
- Abschlussarbeit (1)
- Absolvent (1)
- Accounting (1)
- Ad-hoc-Netz (1)
- Adaptive IT Infrastructure (1)
- Adaptives Verfahren (1)
- Advanced Persistent Thread (1)
- Aggression (1)
- Agile Manifesto (1)
- Agile Methoden (1)
- Agile Practices (1)
- Agile Software Development (1)
- Agile Softwareentwicklungsteams (1)
- Agile education (1)
- Agile method (1)
- Agile practices (1)
- Air Quality Monitoring (1)
- Air quality (1)
- Aktienkursreaktionen (1)
- Aktives Zuhören (1)
- Al (1)
- Algorithmus (1)
- Allgemeinarzt (1)
- AlphaGo (1)
- Altenbildung (1)
- Alter (1)
- Alternative work schedule (1)
- Altruism (1)
- Altruismus (1)
- Ampel (1)
- Android App Entwicklungsumgebung (1)
- Anforderungsmanagement (1)
- Anforderungsprofil (1)
- Angewandte Informatik (1)
- Angriffserkennung (1)
- Angst (1)
- Angular (1)
- Anomalieerkennung (1)
- Anomaly detection (1)
- Anonymization (1)
- Antifragile (1)
- Application Programming Interface (1)
- Arbeitsablauf (1)
- Arbeitsbelastung (1)
- Arbeitsbezogene Erwartungen (1)
- Arbeitsklima (1)
- Arbeitsmarkt (1)
- Arbeitsmarktpotenziale (1)
- Arbeitsplatz / Stress (1)
- Arbeitstechnik (1)
- Arbeitstechniken (1)
- Aristoteles (1)
- Articial intelligence (1)
- Assessment Center (1)
- Asymmetric encryption (1)
- Attack detection (1)
- Attribution (1)
- Aufgabensammlung (1)
- Augmented Reality (1)
- Ausbildung (1)
- Auslandstätigkeit (1)
- Auswahl (1)
- Auswertung (1)
- Auswirkung (1)
- Authentic Leadership (1)
- Authentication (1)
- Authentifikation (1)
- Authorization (1)
- Automatenlehre (1)
- Automatentheorie (1)
- Automatic Identification System <Schifffahrt> (1)
- Automatisierte Bewertung (1)
- Automatisierte Programmbewertung (1)
- Autonomes Fahrzeug (1)
- Autonomie (1)
- Autorisierung (1)
- Außerirdisches Leben (1)
- BAföG (1)
- BLAST algorithm (1)
- BaaS (Backend-as-a-service) (1)
- Bachelorarbeit (1)
- Bachelorstudiengang (1)
- Bacterial genomics (1)
- Bankruptcy costs (1)
- Bat algorithm (1)
- Batteriefahrzeug (1)
- Battery Electric Vehicles (1)
- Baum (1)
- Bearbeitung (1)
- Begriff (1)
- Bekleidungsindustrie (1)
- Belohnung (1)
- Benchmarking (1)
- Benutzerforschung (1)
- Beobachtung (1)
- Beratung (1)
- Beratungsmarkt (1)
- Beratungsmethode (1)
- Beruf (1)
- Berufliche Fortbildung (1)
- Berufsanforderungen (1)
- Berufsaussichten (1)
- Berufserfolg (1)
- Berufsleben (1)
- Berufstätigkeit / Stress (1)
- Berufsziel (1)
- Berufszufriedenheit (1)
- Bestärkendes Lernen <Künstliche Intelligenz> (1)
- Besucherstromanalyse (1)
- Betriebliche Förderung (1)
- Betrieblicher Konflikt (1)
- Betriebsdaten (1)
- Betriebsform (1)
- Betriebsorganisation (1)
- Betriebssystem (1)
- Betriebswirtschaftliches Studium (1)
- Bewerbungsprozess (1)
- Bewertungsaspekt (1)
- Bewertungsmaßstab (1)
- Beziehungsmanagement (1)
- Bibliothek (1)
- Big Data Analytics (1)
- Big Five (1)
- BilMoG (1)
- Bilanzrecht (1)
- Bildgebendes Verfahren (1)
- Bildungsaufstieg (1)
- Biodiversitätsinformatik (1)
- Blackboard Pattern (1)
- Bluetooth Exposure Logging (1)
- Bluetooth-Standard (1)
- Break-even-Analyse (1)
- Brettspiel (1)
- Bring Your Own Device (1)
- Bronchokonstriktion (1)
- Bundesverband Deutscher Unternehmensberater (1)
- Burnout-Selbstgefährdungstest (1)
- Burnout-Syndrom (1)
- Business Intelligence (1)
- Business Plan (1)
- Business model (1)
- Business-to-Consumer (1)
- Bürgergesellschaft (1)
- C-SPARQL (1)
- C2C (1)
- COBIT (1)
- COVID 19 pandemic (1)
- COVID-19-Pandemie (1)
- CQL (1)
- CRM in Hochschulen (1)
- Case Management (1)
- Chancenmanagement (1)
- Chaos (1)
- Chaostheorie (1)
- ChatGPT (1)
- Checkliste (1)
- Choreography (1)
- City-Logistik (1)
- Cochlea (1)
- Code quality (1)
- Company (1)
- Competitive Intelligence (1)
- Complex Event Processing (CEP) (1)
- Complex Event Processing Engine (1)
- Complex event processing (1)
- Compliance (1)
- Computer Graphics (1)
- Computer Vision (1)
- Computer simulation (1)
- Computergrafik (1)
- Computerkriminalität (1)
- Computerunterstützter Unterricht (1)
- Conscientiousness (1)
- Consulting (1)
- Consultingmethode (1)
- Contactless Payment (1)
- Container (1)
- Context Awareness (1)
- Context-aware recommender systems (1)
- Continuous Delivery (1)
- Corporate Credit Risk (1)
- Crisis (1)
- Critical Incident (1)
- Critical Incident Technique (1)
- Cross-holdings (1)
- Crowdsensing (1)
- Crowdshipping (1)
- Crowdsourcing (1)
- Curriculumentwicklung (1)
- Customer Recovery Management (1)
- Customer channel (1)
- Cyber Insurance (1)
- Cyber Risks (1)
- Cyber-Versicherung (1)
- Cybersecurity (1)
- DAX (1)
- Damage claims (1)
- Data Cubes (1)
- Data Mining (1)
- Data Quality (1)
- Datenanalyse (1)
- Datenbank (1)
- Datenbanksprache (1)
- Datenerhebung (1)
- Datenintegration (1)
- Datenmodell (1)
- Datenwürfel (1)
- Decision Support (1)
- Decision Support Tool (1)
- Deep Learning (1)
- Delphi (1)
- Delphi method characteristics (1)
- Delphi method variants (1)
- Demokratie (1)
- Depression (1)
- Depression <Wirtschaft> (1)
- Design (1)
- Design Science (1)
- Designwissenschaft <Informatik> (1)
- Desktop-Computer (1)
- Deutschland (1)
- Die Linke (1)
- Dienstleistungsbetrieb (1)
- Diffusion Models (1)
- Digitale Fabrik (1)
- Digitale Führung (1)
- Digitale Pathologie (1)
- Digitale Transformation (1)
- Digitaler Marktplatz (1)
- Diskriminierung (1)
- Distributed file systems (1)
- Diversity (1)
- Docker (1)
- Domain Driven Design (DDD) (1)
- Dunkle Triade (1)
- Dyadisches Gitter (1)
- Dünnes Gitter (1)
- E - Assessment (1)
- E - Learning (1)
- E-Government (1)
- E-Grocery (1)
- E-Health (1)
- E-Voting (1)
- EAP (1)
- EAssessment (1)
- EPN (1)
- ESP32 (1)
- Echtzeitsimulation (1)
- Echtzeitverarbeitung (1)
- Edge computing (1)
- Editor (1)
- Education (1)
- Educational Upward Mobility (1)
- Ehrenamt (1)
- Eigenkapital-Quote (1)
- Eilzustellung (1)
- Eingebettetes System (1)
- Einzelfertigung (1)
- Electronic Payment (1)
- Elektromobilität (1)
- Elektronische Wahl (1)
- Elektronischer Markt (1)
- Elektronischer Marktplatz (1)
- Emotional Competence (1)
- Emotionale Kompetenz (1)
- Empirische Wirtschaftsforschung (1)
- Endredaktion (1)
- Enduser Device (1)
- Energieautarkie (1)
- Energieerzeugung (1)
- Energiegewinnung (1)
- Energiemanagement (1)
- Energy Harvesting (1)
- Entgrenzung (1)
- Entrepreneurship (1)
- Entscheidungsbaum (1)
- Entscheidungsunterstützungssystem (1)
- Entwicklung (1)
- Ereignisgesteuerte Prozesskette (1)
- Ereignisstudie (1)
- Erfolg (1)
- Erfolgskontrolle (1)
- Erhebung (1)
- Erhebungsmethode (1)
- Erhebungsmix (1)
- Erneuerbare-Energien-Gesetz (2000) (1)
- Erneuerungstheorie (1)
- Erweiterte Realität <Informatik> (1)
- Esper (1)
- Ethik (1)
- Event Admin (EA) (1)
- Event Processing Network (1)
- Event Processing Network Model (1)
- Event monitoring (1)
- Explainability (1)
- Explainable anomaly detection (1)
- Extrinsische Motivation (1)
- Eye-Tracking (1)
- FaaS (Function-as-a-service) (1)
- Facebook-Verweigerung (1)
- Fachhochschule Hannover. Fachbereich Wirtschaft (1)
- Fachkräftemangel (1)
- Fahrplan (1)
- Farming 4.0 (1)
- Fault tolerance (1)
- Feedback (1)
- Fehlererkennung (1)
- Fernunterricht (1)
- Fertigungsanlage (1)
- Fertigungssteuerung (1)
- Financial contagion (1)
- Financial network (1)
- Finanzkommunikation (1)
- Finanzlage (1)
- Finanzplanung (1)
- Fire sales (1)
- Flanagan (1)
- Flexible Arbeitsstrukturen (1)
- Flexwork (1)
- Flow-Erlebnis (1)
- Flugbahnführung (1)
- Flugfuehrung (1)
- Flugführung (1)
- Flugmechanik (1)
- Foresight (1)
- Formale Sprache (1)
- Frageverhalten (1)
- Framework (1)
- Framework <Informatik> (1)
- Frauenquote (1)
- Freiluftsport (1)
- Function as a Service (1)
- Futurologie (1)
- Fußgänger (1)
- Führung auf Distanz (1)
- Führungskompetenz (1)
- Führungskräfteentwicklung (1)
- Führungspsychologie (1)
- Führungsstil (1)
- GAN (1)
- GPGPU (1)
- GPT-3 (1)
- Gedenkfeier (1)
- Gefahrenabwehr (1)
- Geldknappheit (1)
- Geldwirtschaft (1)
- Gender Orders (1)
- Gender Studies (1)
- General Purpose Computation on Graphics Processing Unit (1)
- Generative Adversarial Network (1)
- Genetic Programming (1)
- Genetic algorithms (1)
- Genomic databases (1)
- Geschichte (1)
- Geschlecht (1)
- Geschlechtsunterschied (1)
- Geschäftsbericht (1)
- Geschäftsmodellinnovation (1)
- Geschäftsplan (1)
- Geschäftsprozesse (1)
- Gesichtserkennung (1)
- Gesundheit (1)
- Gesundheitsinformationssystem (1)
- Gesundheitsmanagement; Betriebliches Gesundheitsmanagement (1)
- Gesundheitspolitik (1)
- Gewinnschwellenanalyse (1)
- Gewissenhaftigkeit (1)
- Glaubhaftigkeitsdiagnostik (1)
- Glaubwürdigkeitsattribution (1)
- GraFLAP (1)
- Grand Challenges (1)
- Graph embeddings (1)
- Graphdatenreduktion (1)
- Graphische Benutzeroberfläche (1)
- Greedy-Algorithmus (1)
- Green Tourism (1)
- Gute Arbeit (1)
- Hadoop (1)
- Handelsbot (1)
- Handypayment (1)
- Hannover <Ortsname> (1)
- Hardwarebeschleunigung (1)
- Hausarzt (1)
- Higher Education (1)
- Hochschullehre (1)
- Hochschulverwaltung (1)
- Human Resource Management (1)
- Humanvermögen (1)
- Hybrid Work (1)
- Hybride Arbeit (1)
- IDS (1)
- IEEE 802.1X (1)
- IKB Deutsche Industriebank (1)
- IP 6 (1)
- IPv6 (1)
- ISO 27 K (1)
- ISO 27000 (1)
- ISO 27001 (1)
- ISO 27002 (1)
- ISO/IEC 27000 (1)
- IT Risk (1)
- IT Risk Management (1)
- IT Security Risk (1)
- IT Sicherheit (1)
- IT security (1)
- IT-Service-Management (1)
- Idiosyncratic Risk (1)
- Implizites Motiv (1)
- Incentivierung (1)
- Industrial espionage (1)
- Industrie 4.0 (1)
- Industriespionage (1)
- Industry 4.0 (1)
- Information system (1)
- Information systems research (1)
- Informationserhebung (1)
- Informationssicherheit (1)
- Informationstechnik (1)
- Innere Kündigung (1)
- Innovationsmanagement (1)
- Inoffizielle Mitarbeiter (IM) (1)
- Instanziierungsservice (1)
- Instrument (1)
- Insurance (1)
- Integrated Management (1)
- Integration (1)
- Intelligent Transport Systems (ITS) (1)
- Intelligent control (1)
- Intelligentes Stromnetz (1)
- Intelligenz (1)
- Interaktion (1)
- Interaktionales Verhalten (1)
- Interdisziplinarität (1)
- Interdiziplinäre Studiengänge (1)
- Internationale Migration (1)
- Internationalisierung (1)
- Internet der Dinge (1)
- Interview (1)
- Intrinsic motivation (1)
- Intrinsische Motivation (1)
- Intrusion Detection (1)
- Investition (1)
- Investment Banking (1)
- Investor Relations (1)
- IoT (1)
- Irrelevanzminderung (1)
- Istio (1)
- Iteration (1)
- JFLAP-Wrapper (1)
- JFugue (1)
- Jahresabschlussfunktion (1)
- Johann statt Hakan (1)
- John Clemans (1)
- KPI (1)
- Kapitalbeteiligung (1)
- Kapitalismus (1)
- Kardiovaskuläre Krankheit (1)
- Karl (1)
- Karrierehemmnis (1)
- Kaufkraft (1)
- Kaufkraftstromanalyse (1)
- Kennzahlen (1)
- Key Performance Indicator (1)
- Keynessche Theorie (1)
- Klassifikation (1)
- Klassifizierung (1)
- Knowledge graphs (1)
- Kognitives Interview (1)
- Kommunalwahl (1)
- Kommunikationspsychologie (1)
- Kompetenzen (1)
- Komposition <Musik> (1)
- Konfigurationen (1)
- Konfigurationsverwaltung (1)
- Konjunktur (1)
- Konkurrenzanalyse (1)
- Konsumgüterwirtschaft (1)
- Kontaktloses Bezahlen (1)
- Kontextbezogenes System (1)
- Kontextfaktor (1)
- Kontinuierliche Integration (1)
- Konverter (1)
- Konzentration (1)
- Konzeption (1)
- Kooperation (1)
- Kooperative Lernumgebung (1)
- Korruptionsbewertung (1)
- Kostenanalyse (1)
- Krankenhauspolitik (1)
- Kreatives Denken (1)
- Kreditmarkt (1)
- Kreditrisiko (1)
- Krise (1)
- Krisentheorie (1)
- Kritische Masse (1)
- Kritisches Ereignis (1)
- Kubernetes (1)
- Kultur (1)
- Kulturkontakt (1)
- Kundenbindung (1)
- Kundengruppenmanagement (1)
- Kundenorientierung (1)
- Kundenrückgewinnung (1)
- Köln / Deutsche Forschungsanstalt für Luft- und Raumfahrt / Forschungsbereich Flugmechanik (1)
- Landesbehörde (1)
- Landmarke (1)
- Landmarkenbasierte Registrierung (1)
- Lastinduktion (1)
- Leadership (1)
- Lean Management (1)
- Lebensmittel (1)
- Lebensmitteleinzelhandel (1)
- Lehrevaluation (1)
- Leistungen der Lehre (1)
- Leistungskennzahlen (1)
- Leistungsmessung (1)
- Leitfadeninterviews (1)
- Lernerfolgsmessung (1)
- Lernmanagementsystem (1)
- Lernpsychologie (1)
- Lesekompetenzen (1)
- Liberalismus (1)
- Licht (1)
- Lieferservice (1)
- LightSabre (1)
- Liquidität (1)
- Liquiditätsplan (1)
- Liquiditätsplanung (1)
- Literaturbericht (1)
- Location-based systems (1)
- Logische Programmierung (1)
- Lost Letter Technique (1)
- Luftfahrt (1)
- Lymphknoten (1)
- Lügendetektor (1)
- M-Payment (1)
- MANET (1)
- Machiavellismus (1)
- Machine-to-Machine-Kommunikation (1)
- Magnetometer (1)
- Management Accounting (1)
- Management Accounting in Higher Education (1)
- MapReduce (1)
- MapReduce algorithm (1)
- Maps (1)
- Marketingstrategie (1)
- Markov-Modell (1)
- Marktpotenzial (1)
- Marktuntersuchung (1)
- Marx (1)
- Masterstudium (1)
- Medien (1)
- Mediendesignausbildung (1)
- Mediendesigninformatik (1)
- Meditation (1)
- Medium (1)
- Meldebereitschaft (1)
- Mensch (1)
- Menschliche Cochlea (1)
- Mergers and Acquisitions (1)
- Metagenomics (1)
- Metakognitive Therapie (1)
- Method (1)
- Methode (1)
- Methode kritischer Ereignisse (1)
- Metriken (1)
- Mikro-Kraft-Wärme-Kopplung (1)
- Mikrocontroller (1)
- Mikrocontroller ESP32 (1)
- Millennials (1)
- Minsky, Hyman P. (1)
- Mitverfasser (1)
- Mobbing (1)
- Mobile (1)
- Mobile Applications (1)
- Mobile Device (1)
- Mobile Device Management (1)
- Mobile Money Transfer (1)
- Mobile-Payment (1)
- Mobiles Internet (1)
- Mobilfunkbasierende Bezahlung (1)
- Moderation (1)
- Modifizierte dezentrale (1)
- Monitoring (1)
- MooPT (1)
- Moodle-STACK (1)
- Moral licensing (1)
- Motivationspsychologie (1)
- Multidimensional Analysis (1)
- Multidimensional analysis (1)
- Music recommender (1)
- Musik (1)
- Musikkomposition (1)
- NEO-FFI (1)
- NLU (1)
- Nachrichtendienst (1)
- Nachrichtendienstpsychologie (1)
- Nagios (1)
- Narzissmus (1)
- Naturalwirtschaft (1)
- Natürlichsprachliche Programmierung (1)
- Netzwerk (1)
- Netzwerksicherheit (1)
- Neural controls (1)
- Neural networks (1)
- Neural-network models (1)
- Nichtlineare Dynamik (1)
- Niedersachsen / Ministerium für Wissenschaft und Kultur (1)
- Niedersächsisches Hochschulkennzahlensystem (1)
- NoSQL databases. (1)
- Node.js (1)
- Nonlinear Dynamics (1)
- Normality model (1)
- Norwegen (1)
- Notfallmedizin (1)
- Numerische Optimierung (1)
- Nürnberg / Evangelische Studentengemeinde (1)
- OECD datasets (1)
- Offenes Kommunikationssystem (1)
- Online services (1)
- Online-Dienst (1)
- Online-Lehre (1)
- Online-Portal (1)
- Onlineseminar (1)
- Ontologies (1)
- Open systems (1)
- OpenStack (1)
- OpenVPN (1)
- Operative Fallanalyse (OFA) (1)
- Opportunity Management (1)
- Optimalliquidität (1)
- Optimierung (1)
- Optische Zeichenerkennung (1)
- Orchestration (1)
- Organisation (1)
- Organisationaler Zynismus (1)
- Organisationspsychologie (1)
- Organizational Cynicism (1)
- Outdoor (1)
- PC-gestützt (1)
- PPS (1)
- PageRank (1)
- Paket (1)
- Pandemie (1)
- Parametrisierung (1)
- Pathology (1)
- Payment (1)
- Performance-based funding in Lower Saxony (1)
- Permanente Erreichbarkeit (1)
- Personalauswahl (1)
- Personalauswahl / Test (1)
- Personaldiagnostik (1)
- Personalentwicklung (1)
- Personalmanagement (1)
- Personennahverkehr (1)
- Persönlichkeitstest (1)
- Physically Based Rendering (1)
- Plan (1)
- Plugin (1)
- Policy Evaluation (1)
- Politik (1)
- Politische Ökonomie (1)
- Polizei (1)
- Polizeipsychologie (1)
- Portabilität (1)
- Portable Micro-CHP Unit (1)
- Positiv Führen (1)
- Positive Führung (1)
- Praxisprojekte (1)
- Pregel (1)
- Preisbildung (1)
- Preisdifferenzierung (1)
- Preissetzung (1)
- Privacy by Design (1)
- ProFormA-Aufgabenformat (1)
- Problem (1)
- Problemlösen (1)
- Problemorientiertes Lernen (1)
- Processes (1)
- Produktanalyse (1)
- Produktionsanlage (1)
- Professionalität (1)
- Programmieraufgaben (1)
- Programmierausbildung (1)
- Programmieren für Kinder (1)
- Programmsynthese (1)
- Projectmanagement (1)
- Promotion (1)
- Promotionsförderung (1)
- Promotionsstipendium (1)
- Prostatakrebs (1)
- Prototyp (1)
- Prozesssteuerung (1)
- Prävention (1)
- Prüfstand (1)
- Prüfung (1)
- Pseudonymization (1)
- Psychische Belastung / Auslöser (1)
- Psychische Belastung / Ursache (1)
- Psychische Gesundheit (1)
- Psychokardiologie (1)
- Psychological Factor (1)
- Psychologiestudium (1)
- Psychologischer Einflussfaktor (1)
- Psychosocial Requirements (1)
- Psychosoziale Anforderungen (1)
- Psychosoziale Gesundheit (1)
- Punktwolke (1)
- QM (1)
- Qualitative Inhaltsanalyse (1)
- Quality Management (1)
- Quality assessment (1)
- Quality of Service (1)
- Quality of Service (QoS) (1)
- Quality perception (1)
- Qualitätszirkel (1)
- Quantitativ (1)
- Quellcode (1)
- RADIUS (1)
- REST <Informatik> (1)
- RESTful (1)
- RFID (1)
- Raspberry Pi (1)
- Rassismus (1)
- Rationalität (1)
- Raycasting (1)
- React <Framework, Informatik> (1)
- Real-Time Rendering (1)
- Real-time Collaboration (1)
- Real-time simulation (1)
- Recommender System (1)
- Recommender systems (1)
- Reference Architecture (1)
- Referenzmodell (1)
- Regelstudienzeit (1)
- Region Hannover (1)
- Regressionstest (1)
- Regulierung (1)
- Rehabilitationseinrichtung (1)
- Reinforcement Learning (1)
- Relationenalgebra (1)
- Remote Arbeit (1)
- Rendering (computer graphics) (1)
- Reporting System (1)
- Representational State Transfer (1)
- Requirements engineering (1)
- Resilience (1)
- Resilience Scale RS-29 (1)
- Resilienz, Resilienzskala, RS-25, RS-32, Ich-Stärke, Lebensfreude, Hartnäckigkeit, Wirklichkeitssinn (1)
- Resilienzskala RS-29 (1)
- Ressourcen (1)
- Richardson Maturity Model (1)
- Risiko (1)
- Risikofaktor (1)
- Risikokapital (1)
- Risk Management (1)
- Robotics (1)
- Robotik (1)
- Romeomethode (1)
- Rotlichtverstoß (1)
- Rule learning (1)
- RuleCore (1)
- Rückmeldung (1)
- Rückverfolgbarkeit (1)
- SEM (1)
- SIEM (1)
- SLIDE (1)
- SOA co-existence (1)
- SOAP (1)
- SPION (1)
- SUMO (Simulation of Urban MObility) (1)
- Salutogenese (1)
- Sandbox (1)
- Sarstedt (1)
- Scaling Law (1)
- Schadensersatzanspruch (1)
- Schulbildung (1)
- Schulinformatik (1)
- Schöpfungshöhe (1)
- Scientific Visualization (1)
- Scratch <Programmiersprache> (1)
- ScratchJr (1)
- Sehvorgang (1)
- Selbstcoaching (1)
- Selbstmanagement im Unternehmen (1)
- Selbstmotivation (1)
- Selbstverwirklichung (1)
- Semantic Web Technologies (1)
- Semantisches Datenmodell (1)
- Semi-structured interviews (1)
- Sensor (1)
- Sensorsystem (1)
- Sentinel-Lymphknoten (1)
- Sequence alignment (1)
- Serverless Computing (1)
- Service Lifecycle (1)
- Service Management (1)
- Service Mesh (1)
- Service Monitoring (1)
- Service Orientation (1)
- Service Registry (1)
- Service Repository (1)
- Service Semantics (1)
- Shortest Path (1)
- Sicherheit (1)
- Signalverarbeitung (1)
- Simulation Modeling (1)
- Situation Awareness (1)
- Situational Factor (1)
- Situativer Risikofaktor (1)
- Skalierungsgesetz (1)
- Skelettieren <Bildverarbeitung> (1)
- Smart Buildings (1)
- Smart Grid (1)
- Smartphone (1)
- Social Media (1)
- Social entrepreneurship (1)
- Soft Skills (1)
- Software Architecture (1)
- Software development (1)
- Softwarearchitektur (1)
- Soll-Ist-Vergleich (1)
- Sonnenfinsternis (1)
- Source code properties (1)
- Specimen (1)
- Speech and Logic IDE (1)
- Speicher (1)
- Speicherfehler (1)
- Speicherverwaltung (1)
- Spheres (1)
- Spionage (1)
- Sprachassistent (1)
- Staatssicherheit (1)
- Stadtentwicklung (1)
- Stadtplanung (1)
- Standards (1)
- Standortbezogener Dienst (1)
- Startup (1)
- Steuerberater (1)
- Steuerung (1)
- Stochastic Modeling (1)
- Stochastischer Prozess (1)
- Strategische Vorausschau (1)
- Straße (1)
- Streaming <Kommunikationstechnik> (1)
- Strukturgleichungsmodell (1)
- Strukturkrise (1)
- Strukturwandel (1)
- Studentenschaft (1)
- Studienerfolg (1)
- Studienfinanzierung (1)
- Studiengangfinder (1)
- Studienzeit (1)
- Störung (1)
- Subjektivierung (1)
- Subprime-Krise (1)
- Subroutine (1)
- Super Resolution (1)
- Supply Chain Management (1)
- Supply Chains (1)
- Suricata (1)
- Surveymethods (1)
- Survivability (1)
- Sustainability (1)
- Sustainable Tourism (1)
- Sustainable development (1)
- Swarm Intelligence (1)
- Swarm algorithm (1)
- Synchronisierung (1)
- Synchronization (1)
- Systematic Risk (1)
- Systemdienstleistungen (1)
- Systemic risk (1)
- Tactile map (1)
- Taxonomie (1)
- Taxonomy (1)
- Technik der verlorenen Briefe (1)
- Technology acceptance (1)
- Tertiary study (1)
- Test Bench (1)
- Textileinzelhandel (1)
- Tiefeninterview (1)
- Tourism (1)
- Tourismusmarketing (1)
- Traceability (1)
- Traffic Prediction (1)
- Traffic Simulation (1)
- Transaktionskosten (1)
- Transzendenz (1)
- Trendanalyse (1)
- Trusted Computing (1)
- Twitter <Softwareplattform> (1)
- Twitter analysis (1)
- UX/UI (1)
- Umsetzung <Informatik> (1)
- Unternehmensberater (1)
- Unternehmensberaterin (1)
- Unterprogramm (1)
- Unterricht (1)
- Urheberrecht (1)
- Usability Testing (1)
- Usability-Test (1)
- User Generated Content (1)
- VOXEL (1)
- VPN (1)
- Value Chain (1)
- Verbesserung (1)
- Verbraucherzufriedenheit (1)
- Verdeckte Ermittlung (1)
- Verhaltensdiagnostik (1)
- Verkehr (1)
- Verkehrsleitsystem (1)
- Vermögensgegenstand (1)
- Verschlüsselung (1)
- Verteiltes System (1)
- Vertrauensdienste (1)
- Vertrieb (1)
- Vertriebsweg (1)
- Videokonferenz (1)
- Videospiel (1)
- Viertagewoche (1)
- Vignettentechnik (1)
- Virtual Identity Suicide (1)
- Virtual Leadership (1)
- Virtual reality (1)
- Virtuelle Führung (1)
- Virtuelle Kraftwerke (1)
- Virtuelle Produktentwicklung (1)
- Virtuelle Soziale Netzwerke (1)
- Virtuelle soziale Netzwerke (1)
- Virtueller Speicher (1)
- Virtuelles Laboratorium (1)
- Virtuelles privates Netzwerk (1)
- Visualization (1)
- Volumen-Rendering (1)
- WS-Security (1)
- Wahrnehmungspsychologie (1)
- Warteschlangen-Netze (1)
- Web Server (1)
- Web service (1)
- Web services (1)
- Web-Anwendung (1)
- Web-Portal (1)
- Web-Server (1)
- WebGL (1)
- WebGL Einstieg (1)
- Webanwendung (1)
- Webentwicklung (1)
- Webgazer (1)
- Werte (1)
- Wertorientierung (1)
- Wertschöpfungskette (1)
- Wertwandel (1)
- Wettbewerbsanalyse (1)
- Whistleblowing (1)
- Wind power plant (1)
- Windkraftwerk (1)
- Wirtschaftlichkeit (1)
- Wirtschaftsdemokratie (1)
- Wirtschaftsgeschichte <Fach> (1)
- Wirtschaftskriminalität (1)
- Wirtschaftsphilosophie (1)
- Wirtschaftspolitik (1)
- Wirtschaftspsychologie (1)
- Wirtschaftsspionage (1)
- Wirtschaftstheorie (1)
- Wirtschaftswissenschaft (1)
- Wissensbasiertes System (1)
- Wissensextraktion (1)
- Wissensgraph (1)
- Word Counting (1)
- Work From Home (1)
- Work quality (1)
- Workflow (1)
- Workload (1)
- XING (1)
- Zauberei (1)
- Zeitarbeit (1)
- Zeiteinteilung (1)
- Zeitmanagement (1)
- Zentriertes Interview (1)
- Zufriedenheit (1)
- Zukunft (1)
- Zukunftsforschung (1)
- abgesicherte Ausführungsumgebung (1)
- ad-hoc networks (1)
- adaptive methods (1)
- aerospace engineering (1)
- agent-based simulation (1)
- agents (1)
- agile education (1)
- anaphylaxis (1)
- antifragil (1)
- anxiety (1)
- architecture (1)
- artificial intelligence (1)
- assessment center (1)
- asyncapi (1)
- asynchronous messaging (1)
- automatisch bewertete Programmieraufgaben (1)
- automatisierte Bewertung (1)
- autonomy (1)
- biodiversity informatics (1)
- bluetooth low energy (1)
- burnout-syndrome (1)
- business process modelling (1)
- business processes (1)
- cardiovascular disease (1)
- cashing (1)
- change in values (1)
- change management (1)
- class room (1)
- cloud computing (1)
- cloudevents (1)
- clustering on countries (1)
- collaborative coordination (1)
- combining simulation and machine learning (1)
- complex event processing (CEP) (1)
- computer based assessment (1)
- corruption (1)
- cost analysis (1)
- covid 19 (1)
- creativity (1)
- credit risk (1)
- critical mass (1)
- cross-platform (1)
- cross-plattform (1)
- data mapping (1)
- data protection (1)
- data stream learning (1)
- data stream processing (1)
- depression (1)
- digital intervention (1)
- digital twins (1)
- distance learning (1)
- distributed environments (1)
- distributed evacuation coordination (1)
- distributed systems (1)
- dyadic grid (1)
- e-learning (1)
- e-mobility (1)
- economic espionage (1)
- eduDScloud (1)
- educational virtual realities (1)
- eigenface (1)
- emergency medicine (1)
- emotionale Kompetenz (1)
- enterprise apps (1)
- equity participation (1)
- evacuation guidance (1)
- even-driven architecture (1)
- event models (1)
- event-driven microservices (1)
- events (1)
- examination (1)
- extrinsic motivation (1)
- face recognition (1)
- fear (1)
- financial planning (1)
- flexible work structure (1)
- flexwork (1)
- flutter (1)
- forecasting models on countries (1)
- fächerübergreifendes Lernen (1)
- game analysis (1)
- gender (1)
- generic interface (1)
- generischer Editor (1)
- graduate (1)
- graphical user interface (1)
- head-mounted display (1)
- health care (1)
- herbarium (1)
- higher education (1)
- historische Entwicklung (1)
- human (1)
- iOS (1)
- immaterielle VG (1)
- immersive media (1)
- in-depth-interviews (1)
- individuelle Programmieraufgabe (1)
- individuelle Programmieraufgaben (1)
- information system (1)
- integrated passenger and freight transport (1)
- intelligence (1)
- interview (1)
- key performance indicators (1)
- kreativität (1)
- large language model (1)
- large scale systems (1)
- lidar (1)
- literature review (1)
- load balancing (1)
- lymphadenectomy (1)
- machine-to-machine communication (1)
- magnetometer (1)
- management (1)
- management training (1)
- market analysis (1)
- market-based coordination (1)
- matrix calulations (1)
- mental health (1)
- metacognitive therapy (1)
- middle-sized business (1)
- migration (1)
- mobile first (1)
- multi-dimensional data (1)
- multiagent systems (1)
- neuronal networks (1)
- ontology (1)
- open source (1)
- organizational development (1)
- paging (1)
- parameterization (1)
- patients (1)
- performability (1)
- personality test (1)
- personnel selection (1)
- plant specimen (1)
- pmCHP (1)
- point clouds (1)
- polygraph (1)
- position paper (1)
- presence experience (1)
- privacy (1)
- private cloud (1)
- problem based learning (1)
- process model (1)
- product analysis (1)
- professional life (1)
- prostate cancer (1)
- psychocardiology (1)
- quality management (1)
- question behaviour (1)
- randomisierte MAC-Adressen (1)
- rationalität (1)
- react native (1)
- real-time routing (1)
- recommender systems (1)
- reliable message delivery (1)
- resilience, resilience scale, RS-25, RS-32, ego strength, lust for live, persistence, sense of reality (1)
- rollierend (1)
- rural transport simulation (1)
- scaling (1)
- security (1)
- semantic knowledge (1)
- semantic web application (1)
- semistructured interview (1)
- sentiment dictionaries (1)
- sentinel lymph node dissection (1)
- serverless architecture (1)
- serverless functions (1)
- service models (1)
- service-orientation (1)
- shared autonomous vehicle (1)
- shopping cart system (1)
- simulation (1)
- simulation training (1)
- situation aware routing (1)
- situation-awareness (1)
- smart buildings (1)
- smart cities (1)
- smart manufacturing (1)
- smartphone (1)
- solid waste management (1)
- sparse grid (1)
- startup (1)
- stereo vision (1)
- stress (1)
- strukturelle Probleme (1)
- student project (1)
- subjectivization (1)
- superparamagnetic iron oxide nanoparticles (1)
- survey (1)
- sustainability (1)
- system integration (1)
- systematic literature review (1)
- taxonomy (1)
- teaching entrepreneurship (1)
- teaching performa (1)
- text mining (1)
- tool evaluation (1)
- training effectiveness (1)
- underprivileged adolescents (1)
- user experience (1)
- user generated content (1)
- user training (1)
- variable Programmieraufgabe (1)
- venture capital (1)
- vermeidbare Fehler (1)
- virtual distance teaching (1)
- virtual emergency scenario (1)
- virtual lab (1)
- virtual patient simulation (1)
- virtual social networks (1)
- virtuell (1)
- visual delegates (1)
- visual perception (1)
- web services (1)
- work satisfaction (1)
- work-life balance (1)
- working (1)
- working life (1)
- workload decomposition (1)
- zeitnahe Datenverarbeitung (1)
- ÖPNV (1)
- Öffentliche Verwaltung (1)
- Ökonomismus (1)
- Ökotourismus (1)
- Übermensch (1)
- Übung (1)
Institute
- Fakultät IV - Wirtschaft und Informatik (353) (remove)
Recent developments in the field of deep learning have shown promising advances for a wide range of historically difficult computer vision problems. Using advanced deep learning techniques, researchers manage to perform high-quality single-image super-resolution, i.e., increasing the resolution of a given image without major losses in image quality, usually encountered when using traditional approaches such as standard interpolation. This thesis examines the process of deep learning super-resolution using convolutional neural networks and investigates whether the same deep learning models can be used to increase OCR results for low-quality text images.
In zahlreichen Fachbüchern wird „Digital Leadership“ zur Unterstützung der digitalen Transformation propagiert. Im Rahmen eines Forschungsprojektes wurden die hierin vertretenen Führungsansätze mit aktuellen wissenschaftlichen Erkenntnissen abgeglichen. Fazit: Die Bücher stellen durchgängig altbewährte Führungskonzepte vor - neuere wissenschaftliche Erkenntnisse enthalten sie kaum.
Ziel der nachfolgenden Arbeit ist die Erhebung des aktuellen Stands der Digitalisierung in der Landwirtschaft. Es gilt herauszufinden, wie weit landwirtschaftliche Betriebe in Deutschland heute bereits digitalisiert sind. Parallel dazu soll erörtert werden, welche Gründe eine weitergehende Digitalisierung gegenwärtig verhindern. Dabei ist zu berücksichtigen, welche Bedeutung Digitalisierung in der Landwirtschaft hat. Zur Beantwortung der Forschungsfrage werden sowohl qualitative (Systematische Literaturanalyse) als auch quantitative Forschungsmethoden (Online-Umfrage mit anschließender statistischer Auswertung) angewendet. Wesentliche Erkenntnisse dieser Arbeit sind, dass die Messung von Digitalisierungsgraden landwirtschaftlicher Betriebe mittels eines Reifegradmodells signifikante Unterschiede in der deutschen Landwirtschaft widerspiegeln und dass der Kostenfaktor einen erheblichen Druck auf den digitalen Wandel im Agrarsektor ausübt. Generationenwechsel, sowie herstellerübergreifende Lösungen stellen neben der Forderung von mehr Unterstützung seitens der Politik und öffentlicher Institutionen Diskussionspunkte dieser Abschlussarbeit dar.
Visual effects and elements in video games and interactive virtual environments can be applied to transfer (or delegate) non-visual perceptions (e.g. proprioception, presence, pain) to players and users, thus increasing perceptual diversity via the visual modality. Such elements or efects are referred to as visual delegates (VDs). Current fndings on the experiences that VDs can elicit relate to specifc VDs, not to VDs in general. Deductive and comprehensive VD evaluation frameworks are lacking. We analyzed VDs in video games to generalize VDs in terms of their visual properties. We conducted a systematic paper analysis to explore player and user experiences observed in association with specifc VDs in user studies. We conducted semi-structured interviews with expert players to determine their preferences and the impact of VD properties. The resulting VD framework (VD-frame) contributes to a more strategic approach to identifying the impact of VDs on player and user experiences.
Bisher wurde die automatisierte Bewertung von Übungsaufgaben in LON-CAPA angeboten und mit mehreren Werkzeugen umgesetzt, darunter der JFLAP-Wrapper, der die Grundlage dieser Arbeit bildet. Daraus soll ein vollständiges eigenstehendes Programm erarbeitet werden, dass auch an andere Lernmanagementsysteme angebunden werden kann. Dabei erhält es den neuen Namen GraFLAP. Dazu wurden die Bewertungsprozesse im JFLAP-Wrapper zusammen gelegt und eine neue Schnittstelle nach ProFormA-2.1-Standard ergänzt. Außerdem sollte die Wartbarkeit verbessert werden, sodass zukünftige weiterführende Arbeiten erleichtert werden. Dazu wurden neue Datenstrukturen und Prozesse integriert, unter anderem ein einheitlicher Build-Prozess mit Maven und automatisierte Tests mit JUnit. GraFLAP bietet nun eine standardisierte Schnittstelle, übernimmt alle Bewertungsprozesse und ist so nun vollständig unabhängig von Lernmanagementsystemen.
AlphaGo’s victory against Lee Sedol in the game of Go has been a milestone in artificial intelligence. After this success, the team behind the program further refined the architecture and applied it to many other games such as chess or shogi. In the following thesis, we try to apply the theory behind AlphaGo and its successor AlphaZero to the game of Abalone. Due to limitations in computational resources, we could not replicate the same exceptional performance.
Companies worldwide have enabled their employees to work remotely as a consequence of the Covid 19 pandemic. Software development is a human-centered discipline and thrives on teamwork. Agile methods are focusing on several social aspects of software development. Software development teams in Germany were mainly co-located before the pandemic. This paper aims to validate the findings of existing studies by expanding on an existing multiple-case study. Therefore, we collected data by conducting semi-structured interviews, observing agile practices, and viewing project documents in three cases. Based on the results, we can confirm the following findings: 1) The teams rapidly adapted the agile practices and roles, 2) communication is more objective within the teams, 3) decreased social exchange between team members, 4) the expectation of a combined approach of remote and onsite work after the pandemic, 5) stable or increased (perceived) performance and 6) stable or increased well-being of team members.
Die Arbeit hat das Ziel, Volumendaten effizient zu visualisieren, ohne diese in ein alternatives Repräsentationsformat wie Polygonnetze zu überführen. Dafür werden Voxel sowie ein Raycasting-Ansatz verwendet. Die Elemente des Volumens werden als Voxel (=volumetrische Pixel), das Volumen nachfolgend als ein dreidimensionales Array aus Voxel bezeichnet. Für jeden Pixel wird ein Strahl erzeugt, der das Array iterativ traversiert, wobei in jeder Iteration geprüft wird, ob das gegebene Volumenelement ein Datum hält oder nicht. Maßgeblich hierfür ist der von (Amanatides, Woo et al., 1987) vorgestellte Ansatz, den Strahl in solche Segmente zu zerlegen, die immer jeweils so lang wie der momentan zu untersuchende Voxel groß ist: In einer Iteration wird also immer genau ein Voxel untersucht. Die Arbeit wird diese Idee verfolgen, praktisch aber anders umsetzen und sie um eine zusätzliche Beschleunigungsstruktur ergänzen. Im Idealfall soll dieser Ansatz es erlauben, mindestens 512^3 Voxel in Echtzeit zu rendern. Der beschriebene Ansatz hat zusätzlich den Vorteil, dass Änderungen direkt sichtbar werden, weil für das anschließende Rendering, auf die modifizierten Daten zurückgegriffen wird.
At University of Applied Sciences and Arts Hannover, LON-CAPA is used as a learning management system beside Moodle. LON-CAPA has a strong focus on e-assessment in mathematics and sciences. We used LON-CAPA in Hannover mainly in mathematics courses.
Since theoretical computer science needs a lot of mathematics, this course is also well-suited for e-assessment in LON-CAPA. Beside this, we already used JFLAP as an interactive tool to deal with automata, machines and grammars in theoretical computer science. In LON-CAPA, there exists a possibility of using external graders to grade problems.
We decided to write a grading engine (with JFLAP inside) to grade automata, machines and grammars handed in by students and to couple this with LON-CAPA. This report describes the types of questions that are now possible with this grader and how they can be authored in LON-CAPA.
Decision support systems for traffic management systems have to cope with a high volume of events continuously generated by sensors. Conventional software architectures do not explicitly target the efficient processing of continuous event streams. Recently, event-driven architectures (EDA) have been proposed as a new paradigm for event-based applications. In this paper we propose a reference architecture for event-driven traffic management systems, which enables the analysis and processing of complex event streams in real-time and is therefore well-suited for decision support in sensor-based traffic control sys- tems. We will illustrate our approach in the domain of road traffic management. In particular, we will report on the redesign of an intelligent transportation management system (ITMS) prototype for the high-capacity road network in Bilbao, Spain.
M2M (machine-to-machine) systems use various communication technologies for automatically monitoring and controlling machines. In M2M systems, each machine emits a continuous stream of data records, which must be analyzed in real-time. Intelligent M2M systems should be able to diagnose their actual states and to trigger appropriate actions as soon as critical situations occur. In this paper, we show how complex event processing (CEP) can be used as the key technology for intelligent M2M systems. We provide an event-driven architecture that is adapted to the M2M domain. In particular, we define different models for the M2M domain, M2M machine states and M2M events. Furthermore, we present a general reference architecture defining the main stages of processing machine data. To prove the usefulness of our approach, we consider two real-world examples ‘solar power plants’ and ‘printers’, which show how easily the general architecture can be extended to concrete M2M scenarios.
Complex Event Processing (CEP) is a modern software technology for the dynamic analysis of continuous data streams. CEP is able of searching extremely large data streams in real time for the presence of event patterns. So far, specifying event patterns of CEP rules is still a manual task based on the expertise of domain experts. This paper presents a novel batinspired swarm algorithm for automatically mining CEP rule patterns that express the relevant causal and temporal relations hidden in data streams. The basic suitability and performance of the approach is proven by extensive evaluation with both synthetically generated data and real data from the traffic domain.
Die Einführung einer elektronischen Stimmabgabe bei Kommunalwahlen (E-Voting) ist durch rechtliche und technische Herausforderungen derzeit nicht praktikabel umsetzbar. Untersuchungen zeigen, dass die Einführung zahlreiche Vorteile für die Wahlberechtigten und die Wahlbehörden haben könnte. Die zeitweise Einführung von E-Voting mit Wahlmaschinen wurde jedoch auch rechtlichen Gründen für unzulässig erklärt. So gab es in den letzten Jahren keine neuen Umsetzungsversuche.
Im Rahmen dieser Arbeit wird ein Konzept für eine elektronische Stimmabgabe bei Kommunalwahlen entwickelt. Um das Konzept in das derzeitige Wahlsystem zu integrieren, wird die Briefwahl als Basis gewählt. Unter Zuhilfenahme von Gesetzestexten wird der Ablauf beschrieben und als Prozessdiagramm dargestellt. Anschließend werden Anforderungen an ein E-Voting-System aus der Literatur aufgenommen und durch die Bildung von Kernaussagen konsolidiert. In jedem ermittelten Briefwahl-Prozessschritt wird die Untersuchung elektronischer Möglichkeiten durch die Prüfung der Kernaussagen bewertet. Anschließend wird die geeignetste elektronische Möglichkeit in das Konzept übernommen.
Die ermittelten Möglichkeiten zeigen, dass durch den Einsatz von Vertrauensdiensten und Vertrauensdiensteanbietern die Anforderungen erfüllt werden können. Daraus ergibt sich ein Konzept, welches mithilfe aktueller technischer und rechtlicher Entwicklungen eine elektronische Stimmabgabe ermöglichen kann. Unter der ganzheitlichen Betrachtung des Wahlsystems sind jedoch noch viele Herausforderungen zu beachten, die in dieser Arbeit nicht näher erläutert wurden. Die Entwicklungen der letzten Jahre begünstigen die Konzeptionierung einer elektronischen Stimmabgabe. Diesem steht jedoch weiterhin Herausforderungen durch fehlende rechtliche Bewertung, mangelndes Vertrauen, Gesetze, Verordnungen und Medienbrüche entgegen, die vor dem Einsatz bewältigt werden müssen.
Das Konzept der Agilität stiftet insbesondere im Kontext der Softwareentwicklung einen Nutzen. Es stellt sich die Frage, wie auch die öffentliche Verwaltung agiler werden und schlussendlich davon profitieren kann. Bislang liefern nur wenige Schriften eine dedizierte Auseinandersetzung mit dem Thema der agilen Verwaltung. In dieser Arbeit wird untersucht, ob agile Softwareentwicklung Ausgangspunkt einer potenziell agilen Verwaltung in Deutschland sein kann. Im Rahmen einer theorievergleichenden Gegenüberstellung wird ein Zielbild einer agilen Verwaltung ausgehend von den Merkmalen agiler Softwareentwicklung hergeleitet. Anschließend werden mögliche Spannungslinien zwischen dem entwickelten Zielbild und dem von Max Weber beschriebenen Idealtypus einer bürokratischen Verwaltung aufgedeckt. Im Ergebnis kennzeichnet eine agile Verwaltung ein Konglomerat unterschiedlicher Merkmale, die den Dimensionen Strategie, Struktur, Prozesse, Führung, Personal und Kultur zugeordnet werden können. Die öffentliche Verwaltung wird das Konzept der Agilität nicht vollständig, im Sinne der Ausprägung aller herausgearbeiteten Merkmale, organisational etablieren können. Die wesentlichen Spannungslinien ergeben sich aus den Bürokratiemerkmalen Amtshierarchie und Regelgebundenheit. Der Idealtypus einer agilen Verwaltung kann nur insofern eine Alternative zum Idealtypus der bürokratischen Verwaltung sein, als dass diejenigen Merkmale der Bürokratie, die sich mit den wesentlichen Strukturprinzipien des deutschen Staates decken, unberührt bleiben.
Äußere Einflüsse wie beispielsweise die Digitalisierung oder der demografische Wandel durchziehen alle Bereiche des gesellschaftlichen Zusammenlebens. Der Konfrontation mit diesen Herausforderungen kann sich auch die öffentliche Verwaltung durch die Verzahnung mit Politik und Gesellschaft nicht entziehen. Eine Methode, um komplexen Herausforderungen zu begegnen, ist Design Thinking. Es stellt sich die Frage, welche Potenziale der Einsatz der Methodik im Kontext der öffentlichen Verwaltung bietet. Ziel dieser Arbeit ist es, die Design-Thinking-Methode in der öffentlichen Verwaltung zu untersuchen. Dazu wird im Rahmen einer Fallstudienanalyse ein Design-Thinking-Workshop durchgeführt. Durch Auswertung des Workshops sowie mithilfe einer SWOT-Analyse werden die Potenziale abgeleitet. Im Ergebnis können komplexe Herausforderungen mit Design Thinking bewältigt werden. Es zeigt sich eine grundsätzliche Offenheit gegenüber der neuen Methodik. Design Thinking wird als eine ganzheitliche Herangehensweise beschrieben. Der Einstieg in die Methodik ist dabei niederschwellig. Dabei gehen die Potenziale über die Abgeleiteten hinaus. Der Austausch von Wissen innerhalb des interdisziplinären Teams hat beispielsweise weitreichendere Effekte. Um die Potenziale bestmöglich nutzen zu können, bedarf es Übung und Erfahrung. Darüber hinaus sollte eine Betrachtung der Potenziale im Rahmen der vollen Potenzialentfaltung mit dem Feststellen von Schwächen und Risiken einhergehen. Die Anwendung von Design Thinking ist stets kontextabhängig.
This Innovative Practice Full Paper presents our learnings of the process to perform a Master of Science class with eduScrum integrating real world problems as projects. We prepared, performed, and evaluated an agile educational concept for the new Master of Science program Digital Transformation organized and provided by the department of business computing at the University of Applied Sciences and Arts - Hochschule Hannover in Germany. The course deals with innovative methodologies of agile project management and is attended by 25 students. We performed the class due the summer term in 2019 and 2020 as a teaching pair. The eduScrum method has been used in different educational contexts, including higher education. During the approach preparation, we decided to use challenges, problems, or questions from the industry. Thus, we acquired four companies and prepared in coordination with them dedicated project descriptions. Each project description was refined in the form of a backlog (list of requirements). We divided the class into four eduScrum teams, one team for each project. The subdivision of the class was done randomly.
Since we wanted to integrate realistic projects into industry partners’ implementation, we decided to adapt the eduScrum approach. The eduScrum teams were challenged with different projects, e.g., analyzing a dedicated phenomenon in a real project or creating a theoretical model for a company’s new project management approach. We present our experiences of the whole process to prepare, perform and evaluate an agile educational approach combined with projects from practice. We found, that the students value the agile method using real world problems. However, the results are mainly based on the summer term 2019, this paper also includes our learnings from virtual distance teaching during the Covid 19 pandemic in summer term 2020. The paper contributes to the distribution of methods for higher education teaching in the classroom and distance learning.
Agile methods require constant optimization of one’s approach and leading to the adaptation of agile practices. These practices are also adapted when introducing them to companies and their software development teams due to organizational constraints. As a consequence of the widespread use of agile methods, we notice a high variety of their elements:
Practices, roles, and artifacts. This multitude of agile practices, artifacts, and roles results in an unsystematic mixture. It leads to several questions: When is a practice a practice, and when is it a method or technique? This paper presents the tree of agile elements, a taxonomy of agile methods, based on the literature and guidelines of widely used agile methods. We describe a taxonomy of agile methods using terms and concepts of software engineering, in particular software process models. We aim to enable agile elements to be delimited, which should help companies, agile teams, and the research community gain a basic understanding of the interrelationships and dependencies of individual components of agile methods.
In 2020, the world changed due to the Covid 19 pandemic. Containment measures to reduce the spread of the virus were planned and implemented by many countries and companies. Worldwide, companies sent their employees to work from home. This change has led to significant challenges in teams that were co-located before the pandemic. Agile software development teams were affected by this switch, as agile methods focus on communication and collaboration. Research results have already been published on the challenges of switching to remote work and the effects on agile software development teams. This article presents a systematic literature review. We identified 12 relevant papers for our studies and analyzed them on detail. The results provide an overview how agile software development teams reacted to the switch to remote work, e.g., which agile practices they adapted. We also gained insights on the changes of the performance of agile software development teams and social effects on agile software development teams during the pandemic.
In dieser Bachelorarbeit werden zwei Ziele verfolgt. Ein Ziel ist es anhand einer Karriere-Seite mit einem Bewerbungsformular einzuordnen, ob die Gestaltung dieser mit der mobile-first Philosophie einen Einfluss auf die Usability und bezüglich der Benutzbarkeit von Interaktionselementen im Desktop-Kontext hat. Ein weiteres Ziel ist, bedingt durch die COVID-19 Pandemie, eine prototypische Software-Lösung zu entwickeln, welche den kompletten Lösungsversuch im Rahmen eines Usability-Tests einer Versuchsperson inklusive der Blickpositionen, ohne den Einsatz spezieller Hardware, aufnimmt und diese Aufnahme für eine Auswertung auch wieder abspielen kann.
Die Arbeit setzt sich dabei aus zwei praktischen Teilen zusammen. Der erste Teil umfasst die Konzeption und Entwicklung der Karriere-Seite unter Einsatz der mobile-first Philosophie für das betreuende Unternehmen, frobese GmbH. Im zweiten Teil der Arbeit wird die Auswirkung der mobile-first Philosophie auf die Usability im Desktop-Kontext empirisch untersucht. Dies geschieht im Rahmen eines remote Usability-Tests mithilfe der dafür entwickelten Software-Lösung. Diese nimmt die Lösungsversuche mitsamt der Blickpositionen der Versuchspersonen auf und fordert sie anschließend auf, einen Fragebogen auszufüllen. Abschließend werden die Ergebnisse, der Versuchsaufbau und die Ergebnisse kritisch gewürdigt.
Der remote Usability-Test im zweiten Teil der Arbeit wurde mit insgesamt 30 Versuchspersonen durchgeführt. Sie wurden dabei in zwei Gruppen aufgeteilt, eine mobile Gruppe und eine Desktop Gruppe. Im Rahmen des Usability-Tests mussten sie eine Aufgabe auf der prototypischen Karriere-Seite vom ersten praktischen Teil dieser Arbeit erledigen. Die entwickelte remote Lösung erlaubte auch unter Pandemiebedingungen eine einfache Rekrutierung der Versuchspersonen und Durchführung der Versuche. Mithilfe eines Auswertungs-Clients konnten die Versuchsaufnahmen im Nachhinein wieder abgespielt werden und in Form von Heatmaps visualisiert werden. Die Auswertung zeigte, dass mithilfe der mobile-first Philosophie eine exzellente Usability im mobilen Kontext erreicht werden konnte, die sich auch auf den Desktop übertragen hat. Es konnte aber auch ein signifikanter Unterschied in den Bearbeitungszeiten zwischen beiden Gruppen festgestellt werden. Hier konnten die Versuchsaufnahmen Indizien auf die Ursachen dieser Diskrepanz geben.
Nowadays, problems related with solid waste management become a challenge for most countries due to the rising generation of waste, related environmental issues, and associated costs of produced wastes. Effective waste management systems at different geographic levels require accurate forecasting of future waste generation. In this work, we investigate how open-access data, such as provided from the Organisation for Economic Co-operation and Development (OECD), can be used for the analysis of waste data. The main idea of this study is finding the links between socioeconomic and demographic variables that determine the amounts of types of solid wastes produced by countries. This would make it possible to accurately predict at the country level the waste production and determine the requirements for the development of effective waste management strategies. In particular, we use several machine learning data regression (Support Vector, Gradient Boosting, and Random Forest) and clustering models (k-means) to respectively predict waste production for OECD countries along years and also to perform clustering among these countries according to similar characteristics. The main contributions of our work are: (1) waste analysis at the OECD country-level to compare and cluster countries according to similar waste features predicted; (2) the detection of most relevant features for prediction models; and (3) the comparison between several regression models with respect to accuracy in predictions. Coefficient of determination (R2), Mean Absolute Error (MAE), Root Mean Square Error (RMSE), and Mean Absolute Percentage Error (MAPE), respectively, are used as indices of the efficiency of the developed models. Our experiments have shown that some data pre-processings on the OECD data are an essential stage required in the analysis; that Random Forest Regressor (RFR) produced the best prediction results over the dataset; and that these results are highly influenced by the quality of available socio-economic data. In particular, the RFR model exhibited the highest accuracy in predictions for most waste types. For example, for “municipal” waste, it produced, respectively, R2 = 1 and MAPE = 4.31 global error values for the test set; and for “household” waste, it, respectively, produced R2 = 1 and MAPE = 3.03. Our results indicate that the considered models (and specially RFR) all are effective in predicting the amount of produced wastes derived from input data for the considered countries.
For anomaly-based intrusion detection in computer networks, data cubes can be used for building a model of the normal behavior of each cell. During inference an anomaly score is calculated based on the deviation of cell metrics from the corresponding normality model. A visualization approach is shown that combines different types of diagrams and charts with linked user interaction for filtering of data.
During the transition from conventional towards purely electrical, sustainable mobility, transitional technologies play a major part in the task of increasing adaption rates and decreasing range anxiety. Developing new concepts to meet this challenge requires adaptive test benches, which can easily be modified e.g. when progressing from one stage of development to the next, but also meet certain sustainability demands themselves.
The system architecture presented in this paper is built around a service-oriented software layer, connecting a modular hardware layer for direct access to sensors and actuators to an extensible set of client tools. Providing flexibility, serviceability and ease of use, while maintaining a high level of reusability for its constituent components and providing features to reduce the required overall run time of the test benches, it can effectively decrease the CO2 emissions of the test bench while increasing its sustainability and efficiency.
Intrusion detection systems and other network security components detect security-relevant events based on policies consisting of rules. If an event turns out as a false alarm, the corresponding policy has to be adjusted in order to reduce the number of false positives. Modified policies, however, need to be tested before going into productive use. We present a visual analysis tool for the evaluation of security events and related policies which integrates data from different sources using the IF-MAP specification and provides a “what-if” simulation for testing modified policies on past network dynamics. In this paper, we will describe the design and outcome of a user study that will help us to evaluate our visual analysis tool.
The negative effects of traffic, such as air quality problems and road congestion, put a strain on the infrastructure of cities and high-populated areas. A potential measure to reduce these negative effects are grocery home deliveries (e-grocery), which can bundle driving activities and, hence, result in decreased traffic and related emission outputs. Several studies have investigated the potential impact of e-grocery on traffic in various last-mile contexts. However, no holistic view on the sustainability of e-grocery across the entire supply chain has yet been proposed. Therefore, this paper presents an agent-based simulation to assess the impact of the e-grocery supply chain compared to the stationary one in terms of mileage and different emission outputs. The simulation shows that a high e-grocery utilization rate can aid in decreasing total driving distances by up to 255 % relative to the optimal value as well as CO 2 emissions by up to 50 %.
With an increasing complexity and scale, sufficient evaluation of Information Systems (IS) becomes a challenging and difficult task. Simulation modeling has proven as suitable and efficient methodology for evaluating IS and IS artifacts, presupposed it meets certain quality demands. However, existing research on simulation modeling quality solely focuses on quality in terms of accuracy and credibility, disregarding the role of additional quality aspects. Therefore, this paper proposes two design artifacts in order to ensure a holistic quality view on simulation quality. First, associated literature is reviewed in order to extract relevant quality factors in the context of simulation modeling, which can be used to evaluate the overall quality of a simulated solution before, during or after a given project. Secondly, the deduced quality factors are integrated in a quality assessment framework to provide structural guidance on the quality assessment procedure for simulation. In line with a Design Science Research (DSR) approach, we demonstrate the eligibility of both design artifacts by means of prototyping as well as an example case. Moreover, the assessment framework is evaluated and iteratively adjusted with the help of expert feedback.
Zusammen mit der Microservice-Bewegung werden immer häufiger synchrone Request-Response-Schnittstellen nach dem REST-Paradigma entwickelt, um Service-Landschaften zu integrieren. Die Einfachheit des Paradigmas verleitet viele Organisationen, nahezu die komplette Interprozesskommunikation ihres Ökosystems über diese Art von Schnittstelle abzuwickeln – nicht ohne Konsequenzen.
Diese Arbeit entwickelt Ansätze, wie die Integrationsprobleme, die bei übermäßiger Verwendung von REST entstehen, mithilfe von Event-Driven Architecture gelöst werden können, ohne den Status quo dieser Organisationen außer Acht zu lassen. Dafür werden der gegenwärtige Zustand der Integrationsmuster und eingesetzten Infrastruktur von Event-Driven Architecture kritisiert und Kriterien erarbeitet, die pragmatische und zugängliche Integrationsansätze erfüllen müssen. Um die Einführungskosten gering zu halten, wird eine Middleware entwickelt, die in bestehende REST-Schnittstellen eingesetzt werden kann und auf Basis der API-Aufrufe Events generiert. Darauf aufbauend werden vier Integrationsmuster entwickelt, die eine schrittweise Transformation zu Event-Driven Microservices ermöglichen. Um die Zugänglichkeit der Eventing-Infrastruktur zu erhöhen, wird außerdem wird die Standardisierung der Event-Struktur durch die CloudEvents-Spezifikation vorgeschlagen. Um die Zugänglichkeit weiter zu erhöhen, erfolgt die Kommunikation der Services nicht direkt mit dem Event-Broker, sondern über Proxies, die die Events per HTTP annehmen oder ausspielen. Um die Transparenz über den Datenfluss im System zu wahren, werden alle Produzenten und Konsumenten werden mitsamt ihrer Events durch den Beschreibungsstandard AsyncAPI dokumentiert.
Nach einer Validierung dieser Ansätze mithilfe eines Prototyps kommt diese Arbeit zu der Erkenntnis, dass der Einsatz der entwickelten Middleware für alle Organisationen sinnvoll ist, die bereits viele REST-Schnittstellen im Einsatz haben. Die Standardisierung der Event-Struktur und des Event-Protokolls mittels CloudEvents und HTTP-Proxies sowie die Dokumentation durch AsyncAPI empfiehlt sich auch unabhängig des Status quo für alle Organisationen, die Event-Driven Microservices entwickeln möchten.
Nowadays, most recommender systems are based on a centralized architecture, which can cause crucial issues in terms of trust, privacy, dependability, and costs. In this paper, we propose a decentralized and distributed MANET-based (Mobile Ad-hoc NETwork) recommender system for open facilities. The system is based on mobile devices that collect sensor data about users locations to derive implicit ratings that are used for collaborative filtering recommendations. The mechanisms of deriving ratings and propagating them in a MANET network are discussed in detail. Finally, extensive experiments demonstrate the suitability of the approach in terms of different performance metrics.
An der Digitalisierung und ihren Auswirkungen kommt heutzutage fast niemand mehr vorbei. Neue Technologien und digitale Trends halten Einzug in unsere Gesellschaft und in unsere Wirtschaft. Sie beeinflussen und verändern mit hoher Geschwindigkeit die Art, wie wir kommunizieren, interagieren und arbeiten. Viele Unternehmen durchlaufen vor diesem Hintergrund eine digitale Transformation, die tiefgreifende Veränderungen von Prozessen, Produkten, Geschäftsmodellen und oftmals von ganzen Unternehmen nach sich zieht. Auch die Art, Unternehmen und Mitarbeiter zu führen, wird einem Wandel unterliegen.
In diesem Zusammenhang wird häufig auf Digital Leadership als adäquates Modell verwiesen, welches aufzeigen soll, wie Führung in Zeiten der digitalen Transformation gestaltet werden kann. Auf Basis einer qualitativen Inhaltsanalyse wird in der vorliegenden Masterarbeit untersucht, ob das Führungskonzept Digital Leadership neue Führungsansätze und Erkenntnisse hervorbringt oder ob sich das Konzept bewährter Führungsansätze bedient und diese lediglich unter einer neuen Überschrift zusammenfasst.
Die Ergebnisse der Analyse zeigen, dass sich für das Konzept Digital Leadership noch keine allgemeingültige Definition durchgesetzt hat und verschiedene Quellen verschiedene Führungsansätze mit Digital Leadership in Verbindung bringen. Dennoch lassen sich Schwerpunkte erkennen, da die Handlungsempfehlungen sich mehrheitlich an partizipativen und beziehungsorientierten Führungsansätzen, wie der geteilten Führung und der Theorie der transformationalen Führung, ausrichten. Die Führungsansätze, die im Rahmen von Digital Leadership an Bedeutung gewinnen, sind nicht neu, sondern teilweise empirisch bereits gut erforscht.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Automatische Bewertungssysteme für Programmieraufgaben (Grader) sind komplexe Softwaresysteme. Automatisch ausführbare Regressionstests können kostengünstig potenzielle Fehler im Grader aufdecken. Im vorliegenden Beitrag soll beschrieben werden, wie Musterlösungen als Eingabedaten für automatische Regressionstests fungieren können. Es geht also um die Vorstellung einer Lösung eines Software Engineering Problems für E-Learning-Systeme. Wir betrachten, welche Eigenschaften des ProFormA-Aufgabenformats für automatische Regressionstests genutzt werden können und schlagen Erweiterungen des Formats vor. Der Beitrag beschreibt die beispielhafte Implementierung eines automatischen Black Box Systemtests für den Autobewerter Graja und geht dabei u. a. auf die Gestaltung eines Record-Playback-Vorgehens, auf einen unscharfen Soll-Ist-Vergleich sowie auf die Frage der Lokalisierbarkeit von entdeckten Regressionen ein.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership".
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Agile Prozesse und zertifizierte Managementsysteme wirken anfänglich wie ein Widerspruch, insbesondere hinsichtlich der Steuerung des Prozessverlaufs sowie der Kontrolle beabsichtigter Ergebnisse. Doch ein wissenschaftlicher Blick auf etablierte Formen der Prozesssteuerung legte im Rahmen einer Masterarbeit offen, dass sich einheitliche Mechanismen dahinter verbergen, die auch auf agile Prozesse angewendet werden können. Fünf erkannte Prozesssteuerungsmechanismen geben dem Leser konkrete Ansatzpunkte zur ISO 9001-konformen Steuerung und Kontrolle agiler Prozesse.
Viele Unternehmen experimentieren mit Agilität. Gleichzeitig ist die Unsicherheit groß, wieviel Agilität ein QM-System nach ISO 9001 tatsächlich verträgt. Ein gemeinsames Forschungsprojekt der Hochschule Hannover und der DGQ hat sich zum Ziel gesetzt, hier mehr Sicherheit zu geben. Aus Interviews mit Vertretern von Unternehmen, welche teilweise agil arbeiten, entstanden Leitlinien für die Integration von agilen Vorgehensweisen in QM-Systeme und erstmals eine klare Definition von Agilität.
Agility is considered the silver bullet for survival in the VUCA world. However, many organisations are afraid of endangering their ISO 9001 certificate when introducing agile processes. A joint research project of the University of Applied Sciences and Arts Hannover and the DGQ has set itself the goal of providing more security in this area. The findings were based on interviews with managers and team members from various organisations of different sizes and industries working in an agile manner as well as on common audit practices and a literature analysis. The outcome presents a clear distinction of agility from flexibility as well as useful guidelines for the integration of agile processes in QM systems - for QM practitioners and auditors alike.
Das Ziel dieser Forschungsarbeit ist es, KMU einen Überblick über die möglichen Instrumente für die Erfolgskontrolle von Social Media Marketing zu geben. Dabei wird sich auf die folgende Forschungsfrage konzentriert: „Welche Instrumente existieren, um Social Media Maßnahmen auf ihren Erfolg zu prüfen?“. Zur Beantwortung der Forschungsfrage wurde zunächst eine Literaturrecherche durchgeführt, bei der gezielt nach Modellen und Kennzahlen gesucht wurde. In diesem Zusammenhang fand eine empirische Analyse von Social Media Tools statt. Außerdem wurde eine Online-Umfrage konzipiert und an KMU versendet, um zu erfahren, wie die KMU aktuell den Erfolg messen. Dabei zeigte die Literaturrecherche, dass bis heute kein einheitlicher Ansatz für die Erfolgskontrolle existiert und die Social Media Tools verschiedene Kennzahlen bereitstellen. Darüber hinaus hat die Online-Umfrage ergeben, dass viele der Teilnehmer ihre Erfolgskontrolle sehr einfach handhaben, wofür vor allem fehlende Ressourcen verantwortlich sind.
Die Prävention und Erkennung von Cyber-Angriffen ist eine Herausforderung von hoher Bedeutung, da die Digitalisierung nahezu aller Lebensbereiche immer weiter voranschreitet. Im Forschungssektor der sogenannten Intrusion Detection wird fortlaufend untersucht, inwiefern sich Machine Learning (ML) zur Erkennung von Angriffen eignet. Während ML-Algorithmen bei Anwendungsfällen wie Produktempfehlungen oder Spam-Filtern erfolgreich in Produktion eingesetzt werden können, gestaltet sich die Anwendung in der Intrusion Detection schwieriger.
In sogenannten signatur-basierten IDS-Systemen werden Regelwerke eingesetzt, um Angriffe im Netzwerkverkehr zur Laufzeit zu erkennen. Die Erstellung und Verwaltung dieser IDS-Regeln erfolgt normalerweise manuell und erfordert eine hohe Domänenexpertise. Diese Masterthesis liefert einen Forschungsbeitrag, da diese IDS-Regeln erstmals automatisiert unter der Verwendung von Machine Learning erzeugt werden. Die für diesen Zweck entwickelte Toolchain verwendet Entscheidungsbaum-Algorithmen zur Regelerzeugung aus Trainingsdaten. Des Weiteren werden die Regeln für den Einsatz in einem signatur-basierten IDS-System in das Format von Suricata konvertiert.
Die Evaluierung der erzeugten Regeln hat gezeigt, dass in einer Vielzahl von Experimenten hohe Erkennungsraten und wenige Fehlalarme möglich sind. Allerdings basieren die betroffenen Regelwerke zum Teil auf unterkomplexen Zusammenhängen in den zugrundeliegenden Trainingsdaten. Darüber hinaus verfügen die Regelwerke über eine eingeschränkte Generalisierungsfähigkeit. Für ein finales Urteil wäre es notwendig und empfehlenswert, zusätzliche Forschungskapazitäten für die Erstellung repräsentativer IDS-Datensätze aufzuwenden.
Die Forderungen, auch nicht personenbezogene Daten besser zu schützen, nehmen zu. Dies gilt auch für die Landwirtschaft. Landwirte fordern selbstbewusst „Meine Daten gehören mir“ und wollen für die Bereitstellung ihrer Betriebsdaten angemessen entlohnt werden. Es spricht aber einiges dafür, dass die meisten der erhobenen Daten kaum einen ökonomischen Wert aufweisen. In diesem Artikel wird systematisch untersucht, welche Arten von Daten es gibt und welchen Marktwert sie vermutlich haben. Da Daten digitale Güter sind, gelten für sie dieselben Besonderheiten wie für sonstigen digitalen Content, wie einfache Kopier- und Veränderbarkeit. Die Analyse kommt zu dem Schluss, dass die meisten Daten in der Landwirtschaft vermutlich nur einen geringen Wert aufweisen, der eine Vermarktung, aber auch einen aufwendigen juristischen Schutz nicht rechtfertigt. Erst durch Datenaggregation und geschickte Auswertung dieser Rohdaten werden quasi in einer Veredelungsstufe nützliche Informationen erzeugt. Vermutlich wäre es aber am besten, möglichst viele Daten öffentlich zugänglich zu halten, sodass Werte durch innovative Geschäftsmodelle geschaffen werden, die auf diesen öffentlichen Daten aufbauen.
Das Ziel dieser Bachelorarbeit war die Entwicklung einer voll funktionstüchtigen Webanwendung, die für den Anwendungsfall „Bronchokonstriktion“ Werkzeuge für die Darstellung und die händische Nachbearbeitung von Bilddaten und Vorhersagen aus Neuronalen Netzen bereitstellt. Dadurch können die Test- und Trainingsdatensätze für problematische Fälle erweitert werden. Konkret wurde die Anwendung durch die Verwendung von standardisierten und individuell auf das Problem zugeschnittenen Software-Engineering-Methoden sowie unter Beachtung allgemeiner Usability-Prinzipien entwickelt und evaluiert. Diese Bachelorarbeit fand in Zusammenarbeit mit dem Fraunhofer ITEM und der Forschungsgruppe „Bioinformatik“ statt.
Im Rahmen der vorliegenden Bachelorarbeit ging es um die Forschungsfrage, ob eine landmarkenbasierte Registrierung hinreichende Ergebnisse für die Anpassung eines Formmodells an eine segmentierte Cochlea liefert. Dazu wurden zwölf Landmarken auf die Oberfläche einer segmentierten Cochlea sowie auf die eines ausgewählten Formmodells gesetzt. Im Anschluss wurden die Abstände zwischen korrespondieren Landmarken des Formmodells und der segmentierten Cochlea mithilfe von drei verschiedenen Optimierungsverfahren minimiert. Bei dem quantitativen Vergleich zwischen den Ergebnissen der vorgestellten Optimierungsverfahren konnten keine signifikanten Unterschiede festgestellt werden. In der Evaluation wurde demonstriert, dass das Formmodell an der segmentierten Cochlea insgesamt hinreichend angenähert werden konnte. Lediglich in der Basalregion und am Apex der Cochlea ist die Anpassung noch verbesserungsbedürftig.
Die öffentlichen Verkehrsmittel sind ein wichtiger Bestandteil der heutigen Infrastrukturen. Allein im Jahr 2019 verzeichnete die Bundesrepublik Deutschland ein Fahrgastaufkommen von 9,7 Milliarden Personen im öffentlichen Personennahverkehr (ÖPNV). Die starke Nutzung des ÖPNV wird im heutigen Alltag durch die Nutzung mobiler Applikationen (Apps) für die Verbindungssuche unterstützt. Um den Fahrgästen einen größtmöglichen Komfort bei der Gestaltung ihrer Routenplanung zu bieten, entwickeln vor allem große Tarif- und Verkehrsverbünde wie der Großraum-Verkehr Hannover (GVH) ihre eigenen Apps. Dadurch haben die Fahrgäste jederzeit die Möglichkeit, sich bereits vor ihrer Reise Verbindungsübersichten anzeigen zu lassen. Mit der immer weiter fortschreitenden Technologie bieten sich jedoch neue und unerforschte Gebiete in der Entwicklung von ÖPNV-Apps. Durch eine nutzerzentrierte Konzeption können diese Technologien gezielt eingesetzt und ein Marktvorteil gegenüber Konkurrenten verschaffen werden.
In der Arbeit wird untersucht, wie Aufgaben im pathologischen Kontext automatisiert bewertet und für die Lernenden lernförderliches Feedback generiert werden kann. Dafür wurde eine Lernsoftware entwickelt, welche das Erstellen und automatisierte Bewerten der Aufgaben ermöglicht. Das Feedback informiert die Lernenden nicht nur darüber, ob eine Aufgabe richtig oder falsch gelöst worden ist, sondern unterstützt auch bei der Findung der richtigen Lösung. Hierzu wurde untersucht, wie das Feedback in einer Lernsoftware aufgebaut sein muss, um den Lernerfolg zu fördern. Auf dieser Grundlage wurden mit den Stakeholdern der Medizinischen Hochschule Hannover die Anforderungen an die Lernsoftware definiert und umgesetzt.
Führung von Mitarbeitern ist eine zentrale Aufgabe in jedem Unternehmen, die permanent verschiedenen organisatorischen und gesellschaftlichen Veränderungen unterliegt. Im Jahr 2020 löste die COVID-19-Pandemie eine weitreichende Veränderung in der Gesellschaft, der Volkswirtschaft und in den Unternehmen aus. Neben ökonomischen Verlusten führte die Pandemie in vielen Unternehmen zu einer unvermittelten Einführung der flächendeckenden Arbeit im Home-Office. In dieser Arbeit wird untersucht, welche Herausforderungen die Pandemie an die Mitarbeiterführung stellt und welche Positiv- und Negativfaktoren von Führung in der COVID-19-Pandemie in einem ausgewählten Unternehmen identifiziert werden können. Im Rahmen von qualitativen Einzelinterviews mit 16 Führungskräften aus dem Unternehmen wurden insgesamt 51 positive und negative kritische Führungsereignisse mithilfe der Methode der kritischen Ereignisse identifiziert. Aus den 51 kritischen Führungsereignissen konnten 11 Positivfaktoren und 14 Negativfaktoren von Führung abgeleitet werden. Die Ergebnisse dieser Untersuchung zeigen, dass die Kommunikation über neue Informations- und Kommunikationsmittel sowie der mangelnde informelle Austausch wesentliche Herausforderungen für die erfolgreiche Führung von Mitarbeitern im Home-Office darstellen. Insbesondere durch Positivfaktoren wie der Durchführung kurzer, regelmäßiger virtueller Zusammentreffen aller Teammitglieder und einer zielführenden Nutzung neuer technischer Möglichkeiten kann den Besonderheiten der Pandemie und der Führung von Mitarbeitern im Home-Office begegnet werden.
Research into new forms of care for complex chronic diseases requires substantial efforts in the collection, storage, and analysis of medical data. Additionally, providing practical support for those who coordinate the actual care management process within a diversified network of regional service providers is also necessary. For instance, for stroke units, rehabilitation partners, ambulatory actors, as well as health insurance funds. In this paper, we propose the concept of comprehensive and practical receiver-oriented encryption (ROE) as a guiding principle for such data-intensive, research-oriented case management systems, and
illustrate our concept with the example of the IT infrastructure of the project STROKE OWL.
Bedingt durch die zunehmende Digitalisierung der wissenschaftlichen Ausbildung entstanden verschiedenste Lehrplattformen, mit denen die Verwaltung von Lehrveranstaltungen und Lehrmitteln möglich geworden ist. Die Plattform LON-CAPA ist eine davon.
Neben der Verwaltung von Lehrveranstaltungen konnten innerhalb der Plattform über eine Programmierschnittstelle auch Übungsaufgaben definiert werden, die durch das Hinterlegen der korrekten Antwort oder bei der Definition von Multiple-Choice Aufgaben einem Studierenden automatisch Feedback über dessen Lösung geben können. Komplexere Aufgaben mussten dagegen häufig manuell durch Menschen korrigiert werden.
Für die formalen Sprachen und die Automatenlehre der theoretischen Informatik wurde daher die in Java geschriebene Bibliothek JFLAP modifiziert, um als Bewertungsinstrument Aufgaben aus diesem Themengebiet automatisch auf Korrektheit bewerten zu können. Ein genereller Interfaceansatz ermöglich zusätzliche eine zugängliche Definition weiterer Aufgaben für die untersuchten Themengebiete.
Konzeption und Realisierung einer Anwendung zur Erstellung und Verwaltung von Server-Konfigurationen
(2021)
Die vorliegende Bachelorarbeit behandelt die Konzeption und Realisierung einer Anwendung zur Erstellung und Verwaltung von Server-Konfigurationen der Firma Hacon. Hierzu werden im Rahmen einer Anforderungsanalyse der Ist- und Soll-Zustand ermittelt sowie generelle Design-Prinzipien und Usability-Ziele aufgestellt. Nach der Auswahl der Architektur werden wesentliche Funktionalitäten der Anwendung umgesetzt und zuletzt die aufgestellten Anforderungen und Ziele mithilfe eines Usability-Tests evaluiert.
Digitale Marktplätze können die Kosten einer Handelstransaktion, die sog. Transaktionskosten, senken. Durch weiteren technischen Fortschritt und intelligente Handelsbots wird die Nutzung des Marktmechanismus immer kostengünstiger. Dieser Artikel gibt einen Überblick über die bisherige Entwicklung von Digitalen Marktplätzen der Agrar- und Ernährungswirtschaft und eine mögliche Zukunft. Vermutlich werden die Transaktionskosten weiter fallen, sodass weitere Effizienzgewinne durch die vermehrte Nutzung von Märkten möglich sein werden.
Automatisierte Steuerung von virtuellen Biogas-Kraftwerksverbünden für den netzorientierten Betrieb
(2019)
Das Steuerungssystem VKV Netz ermöglicht den auf die Erbringung regionaler Systemdienstleistungen ausgerichteten Betrieb virtueller Biogas-Kraftwerksverbünde. Damit leistet es sowohl einen Beitrag zum zukünftig gesteigerten Bedarf an Regelenergie durch regenerative Kraftwerke als es auch alternative, zukunftsfähige Erlöspotenziale für die zumeist landwirtschaftlichen bzw. landwirtschaftsnahen Biogas-Anlagenbetreiber abseits des EEG aufzeigt. Das Steuerungssystem wurde im Rahmen des BMWi-Verbundforschungsvorhabens VKV Netz (Förderkennzeichen 0325943A) durch die Hochschule Hannover, die SLT-Technologies GmbH & Co. KG sowie die Überlandwerk Leinetal GmbH in Kooperation mit assoziierten Biogasanlagen im Zeitraum 01.01.2016 bis 31.12.2018 entwickelt und pilotiert.
Automatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden.
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
Ein großer Teil der deutschen Bevölkerung nutzt täglich den öffentlichen Nahverkehr, um von A nach B zu kommen. Gerade in Städten existiert meist bereits ein großes Netz an Haltestellen und umfangreichen Fahrplänen. Da sich die Wenigsten diese auf Dauer in ihrer Gesamtheit merken können, wird heutzutage oft auf mobile Apps zurückgegriffen, die schnell und zuverlässig personalisierte Verbindungen anzeigen können. Diese „Fahrplan-Apps“ können unter anderem auch von sogenannten „digitalen Sprachassistenten“ gesteuert und verwendet werden. Einige der deutschen Bus- und Bahnhaltestellennamen sind dabei für Sprachassistenten schwierig zu verarbeiten, weil sie etwa Personennamen enthalten, die nicht geläufig in der deutschen Sprache sind (z.B. „Podbielskistraße“ oder „Poccistraße“), oder aus ihrer Schreibweise keine eindeutige Aussprache abgeleitet werden kann (z.B. „Aegidientorplatz“). Dies kann zu Problemen führen, wenn beispielsweise die Aussprache einer Haltestelle von dem Sprachassistenten nicht erkannt oder falsch erkannt wird und dieser deshalb keine zufriedenstellende Fahrplanauskunft geben kann.
Hierzu sollte eine Lösung entwickelt werden, die Nutzer*innen dazu motiviert, bei der Verbesserung der Aussprache von Haltestellennamen durch Sprachassistenten mitzuhelfen. Der erste Schritt ist hierbei, dass die Nutzer*innen verifizieren, ob die Aussprache einer Haltestelle richtig oder falsch ist. Wird sie als falsch bewertet, folgt zusätzlich der zweite Schritt: Die Nutzer*innen können zusätzlich die richtige Aussprache übermitteln.
In der Bachelorarbeit sollte also eine Incentivierungsmethode für diese beiden Schritte entwickelt werden. Die Softwarelösung sollte eine zusätzliche Funktion in der von der Projektionisten GmbH entwickelten Fahrplan-App "naNah" darstellen. Außerdem sollte der Fokus der Arbeit auf der Konzeption des Softwaremoduls liegen, da die Benutzerfreundlichkeit und das Interaktionsdesign einen erheblichen Einfluss auf die Wirksamkeit der Incentivierungsmethode hat.
Dazu wurden zunächst Interviews mit potenziellen Nutzer*innen sowie eine Umfrage durchgeführt. Die jeweiligen Ergebnisse wurden als Grundlage für die nächsten Konzeptionsschritte verwendet. Es wurden hieraus vorläufige Bedürfnisse und Anforderungen formuliert und Zielgruppen abgeleitet. Hieraus wurden wiederum Personas erstellt. Anschließend wurden passende User Journeys und User Stories entwickelt.
Im nächsten Schritt wurde eine Wettbewerbsanalyse durchgeführt, in der die Vor- und Nachteile anderer ähnlicher Software herausgearbeitet und für die weitere Entwicklung der eigenen Software bedacht wurden.
Nach der Ausarbeitung von Design- sowie technischen Anforderungen wurde ein Prototyp erstellt. Dazu wurde die bis hierhin herausgearbeitete Lösungsidee mithilfe von Skizzen veranschaulicht. Um die Idee detaillierter sowie wahrheitsgetreu darstellen zu können, wurde außerdem ein klickbares Mock-up erstellt, das den inhaltlichen Aufbau der Software hervorhebt. Anschließend wurde dessen Eignung mit einem Usability-Test überprüft und es wurden aus diesem folgende Verbesserungen an dem Clickdummy ausgeführt, sodass am Ende ein ausgereifter Prototyp vorlag. Dieser wurde schließlich in seinen Grundzügen technisch implementiert.
Das Ergebnis der Bachelorarbeit ist eine konzeptionell vollständig ausgearbeitete Softwarelösung sowie ein Proof of Concept.
In dieser Arbeit wurde ein System entwickelt, welches Übungsaufgaben der relationalen Algebra automatisch auswertet und dies in Form einer Punktevergabe bewertet. Darüber hinaus ist das System in der Lage lernunterstützende Feedbacks zu generieren. Dadurch sollen Studierende, die im Rahmen der Datenbank-Vorlesung relationale Algebra lernen, eine korrekte und optimierte Sprachanwendung im Bereich der relationalen Algebra lernen.
Die Bachelorarbeit befasst sich mit dem Generieren kurzer fröhlicher und harmonischer Musikstücke mittels des Einsatzes genetischer Algorithmen. Dabei werden die Evolutionsprozesse der Biologie nachgeahmt. In der Programmiersprache Java, unter der Verwendung der Open-Source-Programmierbibliothek JFugue, sind dafür die einzelnen Zyklusphasen entworfen und implementiert worden.
Die Vereinigung der Biologie, der Kunst und der Informatik wird damit erreicht, um etwas ästhetisch Wirksames zu schaffen und stellt den besonderen Reiz der Arbeit dar.
In parcel delivery, the “last mile” from the parcel hub to the customer is costly, especially for time-sensitive delivery tasks that have to be completed within hours after arrival. Recently, crowdshipping has attracted increased attention as a new alternative to traditional delivery modes. In crowdshipping, private citizens (“the crowd”) perform short detours in their daily lives to contribute to parcel delivery in exchange for small incentives. However, achieving desirable crowd behavior is challenging as the crowd is highly dynamic and consists of autonomous, self-interested individuals. Leveraging crowdshipping for time-sensitive deliveries remains an open challenge. In this paper, we present an agent-based approach to on-time parcel delivery with crowds. Our system performs data stream processing on the couriers’ smartphone sensor data to predict delivery delays. Whenever a delay is predicted, the system attempts to forge an agreement for transferring the parcel from the current deliverer to a more promising courier nearby. Our experiments show that through accurate delay predictions and purposeful task transfers many delays can be prevented that would occur without our approach.
Subject of this work is the investigation of universal scaling laws which are observed in coupled chaotic systems. Progress is made by replacing the chaotic fluctuations in the perturbation dynamics by stochastic processes.
First, a continuous-time stochastic model for weakly coupled chaotic systems is introduced to study the scaling of the Lyapunov exponents with the coupling strength (coupling sensitivity of chaos). By means of the the Fokker-Planck equation scaling relations are derived, which are confirmed by results of numerical simulations.
Next, the new effect of avoided crossing of Lyapunov exponents of weakly coupled disordered chaotic systems is described, which is qualitatively similar to the energy level repulsion in quantum systems. Using the scaling relations obtained for the coupling sensitivity of chaos, an asymptotic expression for the distribution function of small spacings between Lyapunov exponents is derived and compared with results of numerical simulations.
Finally, the synchronization transition in strongly coupled spatially extended chaotic systems is shown to resemble a continuous phase transition, with the coupling strength and the synchronization error as control and order parameter, respectively. Using results of numerical simulations and theoretical considerations in terms of a multiplicative noise partial differential equation, the universality classes of the observed two types of transition are determined (Kardar-Parisi-Zhang equation with saturating term, directed percolation).
The network security framework VisITMeta allows the visual evaluation and management of security event detection policies. By means of a "what-if" simulation the sensitivity of policies to specific events can be tested and adjusted. This paper presents the results of a user study for testing the usability of the approach by measuring the correct completion of given tasks as well as the user satisfaction by means of the system usability scale.
Das Forschungscluster Smart Data Analytics stellt in dem vorliegenden Band seine Forschung aus den Jahren 2019 und 2020 vor. In der ersten Hälfte des Bandes geben 20 Kurzporträts von laufenden oder kürzlich abgeschlossenen Projekten einen Überblick über die Forschungsthemen im Cluster. Enthalten in den Kurzporträts ist eine vollständige, kommentierte Liste der wissenschaftlichen Veröffentlichungen aus den Jahren 2019 und 2020. In der zweiten Hälfte dieses Bandes geben vier längere Beiträge exemplarisch einen tieferen Einblick in die Forschung des Clusters und behandeln Themen wie Fehlererkennung in Datenbanken, Analyse und Visualisierung von Sicherheitsvorfällen in Netzwerken, Wissensmodellierung und Datenintegration in der Medizin, sowie die Frage ob ein Computerprogramm Urheber eines Kunstwerkes im Sinne des Urheberrechts sein kann.
Das Forschungscluster Industrie 4.0 stellt in acht Beiträgen aktuelle Ergebnisse aus seinen vielfältigen Forschungsprojekten vor. Es werden virtuelle Techniken in der Produktentwicklung, Lehrkonzepte für Industrie 4.0, Energy Harvesting bei Antennen, Energiemanagement in Produktionsanlagen, firmenübergreifende IT-Security Anforderungen, dezentral gesteuerte Produktionsprozesse und Spracherkennung mit Mikrocontrollern behandelt.
Die vergleichende Fallstudie untersucht die Auswirkungen des Einsatzes von Videokonferenzsoftware (VKS) in einer kooperativen Lernumgebung in einem Masterseminar der Hochschule Hannover im Studiengang Unternehmensentwicklung. Es wurden 13 problemzentrierte Interviews mit Teilnehmenden eines Online- und eines Präsenzkurses geführt. Die gewonnenen Daten aus den Interviewaussagen wurden unter Anwendung des an der Hochschule eingesetzten Evaluationsfragebogens auf Plausibilität geprüft. Es wurden acht Probanden aus dem Onlinekurs und fünf Probanden aus dem vorherigen Präsenzkurs befragt. Die Interviews wurden über eine qualitative Inhaltsanalyse ausgewertet. Die zentralen
Ergebnisse waren, dass das Teleteaching zwar funktioniert, die Onlinestudierenden aber eine niedrigere Aufmerksamkeit, eine gehemmte aktive Beteiligung, eine geringere Interaktion zwischen den Studierenden und eine erschwerte Interaktion in den Gruppenarbeiten wahrnehmen. Als größte Nachteile wurden die fehlenden persönlichen Kontakte und die niedrige Aufmerksamkeit identifiziert. Als größter Vorteil erwies sich die erhöhte Flexibilität durch den ersparten Anfahrtsweg. Ein für Teleteaching zentraler Erfolgsfaktor ist, dass die Kameras auch bei den Teilnehmenden angeschaltet sein sollten, damit die Aufmerksamkeit und die aktive Beteiligung gefördert werden. Zwölf der Probanden stuften den VKS-Einsatz als sinnvolle Ergänzung für Seminare ein. Präsenzseminare sind aber keinesfalls durch Onlineseminare zu ersetzen.
In diesem Beitrag werden die Ergebnisse einer Personalbefragung österreichischer Polizisten und Polizistinnen in Ausbildung geschildert, bei denen die Einstellung zu Korruption erhoben wurde. Weiterhin wurden Variablen wie Geschlecht, Alter und Bildungsgrad erhoben, die in Hellfeldforschung zu Korruption häufig als Merkmale von Korruptionstätern und Korruptionstäterinnen genannt werden. Im Fokus dieses Beitrags steht unter anderem die Frage, inwieweit sich Befunde aus dem Hellfeld von Korruption im Dunkelfeld abbilden. Zur Klärung dieser Frage werden Merkmale aus dem Hellfeld der Korruptionstäter und Korruptionstäterinnen auf eine Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption im Dunkelfeld überprüft. Zudem wird in diesem Beitrag die Frage geklärt, wie die Polizisten und Polizistinnen in Ausbildung hinsichtlich der Einstellung zu Korruption im Vergleich mit der Allgemeinbevölkerung Österreichs abschneiden. Polizisten und Polizistinnen in Ausbildung sind für das Bundesamt zur Korruptionsprävention und Korruptionsbekämpfung (kurz: BAK) die größte Zielgruppe bei der Ausbildung und Weiterbildung öffentlich Bediensteter in Österreich.
Die Ergebnisse lassen erkennen, dass sich die Befunde aus dem Hellfeld von Korruption nicht im Dunkelfeld abbilden, denn die überprüften Variablen weisen insgesamt betrachtet keine substanzielle Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption auf. Hinsichtlich des Vergleichs der österreichischen Polizisten und Polizistinnen in Ausbildung mit der Allgemeinbevölkerung Österreichs zeigen sich nur geringfügige Unterschiede in der Einstellung zu Korruption. Tendenziell lehnen die Polizisten und Polizistinnen in Ausbildung Korruption eher ab als die Allgemeinbevölkerung Österreichs.
Vor der Abgabe einer Studien- oder Abschlussarbeit ist dringend eine sorgfältige Überarbeitung in Form einer Endredaktion vorzunehmen, um eine gute Bewertung der Arbeit nicht zu gefährden. Dies ist einfach; denn das Vorgehen ist schlicht und wenig aufwändig. Daher wäre es besonders ärgerlich, einfache Fehler nicht zu beheben und dafür Abzüge bei der Bewertung der Arbeit hinzunehmen. Für eine Endredaktion wird hiermit eine Anleitung vorgelegt.
Background: Virtual reality (VR) is increasingly used as simulation technology in emergency medicine education and training, in particular for training nontechnical skills. Experimental studies comparing teaching and learning in VR with traditional training media often demonstrate the equivalence or even superiority regarding particular variables of learning or training effectiveness.
Objective: In the EPICSAVE (Enhanced Paramedic Vocational Training with Serious Games and Virtual Environments) project, a highly immersive room-scaled multi-user 3-dimensional VR simulation environment was developed. In this feasibility study, we wanted to gain initial insights into the training effectiveness and media use factors influencing learning and training in VR.
Methods: The virtual emergency scenario was anaphylaxis grade III with shock, swelling of the upper and lower respiratory tract, as well as skin symptoms in a 5-year-old girl (virtual patient) visiting an indoor family amusement park with her grandfather (virtual agent). A cross-sectional, one-group pretest and posttest design was used to evaluate the training effectiveness and quality of the training execution. The sample included 18 active emergency physicians.
Results: The 18 participants rated the VR simulation training positive in terms of training effectiveness and quality of the training execution. A strong, significant correlation (r=.53, P=.01) between experiencing presence and assessing training effectiveness was observed. Perceived limitations in usability and a relatively high extraneous cognitive load reduced this positive effect.
Conclusions: The training within the virtual simulation environment was rated as an effective educational approach. Specific media use factors appear to modulate training effectiveness (ie, improvement through “experience of presence” or reduction through perceived limitations in usability). These factors should be specific targets in the further development of this VR simulation training.
Nowadays, smartphones and sensor devices can provide a variety of information about a user’s current situation. So far, many recommender systems neglect this kind of information and thus cannot provide situationspecific recommendations. Situation-aware recommender systems adapt to changes in the user’s environment and therefore are able to offer recommendations that are more appropriate for the current situation. In this paper, we present a software architecture that enables situation awareness for arbitrary recommendation techniques. The proposed system considers both (semi-)static user profiles and volatile situational knowledge to obtain meaningful recommendations. Furthermore, the implementation of the architecture in a museum of natural history is presented, which uses Complex Event Processing to achieve situation awareness.
Untersuchungen zu Berufen der Wirtschaftsinformatik bleiben weiterhin
interessant, wenn sie helfen können, dem mittlerweile länger anhaltenden
IT-Fachkräftemangel entgegenzuwirken. Eine Untersuchung der Hochschule
Hannover zu Wirtschaftsinformatikern/-informatikerinnen in den ersten zehn Jahren im Beruf zeigt deren berufliche Ziele und die berufliche Zufriedenheit, die sie erlangen. Deutlich wird, dass Frauen und Männer das Arbeitsklima und die Arbeitsbedingungen sehr unterschiedlich wahrnehmen und daher auch unterschiedlich zufrieden sind. Dabei bemängeln Frauen vor allem Merkmale, die mit „fehlender Fairness“ zu beschreiben sind.
Am Beispiel des Fünf-Faktoren-Modells der Persönlichkeit aus der Psychologie (Big 5) wird exemplarisch gezeigt, wie komplexe Lerninhalte adäquat für eine Onlinevermittlung aufbereitet werden können und wie man zugleich die Lernmotivation der Teilnehmenden erhöhen kann. Hierfür wurde eine bestehende Lerneinheit mit Präsenzvermittlung im Umfang von einem halben Tag in ein Onlineformat übertragen. Der Kern des Onlineformats beinhaltet sechs Lernvideos, bestehend aus einem Videofilm zum Modellüberblick und je einem Videofilm für jeden der fünf Faktoren des Modells. In den Videofilmen agieren die fünf Mitglieder einer Rockband sowie ein Erzähler aus dem Off. Jedes Bandmitglied steht prototypisch für einen der fünf Faktoren des Modells. Die Darstellung der fünf Bandmitglieder (The Big Fives) und deren Interaktion werden als Grundlage genutzt, um die Anwendung des Fünf-Faktoren-Modells zu üben.
Unter Crowdsensing versteht man Anwendungen, in denen Sensordaten kollaborativ von einer Menge von Freiwilligen erhoben werden. So kann Crowdsensing eingesetzt werden um die Luftqualität an Orten zu messen, an denen keine fest installierten Sensoren verfügbar sind. In Crowdsensing-Systemen müssen die Teilnehmer koordiniert und die Messdaten verarbeitet werden, um relevante Daten zu erhalten. Im Rahmen der Abschlussarbeit wurde ein System konzipiert und prototypisch umgesetzt, das auf einem Raspberry Pi (unter Einsatz geeigneter Sensoren) Sensordaten erhebt und mit der Complex Event Processing Technologie verarbeitet.
Wie kann man den empfundenen Alltagsstress bewältigen und eigene, sinnvolle Ziele erreichen? Woher kommt die Zeitnot und was kann man tun? Gibt es Faktoren, die Glück und Erfolg fördern? Was kann man in seinem Studien- und Arbeitsalltag tun, um sich wohl zu fühlen und erfolgreich zu sein? Welche Zeitmanagement-Tools helfen bei der Organisation von Studium und Arbeitsalltag?
Diese und weitere Fragen werden im Workbook beantwortet. Der Selbstmanagement-Prozesskreis wird vorgestellt, verschiedene Modelle, Prinzipien und Techniken werden vermittelt. Mit vielen Reflexionsfragen und Übungen.
Der Autobewerter Graja, der in der Lehre zum Bewerten studentischer Java-Programme verwendet wird, stellt ein komplexes Softwaresystem dar. Aufgrund einer kaum vorhandenen Testabdeckung durch Modul- und Integrationstests, ist die Gewährleistung der fehlerfreien Funktionalität in Hinsicht auf die Weiterentwicklung nicht garantiert. Da sich Graja auf das ProFormA-Aufgabenformat stützt, stellt sich die Frage, inwiefern sich die im ProFormA-Aufgabenformat vorausgesetzten Musterlösungen, für einen automatisierten Regressionstestmechanismus eignen.
Das Ziel dieser Forschung ist es ein Konzept, für einen solchen Regressionstestmechanismus zu erstellen und mithilfe einer Referenzimplementierung als Graja-Erweiterung in die Praxis umzusetzen. Der daraus entstandene Mechanismus operiert durch Verhaltensaufzeichnung und Verhaltensabgleich und konvertiert so das in Graja beobachtete Bewertungsverhalten einer Musterlösung in einen Testfall. In der Testphase findet anschließend ein Abgleich des Soll-Verhaltens eines Testfalls und des beobachteten Ist-Verhaltens einer Musterlösung statt. Die Differenzen dieses Abgleichs sind als potenzielle Regressionen zu behandeln, da diese eine semantische Änderung des Bewertungsergebnisses darstellen.
Um diesen Verhaltensabgleich robust und mit möglichst wenigen Fehlalarme zu realisieren, wurden die in Graja verwendeten Datenmodelle auf Eignung bezüglich einer Verhaltensaufzeichnung untersucht. Außerdem fand eine Datenaufzeichnung mit einer Teilmenge der Musterlösungen statt. Nachfolgend wurde eine Analyse dieser Rohdaten, mit dem Ziel potenzielles Rauschen innerhalb der Aufzeichnungen zu detektieren, durchgeführt. So konnte letztendlich eine Strategie für eine Rauschunterdrückung innerhalb der Verhaltensaufzeichnung entwickelt werden.
Abschließend wurde ein Datenmodell entwickelt, das erlaubt, die durch den Verhaltensabgleich detektierten Regressionen verständlich und lokalisierbar darzustellen. Der durch diese Arbeit entstandene automatisierte Regressionstestmechanismus stellt somit eine Grundlage für die Gewährleistung der korrekten Bewertungsfunktionalität innerhalb des Graja-Entwicklungsprozesses dar. Durch das Detektieren von Regressionen mithilfe der Musterlösungen, lassen sich nun Änderungen an Graja gewissenhaft in eine Produktionsumgebung übernehmen.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
Objective: The study’s objective was to assess factors contributing to the use of smart devices by general practitioners (GPs) and patients in the health domain, while specifically addressing the situation in Germany, and to determine whether, and if so, how both groups differ in their perceptions of these technologies.
Methods: GPs and patients of resident practices in the Hannover region, Germany, were surveyed between April and June 2014. A total of 412 GPs in this region were invited by email to participate via an electronic survey, with 50 GPs actually doing so (response rate 12.1%). For surveying the patients, eight regional resident practices were visited by study personnel (once each). Every second patient arriving there (inclusion criteria: of age, fluent in German) was asked to take part (paper-based questionnaire). One hundred and seventy patients participated; 15 patients who did not give consent were excluded.
Results: The majority of the participating patients (68.2%, 116/170) and GPs (76%, 38/50) owned mobile devices. Of the patients, 49.9% (57/116) already made health-related use of mobile devices; 95% (36/38) of the participating GPs used them in a professional context. For patients, age (P<0.001) and education (P<0.001) were significant factors, but not gender (P>0.99). For doctors, neither age (P¼0.73), professional experience (P>0.99) nor gender (P¼0.19) influenced usage rates. For patients, the primary use case was obtaining health (service)-related information. For GPs, interprofessional communication and retrieving information were in the foreground. There was little app-related interaction between both groups.
Conclusions: GPs and patients use smart mobile devices to serve their specific interests. However, the full potentials of mobile technologies for health purposes are not yet being taken advantage of. Doctors as well as other care providers and the patients should work together on exploring and realising the potential benefits of the technology.
Vergleich von nativer App- und Cross-Platform-Entwicklung (Facebook React Native und Google Flutter)
(2020)
Die Entwicklung mobiler Applikationen für iOS und Android ist in der Regel mit viel Arbeit verbunden, da man für beide Plattformen gezwungenermaßen unterschiedlichen Quelltext schreiben muss. Abhilfe für dieses Problem schaffen Cross-Platform-Frameworks wie React Native von Facebook oder Flutter von Google. Anhand dieser Frameworks lassen sich Apps für beide Plattformen mit nur einer Codebase entwickeln. Eine kritische Stelle und oft gebrauchtes Kontra-Argument gegen die Entwicklung mit Cross-Platform-Frameworks ist die Hardwarenähe der nativen Applikationen, an welcher es den Frameworks vermeintlich mangelt. Doch wie ist der Stand der Dinge im Jahr 2020? Können Cross-Platform-Frameworks inzwischen performant und einfach auf Hardwarekomponenten zugreifen und machen damit die mühsame, native Entwicklung für iOS und Android vor allem in Anbetracht der Entwicklung von größerer Enterprise-Software obsolet?
Dieser Frage wird in dieser Arbeit nachgegangen und generell überprüft wie tauglich die Cross-Platform-Entwicklung ist. Nach dem Lesen dieser Bachelorarbeit sollte entschieden werden können, ob Cross-Platform-Frameworks für das Anwendungsproblem des Lesers geeignet sind. Um die Forschungsfrage zu beantworten, wurden je zwei Applikationen im Rahmen einer Fallstudie für je iOS und Android entwickelt, damit geprüft werden konnte, wie förderlich die zuvor genannten Frameworks sind. Der Fokus der Arbeit liegt also auf der Güte bzw. dem heutigen Stand der Cross-Platform-Entwicklung, vor allem im Bezug auf die Benutzung von Hardwarekomponenten bzw. betriebssystemspezifischen Diensten (Bluetooth, Kamera, etc.).
Die Ergebnisse der Fallstudie zeigen, dass es stets auf den Kontext und die Komplexität der zu realisierenden Anwendung ankommt inwiefern Cross-Platform-Frameworks verwendet werden können. In simplen Anwendungsfällen können Frameworks meist zu einer erheblichen Kostenminimierung und Zeitersparnis führen, wohingegen bei komplexeren Anwendungen relativ schnell Grenzen und starke Abhängigkeiten erreicht werden.
Ein Schnittstellen-Datenmodell der Variabilität in automatisch bewerteten Programmieraufgaben
(2018)
Automatisch bewertete, variable Programmieraufgaben stellen besondere Schnittstellenanforderungen an Autobewerter (Grader) und Lernmanagementsysteme (LMS). Um Wiederverwendung von Aufgaben über Systemgrenzen hinweg zu begünstigen, schlagen wir vor, Aufgabenschablonen durch eine von allen beteiligten Systemen genutzte Middleware zu instanziieren und dabei Variabilitätsinformationen in einem Schnittstellen-Datenmodell zu transportieren. Wir stellen ein solches Datenmodell vor, welches für die Grader-unabhängige Kommunikation mit LMS ausgelegt ist und beispielhaft im Autobewerter Graja implementiert wurde. Zudem wird eine Dialogkomponente für die manuelle Werteauswahl vorgestellt, die auch bei großen Wertemengen effizient und Grader-unabhängig einsetzbar ist. Die Eignung des Dialogs und des Datenmodells wird anhand eines typischen Bewertungsszenarios diskutiert.
Aim/Purpose: We explore impressions and experiences of Information Systems graduates during their first years of employment in the IT field. The results help to understand work satisfaction, career ambition, and motivation of junior employees. This way, the attractiveness of working in the field of IS can be increased and the shortage of junior employees reduced.
Background: Currently IT professions are characterized by terms such as “shortage of professionals” and “shortage of junior employees”. To attract more people to work in IT detailed knowledge about experiences of junior employees is necessary.
Methodology: Data from a large survey of 193 graduates of the degree program “Information Systems” at University of Applied Sciences and Arts Hannover (Germany) show characteristics of their professional life like work satisfaction, motivation, career ambition, satisfaction with opportunities, development and career advancement, satisfaction with work-life balance. It is also asked whether men and women gain the same experiences when entering the job market and have the same perceptions.
Findings: The participants were highly satisfied with their work, but limitations or restrictions due to gender are noteworthy.
Recommendations for Practitioners: The results provide information on how human resource policies can make IT professions more attractive and thus convince graduates to seek jobs in the field. For instance, improving the balance between work and various areas of private life seems promising. Also, restrictions with respect to the work climate and improving communication along several dimensions need to be considered.
Future Research: More detailed research on ambition and achievement is necessary to understand gender differences.
Our work is motivated primarily by the lack of standardization in the area of Event Processing Network (EPN) models. We identify general requirements for such models. These requirements encompass the possibility to describe events in the real world, to establish temporal and causal relationships among the events, to aggregate the events, to organize the events into a hierarchy, to categorize the events into simple or complex, to create an EPN model in an easy and simple way and to use that model ad hoc. As the major contribution, this paper applies the identified requirements to the RuleCore model.
Nowadays, REST is the most dominant architectural style of choice at least for newly created web services. So called RESTfulness is thus really a catchword for web application, which aim to expose parts of their functionality as RESTful web services. But are those web services RESTful indeed? This paper examines the RESTfulness of ten popular RESTful APIs (including Twitter and PayPal). For this examination, the paper defines REST, its characteristics as well as its pros and cons. Furthermore, Richardson's Maturity Model is shown and utilized to analyse those selected APIs regarding their RESTfulness. As an example, a simple, RESTful web service is provided as well.
Hadoop is a Java-based open source programming framework, which supports the processing and storage of large volumes of data sets in a distributed computing environment. On the other hand, an overwhelming majority of organizations are moving their big data processing and storing to the cloud to take advantage of cost reduction – the cloud eliminates the need for investing heavily in infrastructures, which may or may not be used by organizations. This paper shows how organizations can alleviate some of the obstacles faced when trying to make Hadoop run in the cloud.
Radioisotope-guided sentinel lymph node dissection (sLND) has shown high diagnostic reliability in prostate (PCa) and other cancers. To overcome the limitations of the radioactive tracers, magnetometer-guided sLND using superparamagnetic iron oxide nanoparticles (SPIONs) has been successfully used in PCa. This prospective study (SentiMag Pro II, DRKS00007671) determined the diagnostic accuracy of magnetometer-guided sLND in intermediate- and high-risk PCa. Fifty intermediate- or high-risk PCa patients (prostate-specific antigen (PSA) >= 10 ng/mL and/or Gleason score >= 7; median PSA 10.8 ng/mL, IQR 7.4–19.2 ng/mL) were enrolled. After the intraprostatic SPIONs injection a day earlier, patients underwent magnetometer-guided sLND and extended lymph node dissection (eLND, followed by radical prostatectomy. SLNs were detected in in vivo and in ex vivo samples. Diagnostic accuracy of sLND was assessed using eLND as the reference. SLNs were detected in all patients (detection rate 100%), with 447 sentinel lymph nodes SLNs (median 9, IQR 6–12) being identified and 966 LNs (median 18, IQR 15–23) being removed. Thirty-six percent (18/50) of patients had LN metastases (median 2, IQR 1–3). Magnetometer-guided sLND had 100% sensitivity, 97.0% specificity, 94.4% positive predictive value, 100% negative predictive value, 0.0% false negative rate, and 3.0% additional diagnostic value (LN metastases only in SLNs outside the eLND template). In vivo, one positive SLN/LN-positive patient was missed, resulting in a sensitivity of 94.4%. In conclusion, this new magnetic sentinel procedure has high accuracy for nodal staging in intermediate- and high-risk PCa. The reliability of intraoperative SLN detection using this magnetometer system requires verification in further multicentric studies.
Systematizing IT Risks
(2019)
IT risks — risks associated with the operation or use of information technology — have taken on great importance in business, and IT risk management is accordingly important in the science and practice of information management. Therefore, it is necessary to systematize IT risks in order to plan, manage and control for different risk-specific measures. In order to choose and implement suitable measures for managing IT risks, effect-based and causebased procedures are necessary. These procedures are explained in detail for IT security risks because of their special importance.
Die Dunkle Triade besteht aus den Konstrukten Machiavellismus, Narzissmus sowie Psychopathie. Nachfolgend wird eine Untersuchung des Zusammenhangs zwischen den Konstrukten der Dunklen Triade und Studienerfolg berichtet. Studienerfolg wurde mittels Durchschnittsnote, Studiendauer, Kompetenzerwerb sowie Studienzufriedenheit operationalisiert und jeweils separat überprüft. Insgesamt wurden 98 Studierende der Hochschule Hannover befragt. Es konnten keine statistisch signifikanten Zusammenhänge zwischen den drei Konstrukten der Dunklen Triade und Durchschnittsnote sowie Studiendauer festgestellt werden. Ebenfalls konnten keine statistisch signifikanten Zusammenhänge zwischen Machiavellismus und Kompetenzerwerb sowie Studienzufriedenheit festgestellt werden. Auch für Narzissmus konnten keine statistisch signifikanten Zusammenhänge mit Kompetenzerwerb sowie Studienzufriedenheit festgestellt werden. Die Effekte dieser statistisch insignifikanten Ergebnisse sind in ihrer Höhe gering (r < 0,10). Als statistisch signifikant erwiesen sich die Zusammenhänge zwischen Psychopathie und Kompetenzerwerb (p = 0,01, r = -0,23) sowie zwischen Psychopathie und Studienzufriedenheit (p = 0,03, r = -0,20).
Fortgeschrittene Konzepte der logischen Programmierung - für Kinder einfach zugänglich via NLP
(2019)
In dieser Arbeit wurde an der über Google Dialogflow gesteuerten Entwicklungsumgebung für logische Programmierung "Speech and Logic IDE" (SLIDE) geforscht. Die Anwendung wurde von Dialogflow zu der Bibliothek Snips NLU überführt, damit ohne Internetanbindung gearbeitet werden kann.
Als Hauptteil der Arbeit wurden die logischen Konzepte Variablen, Rekursion und Listen in die Anwendung implementiert. Es wurde eine Benennungsvorschrift eingeführt, die die Anwendung von starren Strukturen löst und es durch rekursive Verarbeitung erlaubt, beliebig komplexe Strukturen zu modellieren. Die Anwendung wurde anschließend im Rahmen der Sekundarstufe I betrachtet. Die behandelten Fragen waren:
"Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Fakten und Regeln zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Variablen, Rekursion und Listen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen außerhalb der mathematischen Domäne zu vermitteln?"
Dazu wurden zwei Unterrichtsbeispiele konzipiert, die sich im Deutschunterricht mit Grammatik und Lyrik auseinandersetzen, zwei Themen des niedersächsischen Kerncurriculums aus der Sekundarstufe I. Bei der Unterrichtsgestaltung wurde besonderes Augenmerk auf die neu eingeführten Konzepte gesetzt. Das zweite Unterrichtsbeispiel wurde im Rahmen einer Zusammenarbeit mit dem Projekthaus Zukunft MINT der Hochschule Hannover zweimalig mit unterschiedlichen 10. Klassen (IGS und Gymnasium) durchgeführt. Die theoretischen Ergebnisse der Arbeit zeigen, dass alle Fragen mit "Ja" beantwortet werden können. In der neuen Version von SLIDE ist es möglich die neuen Konzepte zu modellieren und es ist möglich Unterrichtsbeispiele zu konzipieren, die dieses Wissen vermitteln und sich auf Inhalte des Kerncurriculums beziehen. Die Ergebnisse der Feldexperimente in Form von Fragebögen fallen weniger aussagekräftig aus, da sich die SuS bereits am Ende der Sekundarstufe I befanden und die konzipierten Inhalte somit eine Wiederholung darstellten. Weiter muss anerkannt werden, dass viele Faktoren bei der Befragung nicht berücksichtigt werden konnten. Deswegen können aus den praktischen Versuchen keine umfassenden Schlüsse gezogen werden, eine optimistische Betrachtung zeigt ein generelles Interesse der Anwendung seitens der SuS. Die Erfahrungen legen nahe die Unterrichtsinhalte auf mehrere Unterrichtseinheiten aufzuteilen, damit die Teilnehmer mit Vorwissen an die neuen Konzepte herantreten und sich auf sie konzentrieren können.
Das Bedürfnis Daten in Echtzeit zu analysieren und auf Ereignisse zu reagieren, ist innerhalb aller Branchen in den letzten Jahren stark gestiegen. Als die Analysetechnik für Echtzeitdatenströme hat sich das Complex Event Processing (CEP) durchgesetzt. Mithilfe von Regeln lassen sich kausale, temporale und räumliche Zusammenhänge von Ereignissen definieren und durch eine CEP-Engine evaluieren. Die Konstruktion von Regeln hat sich dabei als einschränkende Faktor von CEP herausgestellt. Greedy4Cep ist ein algorithmischer Ansatz zur automatisierten Erstellung von CEP-Regeln anhand eines historischen Datenstromes.
The Gravitational Search Algorithm is a swarm-based optimization metaheuristic that has been successfully applied to many problems. However, to date little analytical work has been done on this topic.
This paper performs a mathematical analysis of the formulae underlying the Gravitational Search Algorithm. From this analysis, it derives key properties of the algorithm's expected behavior and recommendations for parameter selection. It then confirms through empirical examination that these recommendations are sound.
An der Hochschule Hannover soll die Lernplattform LON-CAPA von Moodle-STACK abgelöst werden. Dazu werden Aufgaben von LON-CAPA nach Moodle-STACK konvertiert. Durch die Entwicklung eines Konverters kann ein großer Teil dieser Arbeit automatisiert erfolgen. Aufgrund der potentiellen Komplexität von LON-CAPA-Aufgaben ist nicht jede Aufgabe in vollem Umfang zu übersetzen und eine manuelle Nacharbeit notwendig.
In dieser Arbeit werden die LON-CAPA-Antworttypen numerical, formula und math response analysiert. Es wird untersucht, wie LON-CAPA-Aufgabenelemente einzeln umgewandelt werden können und welche Parameter im Moodle-STACK-Format gesetzt werden müssen, um eine äquivalente Aufgabe in Moodle-STACK zu erhalten.
Die technische Umsetzung erfolgt in Java. Der modulare Aufbau sieht Wartbarkeit und Weiterentwicklung vor. Auf GitHub steht die Implementierung unter der GPL (GNU General Public License) zur Verfügung: https://github.com/kiliandangendorf/lc2mdl
Automatisiert bewertbare Programmieraufgaben dienen Studierenden zum Einüben von Programmierfertigkeiten. Die Verfügbarkeit von mehreren verschiedenen Aufgaben, die denselben Stoff abdecken, ist für verschiedene Zwecke hilfreich. Eine Programmieraufgabe lässt sich durch Einführung von Variationspunkten variabel gestalten. Die hierbei entstehende Aufgabenschablone ist Ausgangsbasis der sogenannten Materialisierung, der automatischen Generierung konkreter Aufgaben. Der vorliegende Beitrag stellt ein Datenmodell mit dem Ziel vor, sowohl die Auswahl von Variationspunktwerten als auch die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen zu unterstützen. Das vorgeschlagene Datenformat ermöglicht Lernmanagementsystemen die Unterstützung variabler Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö umfasst 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden drei Datenerhebungen geschildert. In der ersten Datenerhebung (n = 1.617) wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Neu im Vergleich zur ersten Auflage des Manuals ist die dritte Datenerhebung, in der die HKS 38 Ö für eine Befragung von Polizeischülern (n = 1.455) verwendet wurde. Auch die Daten der dritten Erhebung wurden testtheoretisch überprüft. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.
Objective
The study’s objective was to assess factors contributing to the use of smart devices by general practitioners (GPs) and patients in the health domain, while specifically addressing the situation in Germany, and to determine whether, and if so, how both groups differ in their perceptions of these technologies.
Methods
GPs and patients of resident practices in the Hannover region, Germany, were surveyed between April and June 2014. A total of 412 GPs in this region were invited by email to participate via an electronic survey, with 50 GPs actually doing so (response rate 12.1%). For surveying the patients, eight regional resident practices were visited by study personnel (once each). Every second patient arriving there (inclusion criteria: of age, fluent in German) was asked to take part (paper-based questionnaire). One hundred and seventy patients participated; 15 patients who did not give consent were excluded.
Results
The majority of the participating patients (68.2%, 116/170) and GPs (76%, 38/50) owned mobile devices. Of the patients, 49.9% (57/116) already made health-related use of mobile devices; 95% (36/38) of the participating GPs used them in a professional context. For patients, age (P < 0.001) and education (P < 0.001) were significant factors, but not gender (P > 0.99). For doctors, neither age (P = 0.73), professional experience (P > 0.99) nor gender (P = 0.19) influenced usage rates. For patients, the primary use case was obtaining health (service)-related information. For GPs, interprofessional communication and retrieving information were in the foreground. There was little app-related interaction between both groups.
Conclusions
GPs and patients use smart mobile devices to serve their specific interests. However, the full potentials of mobile technologies for health purposes are not yet being taken advantage of. Doctors as well as other care providers and the patients should work together on exploring and realising the potential benefits of the technology.
Automatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden. Letzteres sucht einen Ausgleich im Spannungsfeld zwischen einem für Studierende einfach verständlichen Bewertungsergebnis und den Eigenarten der eigentlich nicht für Bewertungszwecke erfundenen, nichtsdestotrotz regelmäßig und sinnvollerweise für Bewertungszwecke eingesetzten Softwarewerkzeuge.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
Dieser Text soll das Verfassen von Bachelorarbeiten erleichtern. Schrittweise wird dargestellt, wie man recherchiert, wie man eine Bachelorarbeit strukturiert, wie man argumentiert, wie man Ergebnisse darstellt und wie man eine zielführende Diskussion führt. Zwei Meilensteine für eine gute Bachelorarbeit sind das eigenständige Strukturieren von Informationen sowie das Entwickeln einer Argumentationslinie. Informationen sollen nicht unverbunden nebeneinander stehen, sondern argumentativ verknüpft werden. Es werden abschließend Grundregeln des Darstellens und Zitierens erläutert.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Sustainable tourism is a niche market that has been growing in recent years. At the same time, companies in the mass tourism market have increasingly marketed themselves with a “green” image, although this market is not sustainable. In order to successfully market sustainability, targeted marketing tactics are needed.
The aim of this research is to establish appropriate marketing tactics for sustainable tourism in the niche market and in the mass market. The purpose is to uncover current marketing tactics for both the mass tourism market and the sustainable tourism niche market. It also intends to explore how consumers who are more interested in sustainability differ from consumers with less interest in sustainability in terms of their perception of sustainability in tourism. Furthermore, this research paper will assess the trustworthiness of sustainable travel offers and the trustworthiness of quality seals in sustainable tourism. For this purpose, an online survey was conducted, which was addressed at German-speaking consumers. The survey showed, that consumers with more general interest in sustainability also consider sustainability to be more relevant in tourism. Offers for sustainable travel and quality seals were perceived as not very trustworthy. Moreover, no link could be found between the interest in sustainability and the perception of trustworthiness.
On the basis of the above, it is advisable to directly advertise sustainability in the niche market and to mention sustainability in the mass market only as an accompaniment or not at all. Further research could be undertaken to identify which factors influence the trustworthiness of offers, and trustworthiness of quality seals in sustainable tourism.
In der Lehre kommen seit einiger Zeit Autobewerter zum Einsatz, um automatisiert oder teilautomatisiert Lösungen von Lernenden zu Programmieraufgaben zu bewerten. Aus Sicht eines Betreibers von Autobewerter-Systemen erfordert letzteres meist die Ausführung von fremdem Programmcode in der eigenen Server-Umgebung. Hierbei ist Vorsicht geboten, da fehlerhafter oder angriffslustiger Programmcode verbotene Aktionen ausführen könnte.
An der Hochschule Hannover können Studierende Lösungen zu Programmieraufgaben verschiedener Programmiersprachen über das Lernmanagementsystem "moodle" einreichen. Die angeschlossene Middleware Grappa nimmt Lösungen anschließend entgegen und leitet diese an einen Autobewerter der zugehörigen Programmiersprache weiter.
Diese Arbeit befasst sich damit, Sicherheitsrisiken bei der Ausführung von fremdem Programmcode durch Autobewerter zu identifizieren und zu vermeiden. Hierzu gilt es, mögliche Angriffe herauszustellen und aktuelle, angemessene Technologien zu finden, um diese zu verhindern. Anschließend findet mit einer Technologie die Entwicklung einer abgesicherten Ausführungsumgebung für beliebige an die Middleware Grappa angebundene Autobewerter statt. Die exemplarische Einbettung der beiden Autobewerter Graja und Praktomat in die entwickelte Ausführungsumgebung soll unter Beweis stellen, dass es sich um eine generische Lösung mit wenig Overhead handelt.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Leo A. Nefiodow, einer der angesehensten Vordenker der Informationsgesellschaft, verweist auf die großen Schäden und Verluste, die uns momentan durch psychische Störungen wie beispielsweise Angst, Depressionen, Burnout und ihre Folgen wie Gewalt, Kriminalität, Drogenmissbrauch und Erkrankungen entstehen. Die Förderung psychosozialer Gesundheit wäre somit geeignet, sowohl das Wohlbefinden des einzelnen Menschen zu verbessern als auch der Wirtschaft und der gesamten Gesellschaft einen Entwicklungsschub zu verleihen. Im Rahmen des Arbeitspapiers geht es darum, Möglichkeiten des Gegensteuerns aus dem Blickwinkel von Achtsamkeit vorzustellen. U. a. am praktischen Beispiel einer Schule wird versucht, das Wirkprinzip von Achtsamkeit zur Förderung psychosozialer Gesundheit in einer sozialen Einheit zu verdeutlichen.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö besteht aus 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden zwei Datenerhebungen geschildert. Mit einer ersten Datenerhebung wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.
Viele Unternehmen experimentieren mit Agilität. Gleichzeitig ist die Unsicherheit groß, wieviel Agilität ein QM-System nach ISO 9001 tatsächlich verträgt. Ein gemeinsames Forschungsprojekt der Hochschule Hannover und der DGQ hat sich zum Ziel gesetzt, hier mehr Sicherheit zu geben. Aus Interviews mit Vertretern von Unternehmen, welche teilweise agil arbeiten, entstand erstmals eine klare Definition von Agilität, agilen Praktiken und agilen Prozessen im Organisationskontext. Die daraus entwickelten Leitlinien für die Integration von agilen Vorgehensweisen in QM-Systeme beweisen schlüssig, dass agile Prozesse grundsätzlich nach den ISO 9001-Kriterien zertifizierungsfähig ausgestaltet werden können.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.