Refine
Year of publication
Document Type
- Conference Proceeding (69)
- Working Paper (66)
- Article (54)
- Bachelor Thesis (47)
- Report (34)
- Master's Thesis (24)
- Book (19)
- Study Thesis (10)
- Course Material (9)
- Preprint (7)
Is part of the Bibliography
- no (353)
Keywords
- Digitalisierung (16)
- E-Learning (16)
- Korruption (12)
- Agilität <Management> (11)
- Führung (11)
- Grader (11)
- Herbarium (11)
- Programmierung (11)
- Autobewerter (10)
- Computerunterstütztes Lernen (10)
Institute
- Fakultät IV - Wirtschaft und Informatik (353) (remove)
Daten einer umfangreichen Erhebung bei Absolventen/innen des Bachelor-Studiengangs Wirtschaftsinformatik der Hochschule Hannover eröffnen einen Einblick in das Berufsleben von Wirtschaftsinformatiker/n in den ersten Jahren nach Studienabschluss. Die Ergebnisse weisen auf eine hohe Berufszufriedenheit. Allerdings sind durchaus auch Einschränkungen der Zufriedenheit zu verzeichnen, die teilweise auf die typische Arbeitskultur in IT-Berufen zurückzuführen sind. Daneben wird das Arbeitsklima zwischen Männern und Frauen durchaus unterschiedlich wahrgenommen, auch der Wunsch nach einem ausgewogenen Verhältnis von Arbeits- und Privatleben (work/life balance) zeigt Unterschiede zwischen Männern und Frauen. Insgesamt lassen sich aus den Ergebnissen Hinweise ableiten, durch welche Maßnahmen das Studium und die Berufstätigkeiten in IT-Berufen attraktiver gestaltet werden und damit dem Fachkräftemangel entgegengewirkt werden kann.
With the increasing significance of information technology, there is an urgent need for adequate measures of information security. Systematic information security management is one of most important initiatives for IT management. At least since reports about privacy and security breaches, fraudulent accounting practices, and attacks on IT systems appeared in public, organizations have recognized their responsibilities to safeguard physical and information assets. Security standards can be used as guideline or framework to develop and maintain an adequate information security management system (ISMS). The standards ISO/IEC 27000, 27001 and 27002 are international standards that are receiving growing recognition and adoption. They are referred to as “common language of organizations around the world” for information security. With ISO/IEC 27001 companies can have their ISMS certified by a third-party organization and thus show their customers evidence of their security measures.
Systematizing IT Risks
(2019)
IT risks — risks associated with the operation or use of information technology — have taken on great importance in business, and IT risk management is accordingly important in the science and practice of information management. Therefore, it is necessary to systematize IT risks in order to plan, manage and control for different risk-specific measures. In order to choose and implement suitable measures for managing IT risks, effect-based and causebased procedures are necessary. These procedures are explained in detail for IT security risks because of their special importance.
Aim/Purpose: We explore impressions and experiences of Information Systems graduates during their first years of employment in the IT field. The results help to understand work satisfaction, career ambition, and motivation of junior employees. This way, the attractiveness of working in the field of IS can be increased and the shortage of junior employees reduced.
Background: Currently IT professions are characterized by terms such as “shortage of professionals” and “shortage of junior employees”. To attract more people to work in IT detailed knowledge about experiences of junior employees is necessary.
Methodology: Data from a large survey of 193 graduates of the degree program “Information Systems” at University of Applied Sciences and Arts Hannover (Germany) show characteristics of their professional life like work satisfaction, motivation, career ambition, satisfaction with opportunities, development and career advancement, satisfaction with work-life balance. It is also asked whether men and women gain the same experiences when entering the job market and have the same perceptions.
Findings: The participants were highly satisfied with their work, but limitations or restrictions due to gender are noteworthy.
Recommendations for Practitioners: The results provide information on how human resource policies can make IT professions more attractive and thus convince graduates to seek jobs in the field. For instance, improving the balance between work and various areas of private life seems promising. Also, restrictions with respect to the work climate and improving communication along several dimensions need to be considered.
Future Research: More detailed research on ambition and achievement is necessary to understand gender differences.
The objective of this student project was for the students to develop, conduct, and supervise a training course for basic work place applications (word processing and business graphics). Students were responsible for the planning, organizing and the teaching of the course. As participants, underprivileged adolescents took part in order to learn the handling of IT applications and therefore, improve their job skills and have a better chance to get into employment. Therefore the adolescents do the role of trainees at the course. Our students worked with a population that is continually overlooked by the field.
As a result, the students trained to design and implement training courses, exercised to manage projects and increased their social responsibility and awareness concerning the way of life and living conditions of other young people. The underprivileged adolescents learned to use important business applications and increased their job skills and job chances. The overall design of our concept required extensive resources to supervise and to steer the students and the adolescents. The lecturers had to teach and to counsel the students and had to be on “stand-by” just in case they were needed to solve critical situations between the two groups of young people.
BYOD Bring Your Own Device
(2013)
Using modern devices like smartphones and tablets offers a wide variety of advantages; this has made them very popular as consumer devices in private life. Using them in the workplace is also popular. However, who wants to carry around and handle two devices; one for personal use, and one for work-related tasks? That is why “dual use”, using one single device for private and business applications, may represent a proper solution. The result is “Bring Your Own Device,” or BYOD, which describes the circumstance in which users make their own personal devices available for company use. For companies, this brings some opportunities and risks. We describe and discuss organizational issues, technical approaches, and solutions.
Zu einer Vielzahl von Vorlesungen gibt es Übungsaufgaben, anhand derer das theoretisch erlernte Wissen noch weiter vertieft, gefestigt oder praktisch angewandt werden kann. Klassischerweise erhalten alle Studierende hierfür dieselbe Aufgabe. Allerdings gibt es gute Gründe, für alle eine jeweils individualisierte Variante zu erstellen. Da es für eine einzelne Lehrperson unmöglich ist, für alle Studierenden individuelle Aufgaben zu konzipieren, wurden in anderen Arbeiten bereits Möglichkeiten entwickelt, variable Aufgaben zu formulieren, aus denen viele unterschiedliche Varianten generiert werden können. Diese Bachelorarbeit befasst sich mit dem Entwurf und der Implementierung eines Services, der diese Generierung automatisiert durchführen kann. Er soll unabhängig von einem konkreten Frontend sein und mit beliebigen Gradern zusammenarbeiten können.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
Ein sehr großer Anteil der in Rechensystemen auftretenden Fehler ereignet sich im Speicher. In dieser Arbeit wird ein zerlegungsorientiertes Modell entwickelt, das die Wechselwirkungen zwischen Speicherfehlern und Systemleistung untersucht. Zunächst wird das Speicherverhalten eines Auftrags durch ein mehrphasiges Independent-Reference-Modell charakterisiert. Dies dient als Grundlage eines Modells zum Auftreten von Störungen, in das Lastcharakteristika wie die Auftrags-Verweildauer, die Seitenzugriffs-Rate und die Paging-Rate eingehen. Anschließend kann die Wahrscheinlichkeit, mit der ein Speicherfehler entdeckt wird, berechnet werden. Die zur Behandlung von Speicherfehlern erforderlichen Maßnahmen bestimmen die mittlere durch Fehler induzierte Last. Die Wechselwirkungen zwischen Fehler- und Leistungsverhalten werden durch ein System nichtlinearer Gleichung beschrieben, für dessen Lösung ein iteratives Verfahren abgeleitet wird. Abschließend wird mit ausführlichen Beispielen das Modell erläutert und der Einfluß einiger Modell-Parameter auf Leistungs- und Zuverlässigkeitskenngrößen untersucht.
Das Kapitel (aus dem Buch "Mikrorechner-Systeme : Mikroprozessoren, Speicher, Peripherie", siehe Quelle) behandelt verschiedene Konzepte der Speicherverwaltung und stellt Bausteine vor, die diese Verwaltung hardwaremäßig durchführen. Außerdem werden verschiedene Maßnahmen zur Hardware-Unterstützung von Mikroprozessor-Betriebssystemen beschrieben.
Nowadays, problems related with solid waste management become a challenge for most countries due to the rising generation of waste, related environmental issues, and associated costs of produced wastes. Effective waste management systems at different geographic levels require accurate forecasting of future waste generation. In this work, we investigate how open-access data, such as provided from the Organisation for Economic Co-operation and Development (OECD), can be used for the analysis of waste data. The main idea of this study is finding the links between socioeconomic and demographic variables that determine the amounts of types of solid wastes produced by countries. This would make it possible to accurately predict at the country level the waste production and determine the requirements for the development of effective waste management strategies. In particular, we use several machine learning data regression (Support Vector, Gradient Boosting, and Random Forest) and clustering models (k-means) to respectively predict waste production for OECD countries along years and also to perform clustering among these countries according to similar characteristics. The main contributions of our work are: (1) waste analysis at the OECD country-level to compare and cluster countries according to similar waste features predicted; (2) the detection of most relevant features for prediction models; and (3) the comparison between several regression models with respect to accuracy in predictions. Coefficient of determination (R2), Mean Absolute Error (MAE), Root Mean Square Error (RMSE), and Mean Absolute Percentage Error (MAPE), respectively, are used as indices of the efficiency of the developed models. Our experiments have shown that some data pre-processings on the OECD data are an essential stage required in the analysis; that Random Forest Regressor (RFR) produced the best prediction results over the dataset; and that these results are highly influenced by the quality of available socio-economic data. In particular, the RFR model exhibited the highest accuracy in predictions for most waste types. For example, for “municipal” waste, it produced, respectively, R2 = 1 and MAPE = 4.31 global error values for the test set; and for “household” waste, it, respectively, produced R2 = 1 and MAPE = 3.03. Our results indicate that the considered models (and specially RFR) all are effective in predicting the amount of produced wastes derived from input data for the considered countries.
Decision support systems for traffic management systems have to cope with a high volume of events continuously generated by sensors. Conventional software architectures do not explicitly target the efficient processing of continuous event streams. Recently, event-driven architectures (EDA) have been proposed as a new paradigm for event-based applications. In this paper we propose a reference architecture for event-driven traffic management systems, which enables the analysis and processing of complex event streams in real-time and is therefore well-suited for decision support in sensor-based traffic control sys- tems. We will illustrate our approach in the domain of road traffic management. In particular, we will report on the redesign of an intelligent transportation management system (ITMS) prototype for the high-capacity road network in Bilbao, Spain.
Nowadays, most recommender systems are based on a centralized architecture, which can cause crucial issues in terms of trust, privacy, dependability, and costs. In this paper, we propose a decentralized and distributed MANET-based (Mobile Ad-hoc NETwork) recommender system for open facilities. The system is based on mobile devices that collect sensor data about users locations to derive implicit ratings that are used for collaborative filtering recommendations. The mechanisms of deriving ratings and propagating them in a MANET network are discussed in detail. Finally, extensive experiments demonstrate the suitability of the approach in terms of different performance metrics.
Nowadays, smartphones and sensor devices can provide a variety of information about a user’s current situation. So far, many recommender systems neglect this kind of information and thus cannot provide situationspecific recommendations. Situation-aware recommender systems adapt to changes in the user’s environment and therefore are able to offer recommendations that are more appropriate for the current situation. In this paper, we present a software architecture that enables situation awareness for arbitrary recommendation techniques. The proposed system considers both (semi-)static user profiles and volatile situational knowledge to obtain meaningful recommendations. Furthermore, the implementation of the architecture in a museum of natural history is presented, which uses Complex Event Processing to achieve situation awareness.
In parcel delivery, the “last mile” from the parcel hub to the customer is costly, especially for time-sensitive delivery tasks that have to be completed within hours after arrival. Recently, crowdshipping has attracted increased attention as a new alternative to traditional delivery modes. In crowdshipping, private citizens (“the crowd”) perform short detours in their daily lives to contribute to parcel delivery in exchange for small incentives. However, achieving desirable crowd behavior is challenging as the crowd is highly dynamic and consists of autonomous, self-interested individuals. Leveraging crowdshipping for time-sensitive deliveries remains an open challenge. In this paper, we present an agent-based approach to on-time parcel delivery with crowds. Our system performs data stream processing on the couriers’ smartphone sensor data to predict delivery delays. Whenever a delay is predicted, the system attempts to forge an agreement for transferring the parcel from the current deliverer to a more promising courier nearby. Our experiments show that through accurate delay predictions and purposeful task transfers many delays can be prevented that would occur without our approach.
Im Rahmen der vorliegenden Bachelorarbeit ging es um die Forschungsfrage, ob eine landmarkenbasierte Registrierung hinreichende Ergebnisse für die Anpassung eines Formmodells an eine segmentierte Cochlea liefert. Dazu wurden zwölf Landmarken auf die Oberfläche einer segmentierten Cochlea sowie auf die eines ausgewählten Formmodells gesetzt. Im Anschluss wurden die Abstände zwischen korrespondieren Landmarken des Formmodells und der segmentierten Cochlea mithilfe von drei verschiedenen Optimierungsverfahren minimiert. Bei dem quantitativen Vergleich zwischen den Ergebnissen der vorgestellten Optimierungsverfahren konnten keine signifikanten Unterschiede festgestellt werden. In der Evaluation wurde demonstriert, dass das Formmodell an der segmentierten Cochlea insgesamt hinreichend angenähert werden konnte. Lediglich in der Basalregion und am Apex der Cochlea ist die Anpassung noch verbesserungsbedürftig.
Der zunehmende Anteil erneuerbarer Energien an der Stromproduktion Deutschlands erfordert einen ebenso steigenden Anteil der erneuerbaren Energien an der Bereitstellung von Regelenergie zur Stabilisierung der Stromnetze. Durch die Möglichkeit der zeitlichen Entkopplung von Gas- und Stromproduktion ist insbesondere die Biogastechnologie für die Bereitstellung von Regelenergie geeignet. Der vorliegende Beitrag skizziert ein Steuerungssystem für virtuelle Biogas-Verbundkraftwerke, dessen Oberziel die Stabilisierung des Stromnetzes ist. Die Entwicklung des Systems erfolgt im Zuge des Forschungsprojekts VKV Netz und wird durch das Bundesministerium für Wirtschaft und Energie gefördert.
Automatisierte Steuerung von virtuellen Biogas-Kraftwerksverbünden für den netzorientierten Betrieb
(2019)
Das Steuerungssystem VKV Netz ermöglicht den auf die Erbringung regionaler Systemdienstleistungen ausgerichteten Betrieb virtueller Biogas-Kraftwerksverbünde. Damit leistet es sowohl einen Beitrag zum zukünftig gesteigerten Bedarf an Regelenergie durch regenerative Kraftwerke als es auch alternative, zukunftsfähige Erlöspotenziale für die zumeist landwirtschaftlichen bzw. landwirtschaftsnahen Biogas-Anlagenbetreiber abseits des EEG aufzeigt. Das Steuerungssystem wurde im Rahmen des BMWi-Verbundforschungsvorhabens VKV Netz (Förderkennzeichen 0325943A) durch die Hochschule Hannover, die SLT-Technologies GmbH & Co. KG sowie die Überlandwerk Leinetal GmbH in Kooperation mit assoziierten Biogasanlagen im Zeitraum 01.01.2016 bis 31.12.2018 entwickelt und pilotiert.
Die Bachelorarbeit befasst sich mit dem Generieren kurzer fröhlicher und harmonischer Musikstücke mittels des Einsatzes genetischer Algorithmen. Dabei werden die Evolutionsprozesse der Biologie nachgeahmt. In der Programmiersprache Java, unter der Verwendung der Open-Source-Programmierbibliothek JFugue, sind dafür die einzelnen Zyklusphasen entworfen und implementiert worden.
Die Vereinigung der Biologie, der Kunst und der Informatik wird damit erreicht, um etwas ästhetisch Wirksames zu schaffen und stellt den besonderen Reiz der Arbeit dar.
Unter Crowdsensing versteht man Anwendungen, in denen Sensordaten kollaborativ von einer Menge von Freiwilligen erhoben werden. So kann Crowdsensing eingesetzt werden um die Luftqualität an Orten zu messen, an denen keine fest installierten Sensoren verfügbar sind. In Crowdsensing-Systemen müssen die Teilnehmer koordiniert und die Messdaten verarbeitet werden, um relevante Daten zu erhalten. Im Rahmen der Abschlussarbeit wurde ein System konzipiert und prototypisch umgesetzt, das auf einem Raspberry Pi (unter Einsatz geeigneter Sensoren) Sensordaten erhebt und mit der Complex Event Processing Technologie verarbeitet.
In einem Artikel der Zeitschrift Die Zeit wird die Generation Y, die Generation deren Angehörige derzeit zum Großteil ihre akademische Ausbildung beenden und sich dem Arbeitsmarkt zuwenden, auch als Generation Pippi, angelehnt an Astrid Lindgrens Kinderbuchheldin Pippi Langstrumpf, bezeichnet (Bund et al., 2013: 1). Individualität, eine ausgeprägte Abneigung gegenüber Autoritätspersonen, der Wunsch nach Spaß und Abwechslung sowie das Bestreben, sich selbst zu verwirklichen, charakterisieren Pippi Langstrumpf (Bund et al., 2013: 1). Diese Charakterbeschreibungen werden z. T. auf die Generation Y übertragen und stellen Unternehmen vor eine Herausforderung: Um Arbeitnehmer der Generation Y affektiv zu binden, so dass sich in diese getätigte und noch zu tätigenden Investitionen rentieren, müssen neue Strategien entwickelt werden. Innerhalb dieser Bachelorarbeit konnten erste Erkenntnisse dahingehend gewonnen werden, dass u. a. Work-Life-Balance Maßnahmen, (gesundheitsorientierte) Führung, ein positives Arbeitsklima und Mitbestimmung als Auslöser affektiven organisationalen Commitments der Generation Y fungieren können. Bei der nachfolgend dargestellten Arbeit handelt es sich um eine überarbeitete Version der gleichnamigen Bachelorarbeit, die von Prof. Dr. Sven Litzcke sowie von Prof. Dr. Dr. Daniel Wichelhaus betreut wurde.
Ein großer Teil der deutschen Bevölkerung nutzt täglich den öffentlichen Nahverkehr, um von A nach B zu kommen. Gerade in Städten existiert meist bereits ein großes Netz an Haltestellen und umfangreichen Fahrplänen. Da sich die Wenigsten diese auf Dauer in ihrer Gesamtheit merken können, wird heutzutage oft auf mobile Apps zurückgegriffen, die schnell und zuverlässig personalisierte Verbindungen anzeigen können. Diese „Fahrplan-Apps“ können unter anderem auch von sogenannten „digitalen Sprachassistenten“ gesteuert und verwendet werden. Einige der deutschen Bus- und Bahnhaltestellennamen sind dabei für Sprachassistenten schwierig zu verarbeiten, weil sie etwa Personennamen enthalten, die nicht geläufig in der deutschen Sprache sind (z.B. „Podbielskistraße“ oder „Poccistraße“), oder aus ihrer Schreibweise keine eindeutige Aussprache abgeleitet werden kann (z.B. „Aegidientorplatz“). Dies kann zu Problemen führen, wenn beispielsweise die Aussprache einer Haltestelle von dem Sprachassistenten nicht erkannt oder falsch erkannt wird und dieser deshalb keine zufriedenstellende Fahrplanauskunft geben kann.
Hierzu sollte eine Lösung entwickelt werden, die Nutzer*innen dazu motiviert, bei der Verbesserung der Aussprache von Haltestellennamen durch Sprachassistenten mitzuhelfen. Der erste Schritt ist hierbei, dass die Nutzer*innen verifizieren, ob die Aussprache einer Haltestelle richtig oder falsch ist. Wird sie als falsch bewertet, folgt zusätzlich der zweite Schritt: Die Nutzer*innen können zusätzlich die richtige Aussprache übermitteln.
In der Bachelorarbeit sollte also eine Incentivierungsmethode für diese beiden Schritte entwickelt werden. Die Softwarelösung sollte eine zusätzliche Funktion in der von der Projektionisten GmbH entwickelten Fahrplan-App "naNah" darstellen. Außerdem sollte der Fokus der Arbeit auf der Konzeption des Softwaremoduls liegen, da die Benutzerfreundlichkeit und das Interaktionsdesign einen erheblichen Einfluss auf die Wirksamkeit der Incentivierungsmethode hat.
Dazu wurden zunächst Interviews mit potenziellen Nutzer*innen sowie eine Umfrage durchgeführt. Die jeweiligen Ergebnisse wurden als Grundlage für die nächsten Konzeptionsschritte verwendet. Es wurden hieraus vorläufige Bedürfnisse und Anforderungen formuliert und Zielgruppen abgeleitet. Hieraus wurden wiederum Personas erstellt. Anschließend wurden passende User Journeys und User Stories entwickelt.
Im nächsten Schritt wurde eine Wettbewerbsanalyse durchgeführt, in der die Vor- und Nachteile anderer ähnlicher Software herausgearbeitet und für die weitere Entwicklung der eigenen Software bedacht wurden.
Nach der Ausarbeitung von Design- sowie technischen Anforderungen wurde ein Prototyp erstellt. Dazu wurde die bis hierhin herausgearbeitete Lösungsidee mithilfe von Skizzen veranschaulicht. Um die Idee detaillierter sowie wahrheitsgetreu darstellen zu können, wurde außerdem ein klickbares Mock-up erstellt, das den inhaltlichen Aufbau der Software hervorhebt. Anschließend wurde dessen Eignung mit einem Usability-Test überprüft und es wurden aus diesem folgende Verbesserungen an dem Clickdummy ausgeführt, sodass am Ende ein ausgereifter Prototyp vorlag. Dieser wurde schließlich in seinen Grundzügen technisch implementiert.
Das Ergebnis der Bachelorarbeit ist eine konzeptionell vollständig ausgearbeitete Softwarelösung sowie ein Proof of Concept.
„Grappa“ ist eine Middleware, die auf die Anbindung verschiedener Autobewerter an verschiedene E-Learning-Frontends respektive Lernmanagementsysteme (LMS) spezialisiert ist. Ein Prototyp befindet sich seit mehreren Semestern an der Hochschule Hannover mit dem LMS „moodle“ und dem Backend „aSQLg“ im Einsatz und wird regelmäßig evaluiert. Dieser Beitrag stellt den aktuellen Entwicklungsstand von Grappa nach diversen Neu- und Weiterentwicklungen vor. Nach einem Bericht über zuletzt gesammelte Erfahrungen mit der genannten Kombination von Systemen stellen wir wesentliche Neuerungen der moodle-Plugins, welche der Steuerung von Grappa aus moodle heraus dienen, vor. Anschließend stellen wir eine Erweiterung der bisherigen Architektur in Form eines neuentwickelten Grappa-php-Clients zur effizienteren Anbindung von LMS vor. Weiterhin berichten wir über die Anbindung eines weiteren Autobewerters „Graja“ für Programmieraufgaben in Java. Der Bericht zeigt, dass bereits wichtige Schritte für eine einheitliche Darstellung automatisierter Programmbewertung in LMS mit unterschiedlichen Autobewertern für die Studierenden absolviert sind. Die praktischen Erfahrungen zeigen aber auch, dass sowohl bei jeder der Systemkomponenten individuell, wie auch in deren Zusammenspiel via Grappa noch weitere Entwicklungsarbeiten erforderlich sind, um die Akzeptanz und Nutzung bei Studierenden sowie Lehrenden weiter zu steigern.
Wir führen schrittweise in den Einsatz einer Java-Bibliothek ein, um Variationspunkte und deren Wertemengen in automatisiert bewerteten Programmieraufgaben zu spezifizieren und als XML-Datei zu exportieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält.
Wir beschreiben eine Möglichkeit, Variationspunkte und deren Varianten in automatisiert bewerteten Programmieraufgaben zu spezifizieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält. Die Varianten werden automatisch gebildet, indem an definierten Variationspunkten immer wieder andere, konkrete Werte eingesetzt werden. Schon bei sehr einfachen Aufgaben bestehen Abhängigkeiten zwischen den einzelnen Variationspunkten, die bei der Wahl der konkreten Werte zu berücksichtigen sind. Zudem kann die Menge der gültigen Werte auch bei einfachen Aufgaben so groß werden, dass die vollständige Auflistung aller Wertkombinationen an Ressourcengrenzen scheitert. Die vorgestellte Spezifikation verwendet eine kompakte und für Aufgabenautoren verständliche Sprache, die eine automatische Auswahl von korrekten, den Abhängigkeiten gehorchenden Wertekombinationen ermöglicht. Die Sprache ist unabhängig von den Erfordernissen eines bestimmten Autobewerters und versetzt Frontend- und Backendsysteme in verschiedenen technischen Ökosystemen in die Lage, ausgewählte Werte einer sehr großen Wertemenge zu generieren, deren Abhängigkeiten zu prüfen, sowie ggf. bestimmte Wertbelegungen in einem benutzerfreundlichen Dialog auszuwählen. Wir unterstützen Variationspunkte mit endlichen Mengen vorzugebender diskreter Werte sowie kontinuierliche Wertebereiche, die durch eine vorzugebende Anzahl von Samples diskretisiert werden. Wir beschäftigen uns insbesondere mit der Frage, wie lange Auflistungen gültiger Wertkombinationen durch die Angabe von Ableitungsvorschriften ersetzt werden können. Ein besonderes Augenmerk legen wir auf eine redundanzfreie Beschreibung der Variantenmenge. Die Notation setzt auf XML und Javascript in der Annahme, dass diese Technologien in allen beteiligten Systemen zur Verfügung stehen können.
Ein Autobewerter für von Studierenden eingereichte Programme führt die im ProFormA-Aufgabenformat sequentiell spezifizierten "Tests" aus, um die Einreichung zu prüfen. Bzgl. der Interpretation und Darstellung der Testausführungsergebnisse gibt es derzeit keinen graderübergreifenden Standard. Wir beschreiben eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten, die nach didaktischen Aspekten gruppiert ist und Referenzen auf die Testausführungen besitzt. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detailaufschlüsselung der Bewertungsaspekte müssen in der Konsequenz Testausführungen in Teilausführungen aufgebrochen werden. Wir illustrieren unseren Vorschlag unter Einsatz der Testwerkzeuge Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Die automatisierte Bewertung studentischer Übungsabgaben in Programmieren-Lehrveranstaltungen weist Parallelen zum automatisierten Test in der professionellen Softwareentwicklung auf. Allerdings muss ein Autobewerter (Grader), um lernförderlich zu sein, andere Zielsetzungen erfüllen als üblicherweise im professionellen Softwaretest eingesetzte Analyse- und Testwerkzeuge. Dieser Beitrag identifiziert wesentliche Unterschiede und beschreibt, wie sich diese Unterschiede in dem an der Hochschule Hannover entwickelten und seit mehreren Jahren im Einsatz befindlichen Autobewerter "Graja" niederschlagen.
In diesem Bericht wird der Autobewerter Graja für Java-Programme vorgestellt. Wir geben einen Überblick über die unterstützten Bewertungsmethoden sowie die beteiligten Nutzerrollen. Wir gehen auf technische Einzelheiten und Randbedingungen der in Graja eingesetzten Bewertungsmethoden ein und zeigen die Einbindung von Graja in eine technische Gesamtarchitektur. An einem durchgehenden Beispiel stellen wir die Struktur einer Programmieraufgabe sowie die von Graja unterstützten Feedback-Möglichkeiten dar. Informationen zum bisherigen Einsatz des Graders runden den Bericht ab.
Ein Schnittstellen-Datenmodell der Variabilität in automatisch bewerteten Programmieraufgaben
(2018)
Automatisch bewertete, variable Programmieraufgaben stellen besondere Schnittstellenanforderungen an Autobewerter (Grader) und Lernmanagementsysteme (LMS). Um Wiederverwendung von Aufgaben über Systemgrenzen hinweg zu begünstigen, schlagen wir vor, Aufgabenschablonen durch eine von allen beteiligten Systemen genutzte Middleware zu instanziieren und dabei Variabilitätsinformationen in einem Schnittstellen-Datenmodell zu transportieren. Wir stellen ein solches Datenmodell vor, welches für die Grader-unabhängige Kommunikation mit LMS ausgelegt ist und beispielhaft im Autobewerter Graja implementiert wurde. Zudem wird eine Dialogkomponente für die manuelle Werteauswahl vorgestellt, die auch bei großen Wertemengen effizient und Grader-unabhängig einsetzbar ist. Die Eignung des Dialogs und des Datenmodells wird anhand eines typischen Bewertungsszenarios diskutiert.
Automatisiert bewertbare Programmieraufgaben dienen Studierenden zum Einüben von Programmierfertigkeiten. Die Verfügbarkeit von mehreren verschiedenen Aufgaben, die denselben Stoff abdecken, ist für verschiedene Zwecke hilfreich. Eine Programmieraufgabe lässt sich durch Einführung von Variationspunkten variabel gestalten. Die hierbei entstehende Aufgabenschablone ist Ausgangsbasis der sogenannten Materialisierung, der automatischen Generierung konkreter Aufgaben. Der vorliegende Beitrag stellt ein Datenmodell mit dem Ziel vor, sowohl die Auswahl von Variationspunktwerten als auch die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen zu unterstützen. Das vorgeschlagene Datenformat ermöglicht Lernmanagementsystemen die Unterstützung variabler Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters.
Automatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden. Letzteres sucht einen Ausgleich im Spannungsfeld zwischen einem für Studierende einfach verständlichen Bewertungsergebnis und den Eigenarten der eigentlich nicht für Bewertungszwecke erfundenen, nichtsdestotrotz regelmäßig und sinnvollerweise für Bewertungszwecke eingesetzten Softwarewerkzeuge.
Automatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Automatische Bewertungssysteme für Programmieraufgaben (Grader) sind komplexe Softwaresysteme. Automatisch ausführbare Regressionstests können kostengünstig potenzielle Fehler im Grader aufdecken. Im vorliegenden Beitrag soll beschrieben werden, wie Musterlösungen als Eingabedaten für automatische Regressionstests fungieren können. Es geht also um die Vorstellung einer Lösung eines Software Engineering Problems für E-Learning-Systeme. Wir betrachten, welche Eigenschaften des ProFormA-Aufgabenformats für automatische Regressionstests genutzt werden können und schlagen Erweiterungen des Formats vor. Der Beitrag beschreibt die beispielhafte Implementierung eines automatischen Black Box Systemtests für den Autobewerter Graja und geht dabei u. a. auf die Gestaltung eines Record-Playback-Vorgehens, auf einen unscharfen Soll-Ist-Vergleich sowie auf die Frage der Lokalisierbarkeit von entdeckten Regressionen ein.
Wir beschreiben und belegen anhand eines Pilotprojekts in einer zweiten Grundschulklasse, dass Informatik in der Grundschule das Potential hat, fächerübergreifend Kompetenzen in fast allen Fächern des Grundschulkanons zu fördern. Wir erläutern mehrere Unterrichtseinheiten eines ScratchJr-Einsatzes und dokumentieren positive Wirkungen auf vielfältige Kompetenzen, die Kinder im Grundschulalter erwerben sollen. Der Beitrag stellt einen Erfahrungsbericht und qualitative Ergebnisse zur Verfügung. Eingesetzte Arbeitsmaterialien werden online zur Verfügung gestellt. Die bisherigen positiven Erfahrungen haben uns veranlasst, die Arbeit mit ScratchJr in der Pilotklasse auf mehrere Monate auszudehnen.
Die Angriffserkennung ist ein wesentlicher Bestandteil, Cyberangriffe zu verhindern und abzumildern. Dazu werden Daten aus verschiedenen Quellen gesammelt und auf Einbruchsspuren durchsucht. Die heutzutage produzierten Datenmengen sind ein wesentliches Problem für die Angriffserkennung. Besonders bei komplexen Cyberangriffen, die über einen längeren Zeitraum stattfinden, wächst die zu durchsuchende Datenmenge stark an und erschwert das Finden und Kombinieren der einzelnen Angriffsschritte.
Eine mögliche Lösung, um dem Problem entgegenzuwirken, ist die Reduktion der Datenmenge. Die Datenreduktion versucht, Daten herauszufiltern, die aus Sicht der Angriffserkennung irrelevant sind. Diese Ansätze werden unter dem Begriff Reduktionstechniken zusammengefasst. In dieser Arbeit werden Reduktionstechniken aus der Wissenschaft untersucht und auf Benchmark Datensätzen angewendet, um ihre Nutzbarkeit zu evaluieren. Dabei wird der Frage nachgegangen, ob die Reduktionstechniken in der Lage sind, irrelevante Daten ausfindig zu machen und zu reduzieren, ohne dass eine Beeinträchtigung der Angriffserkennung stattfindet. Die Evaluation der Angriffserkennung erfolgt durch ThreaTrace, welches eine Graph Neural Network basierte Methode ist.
Die Evaluierung zeigt, dass mehrere Reduktionstechniken die Datenmenge wesentlich reduzieren können, ohne die Angriffserkennung zu beeinträchtigen. Bei drei Techniken führt der Einsatz zu keinen nennenswerten Veränderungen der Erkennungsraten. Dabei wurden Reduktionsraten von bis zu 30 % erreicht. Bei der Anwendung einer Reduktionstechnik stieg die Erkennungsleistung sogar um 8 %. Lediglich bei zwei Techniken führt der Einsatz zum drastischen Absinken der Erkennungsrate.
Insgesamt zeigt die Arbeit, dass eine Datenreduktion angewandt werden kann, ohne die Angriffserkennung zu beeinträchtigen. In besonderen Fällen kann eine Datenreduktion, die Erkennungsleistung sogar verbessern. Allerdings ist der erfolgreiche Einsatz der Reduktionstechniken abhängig vom verwendeten Datensatz und der verwendeten Methode der Angriffserkennung.
Die Covid-19 Pandemie hat zu einem signifikanten Anstieg der Remote Work geführt. Die Veränderung in der Interaktion und Kollaboration ist für viele agile Teams eine Herausforderung gewesen. Diverse Studien zeigen unterschiedliche Effekte und Auswirkungen auf die Zusammenarbeit agiler Teams während der Pandemie. So ist die Kommunikation sachlicher und zielgerichteter geworden. Ebenso wird eine Verminderung des sozialen Austauschs in den Teams berichtet. Unser Artikel thematisiert die Veränderung der Interaktion in agilen Teams durch die Remote Work. Wir haben eine qualitative Fallstudie bei einem agilen Software-Entwicklungsteam bei Otto durchgeführt. Unsere Ergebnisse zeigen einen Zusammenhang zwischen den Auswirkungen auf die Interaktion und der persönlichen Autonomie der Team-Mitglieder. Darüber hinaus haben wir keine signifikanten negativen Effekte durch die veränderte Interaktion auf die agile Arbeitsweise festgestellt.
Die Erwartungen der Generation Y zu kennen, ist wichtig für Unternehmen, die Leistungsträger aus dieser Generation langfristig binden wollen. Die affektive Bindung der Generation Y gegenüber einer Organisation, der Zusammenhang zwischen der Erfüllung arbeitsbezogener Erwartungen und affektivem Commitment sowie der Fluktuationsneigung der Generation Y werden empirisch überprüft. Die Generation Y hat hohe Erwartungen an Unternehmenswerte und Unternehmenskultur. Es wurden Zusammenhänge zwischen der Erfüllung von Erwartungen und der affektiven Bindung gegenüber einer Organisation gefunden. Es wird empfohlen Personalmanagementmaßnahmen zu implementieren, die passgenau auf die Erfüllung der Erwartungen der Generation Y ausgerichtet sind.
Vertreter der Generation Y, Personen, die in den 1980er Jahren geboren wurden, drängen verstärkt in den Arbeitsmarkt. Ihre Wert- und Erwartungshaltung ist deshalb von großem Interesse für Unternehmen, die mit Themen wie dem Fachkräftemangel und demografischen Wandel konfrontiert sind und die Leistungsträger langfristig binden müssen. Ziel dieser Hausarbeit ist herauszufinden, wie ausgeprägt die emotionale Bindung der Generation Y in Unternehmen allgemein ist und unter welcher Voraussetzung affektives Commitment bei der Generation Y entsteht. Ein weiteres Ziel ist die Erarbeitung von Handlungsempfehlungen bezüglich des Personalmanagements von Generation Y in Unternehmen. Generation Y hat hohe Erwartungen an Arbeitsinhalt, Selbstverwirklichungsmöglichkeiten, Aus- und Weiterbildungsmaßnahmen, Unternehmenswerte und -ethik, Sinnhaftigkeit der Tätigkeit und Teamarbeit. Vertreter dieser Generation wünschen sich Wertschätzung, eine gute Beziehung zum Vorgesetzten, viele Partizipationsmöglichkeiten, regelmäßiges Feedback und Flexibilität. Weiterhin sind Work-Life-Balance, Karriereoptionen, Einkommen, digitale Vernetzung und Arbeitsplatzsicherheit wichtige Themen für diese Generation. Affektives Commitment entsteht durch Erfüllung von Erwartungen. Generation Y ist nur bedingt affektiv gebunden, tendiert zu häufigen Unternehmenswechseln und ist durch eine schwache Loyalität gekennzeichnet. Dies liegt hauptsächlich daran, dass die Erwartungen dieser Generation nicht erfüllt werden. Es wird empfohlen HR-Maßnahmen zu implementieren, die auf Erfüllung der Erwartungen von Generation Y abzielen.
Die öffentlichen Verkehrsmittel sind ein wichtiger Bestandteil der heutigen Infrastrukturen. Allein im Jahr 2019 verzeichnete die Bundesrepublik Deutschland ein Fahrgastaufkommen von 9,7 Milliarden Personen im öffentlichen Personennahverkehr (ÖPNV). Die starke Nutzung des ÖPNV wird im heutigen Alltag durch die Nutzung mobiler Applikationen (Apps) für die Verbindungssuche unterstützt. Um den Fahrgästen einen größtmöglichen Komfort bei der Gestaltung ihrer Routenplanung zu bieten, entwickeln vor allem große Tarif- und Verkehrsverbünde wie der Großraum-Verkehr Hannover (GVH) ihre eigenen Apps. Dadurch haben die Fahrgäste jederzeit die Möglichkeit, sich bereits vor ihrer Reise Verbindungsübersichten anzeigen zu lassen. Mit der immer weiter fortschreitenden Technologie bieten sich jedoch neue und unerforschte Gebiete in der Entwicklung von ÖPNV-Apps. Durch eine nutzerzentrierte Konzeption können diese Technologien gezielt eingesetzt und ein Marktvorteil gegenüber Konkurrenten verschaffen werden.
Während sich das Zahlungsverfahren Mobile Payment seit einigen Jahren international mehr und mehr etabliert, fristet es entgegen jährlich wiederkehrender Erfolgsprognosen in Deutschland immer noch ein Nischendasein. Die vorliegende Untersuchung entstand im Rahmen einer Bachelorarbeit des Studiengangs der Betriebswirtschaftslehre an der Hochschule Hannover und beschäftigt sich mit den Potentialen und Barrieren der Nutzung des Mobile Payment aus Kundensicht, mit dem Ziel, die wesentlichen Faktoren der geringen Nutzung in Deutschland zu identifizieren. Hierzu wurden Studierende sowohl mittels eines Fragebogens (N = 128) zu ihren persönlichen Nutzungs-Voraussetzungen sowie –Erfahrungen befragt, als auch um die Bewertung verschiedener Faktoren als Potential oder Barriere für eine mögliche Nutzung gebeten. Bei der Auswertung der Ergebnisse konnten Zusammenhänge zwischen den untersuchten Einflussgrößen und der Nutzung des Mobile Payment festgestellt werden. Insbesondere der fehlende Schutz, drohender Missbrauch und eine fehlende Standardanwendung erwiesen sich als wichtige Faktoren für die Entscheidung, Mobile Payment zu nutzen.
Der deutsche Strommarkt befindet sich im Wandel von einer zentralen Stromerzeugung hin zu einer dezentralen. Eine wesentliche Rolle spielen in diesen Zusammenhang erneuerbare Energien, welche durch die Energiewende bis 2050 einen Anteil von mindestens 80 % des in Deutschland erzeugten Stroms ausmachen sollen. Diese haben jedoch den großen Nachteil, dass sie wetterbedingt eine hohe Volatilität aufweisen und eine geringe Planbarkeit der Stromerzeugung mit sich bringen. Um die Stabilität des Stromnetzes zu gewährleisten, müssen sich die erzeugte Strommenge und deren Verbrauch stets im Gleichgewicht befinden. Eine Möglichkeit, mit der Flexibilität der Erzeugung umzugehen, bietet das Konzept der virtuellen Kraftwerke. Diese sind ein Zusammenschluss vieler dezentraler Erzeugungsanlagen, welche von einer zentralen
technischen Steuerung koordiniert und gesteuert werden. Die vorliegende Arbeit soll einen Überblick über die aktuelle Situation auf dem Markt für virtuelle Kraftwerke geben. Mittels einer Expertenbefragung wurden diesbezüglich vier Hypothesen überprüft. Die Auswertung ergab, dass der Markt langfristig wächst und sich virtuelle Kraftwerke noch in der Erprobungsphase befinden. Entgegen gängigen Definitionen sind in virtuelle Kraftwerke häufig keine Speicher und Verbraucher integriert. Obwohl die Energieerzeugung ausschließlich mit erneuerbaren Energien möglich wäre, wird dies häufig nicht umgesetzt. Ein wichtiger Grund lag in dem vermehrten Einsatz von KWKAnlagen, welche überwiegend mit fossilen Brennstoffen betrieben werden.
The transfer of historically grown monolithic software architectures into modern service-oriented architectures creates a lot of loose coupling points. This can lead to an unforeseen system behavior and can significantly impede those continuous modernization processes, since it is not clear where bottlenecks in a system arise. It is therefore necessary to monitor such modernization processes with an adaptive monitoring concept to be able to correctly record and interpret unpredictable system dynamics. This contribution presents a generic QoS measurement framework for service-based systems. The framework consists of an XML-based specification for the measurement to be performed – the Information Model (IM) – and the QoS System, which provides an execution platform for the IM. The framework will be applied to a standard business process of the German insurance industry, and the concepts of the IM and their mapping to artifacts of the QoS System will be presented. Furtherm ore, design and implementation of the QoS System’s parser and generator module and the generated artifacts are explained in detail, e.g., event model, agents, measurement module and analyzer module.
Die vorliegende Arbeit ist der empirischen Untersuchung der Deliktart Korruption gewidmet. Mittels vignettenbasierter Befragung unter 89 Studierenden der Betriebswirtschaft und 74 Studierenden der Wirtschaftsinformatik wurde deren Korruptionsbewertung erforscht. Einbezogen wurden dabei neben soziodemografischen Merkmalen, sowohl Personenfaktoren, in Form des organisationalen Zynismus (Abhari, 2007) und der emotionalen Kompetenz (Rindermann, 2008), als auch der Situationsfaktor persönliche Notlage (krankes Kind) versus keine persönliche Notlage (arbeitslose Ehefrau). Diese Ausarbeitung ist eine überarbeitete Version der Bachelorarbeit gleichen Titels, die im März 2012 an der Hochschule Hannover, Fakultät Wirtschaft und Informatik, Abteilung Betriebswirtschaft abgegeben wurde. Die Arbeit wurde von Sina Maffenbeier und Sven Litzcke betreut. Die Ergebnisse zeigen, dass sich ehrenamtliches Engagement positiv und hoher organisationaler Zynismus negativ auf die Meldebereitschaft hinsichtlich korrupter Handlungen auswirken. Aufgrund fehlender anzeigebereiter Opfer stellt die Meldebereitschaft eine wichtige Komponente bei der Aufklärung von Korruptionsdelikten dar. Zudem wird gezeigt, dass hoher organisationaler Zynismus die Entscheidungsfindung für oder gegen Korruption erschwert und hohe emotionale Kompetenz sie erleichtert. Mit steigender emotionaler Kompetenz nimmt zudem das subjektive Empfinden zur Angebotshäufigkeit korrupter Offerten zu. Des Weiteren zeigen die Ergebnisse in Bezug auf den Situationsfaktor persönliche Notlage (krankes Kind), dass den Teilnehmern die Entscheidungsfindung schwerer fällt als bei keine persönliche Notlage (arbeitslose Ehefrau). Die Teilnehmer haben zudem mehr Verständnis für eine korrupte Handlung im Fall persönliche Notlage (krankes Kind).
Vignettentechnik: Einfluss des Geschlechts der Vignettenprotagonisten auf die Korruptionsbewertung
(2013)
Die Studie basiert auf einem Experiment, bei dem Einflussfaktoren auf Korruptionsbereitschaft untersucht wurden. Es wurden personale und situative Einflussfaktoren berücksichtigt. Mithilfe eines 2x2x2-Vignettendesigns wurden die situativen Einflussfaktoren operationalisiert und methodenkritisch überprüft, ob eine homogene Geschlechtswahl der Vignettenprotagonisten die Antworten der Versuchspersonen beeinflusst. Befragt wurden 171 Studierende der Betriebswirtschaftslehre. Es konnten keine statistisch signifikanten Effekte nachgewiesen werden, die schlussfolgern ließen, dass die Versuchspersonen in ihren Antworten durch die homogene Geschlechtswahl der Vignettenprotagonisten beeinflusst wurden. Die Versuchspersonen wählten ihre Antworten unabhängig davon, ob eine Vignette mit weiblichen Protagonisten oder eine Vignette mit männlichen Protagonisten vorlag.
In dieser Arbeit wurden vorliegende Fragebögen zur Evaluation von Lehrveranstaltungen hinsichtlich ihrer Eignung zum Einsatz im Rahmen der regelmäßigen studentischen Lehrveranstaltungsevaluation an der Hochschule Hannover – Fakultät IV – Abteilung Betriebswirtschaft geprüft. Ziel war es, einen ökonomischen und methodisch überzeugenden Fragebogen zu identifizieren. Die Sichtung der einschlägigen Literatur sowie der vorliegenden Fragebögen zeigte, dass keiner dieser Fragebögen zur Evaluation von Lehrveranstaltungen alle relevanten Kriterien vollständig erfüllte. Deshalb wurden alle Items der recherchierten Fragebögen für die Verwendung innerhalb eines neuen Fragebogens inhaltlich gruppiert und überprüft. Im Ergebnis steht ein ökonomisch und unter Berücksichtigung methodisch aktueller Befunde konzipierter Fragebogen zur Verfügung, der sowohl für den Einsatz in der regelmäßigen studentischen Evaluation von Lehrveranstaltungen einer Hochschule geeignet ist als auch für den Einsatz in Fort- und Weiterbildungsveranstaltungen.
In diesem Beitrag werden die Ergebnisse einer Personalbefragung österreichischer Polizisten und Polizistinnen in Ausbildung geschildert, bei denen die Einstellung zu Korruption erhoben wurde. Weiterhin wurden Variablen wie Geschlecht, Alter und Bildungsgrad erhoben, die in Hellfeldforschung zu Korruption häufig als Merkmale von Korruptionstätern und Korruptionstäterinnen genannt werden. Im Fokus dieses Beitrags steht unter anderem die Frage, inwieweit sich Befunde aus dem Hellfeld von Korruption im Dunkelfeld abbilden. Zur Klärung dieser Frage werden Merkmale aus dem Hellfeld der Korruptionstäter und Korruptionstäterinnen auf eine Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption im Dunkelfeld überprüft. Zudem wird in diesem Beitrag die Frage geklärt, wie die Polizisten und Polizistinnen in Ausbildung hinsichtlich der Einstellung zu Korruption im Vergleich mit der Allgemeinbevölkerung Österreichs abschneiden. Polizisten und Polizistinnen in Ausbildung sind für das Bundesamt zur Korruptionsprävention und Korruptionsbekämpfung (kurz: BAK) die größte Zielgruppe bei der Ausbildung und Weiterbildung öffentlich Bediensteter in Österreich.
Die Ergebnisse lassen erkennen, dass sich die Befunde aus dem Hellfeld von Korruption nicht im Dunkelfeld abbilden, denn die überprüften Variablen weisen insgesamt betrachtet keine substanzielle Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption auf. Hinsichtlich des Vergleichs der österreichischen Polizisten und Polizistinnen in Ausbildung mit der Allgemeinbevölkerung Österreichs zeigen sich nur geringfügige Unterschiede in der Einstellung zu Korruption. Tendenziell lehnen die Polizisten und Polizistinnen in Ausbildung Korruption eher ab als die Allgemeinbevölkerung Österreichs.
Dieser Beitrag fasst drei explorative Befragungen zusammen, in denen unter anderem Zusammenhänge von ehrenamtlichem Engagement mit verschiedenen Variablen überprüft wurden. Die Überprüfung dieser Zusammenhänge betrifft sowohl personaldiagnostische Variablen als auch korruptionsrelevante Variablen. Konkret wurde ehrenamtliches Engagement auf Zusammenhänge mit dem Fünf-Faktoren-Modell der Persönlichkeit, mit emotionaler Kompetenz, mit Korruptionswahrnehmung und mit der Einstellung zu Korruption überprüft. Befragt wurden Studierende der Betriebswirtschaftslehre, der Wirtschaftsinformatik, der Psychologie, der Rechtswissenschaften sowie Auszubildende der Polizei. Ehrenamtliches Engagement besitzt insgesamt nur eine geringe praktische Bedeutung für die Personaldiagnostik und ebenfalls nur eine geringe Bedeutung für die Korruptionsprävention. Derzeit ehrenamtlich engagierte Testpersonen weisen eine geringere Affinität gegenüber Korruption auf als Testpersonen ohne derzeitiges ehrenamtliches Engagement. Relativiert werden diese Ergebnisse jedoch durch ihre Widersprüchlichkeit über die drei Befragungen hinweg und durch die durchgängig geringen Effekthöhen. Wegen der geringen Effekthöhen ist die praktische Bedeutung eines ehrenamtlichen Engagements sowohl für die Personaldiagnostik als auch für die Korruptionsprävention als gering einzustufen.
Altruistisches Verhalten ist ein fester Bestandteil im Leben von Menschen. Die Bereitschaft sich gegenseitig zu unterstützen ist durch unterschiedliche Motive gekennzeichnet. Manche Menschen helfen, ohne einen eigenen Nutzen daraus zu ziehen. Andere Menschen dagegen verhalten sich in gewissem Maße hilfsbereit, erwarten hierfür aber eine Gegenleistung. Die vorliegende Arbeit untersucht die altruistischen Verhaltensweisen von Studierenden verschiedener Fachrichtungen. Basierend auf der Technik der verlorenen Briefe wurde in einem Feldexperiment das altruistische Verhalten von Studierenden der Fakultät IV (Wirtschaft und Informatik) und der Fakultät V (Diakonie, Gesundheit und Soziales) der Hochschule Hannover untersucht. Dabei wurden Briefe an unterschiedlichen Stellen platziert und deren Mitnahme- und Rücklaufergebnis gemessen. Die Ergebnisse zeigen, dass Studierende der Fakultät IV (Wirtschaft und Informatik) eher zu altruistischem Verhalten neigen, als die durch ihren Studiengang vermeintlich stärker sozial geprägten Studierenden der Fakultät V (Diakonie, Gesundheit und Soziales). Ferner nimmt die Wahrscheinlichkeit eines altruistischen Verhaltens mit steigender Anzahl an anwesenden Personen ab.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö besteht aus 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden zwei Datenerhebungen geschildert. Mit einer ersten Datenerhebung wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö umfasst 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden drei Datenerhebungen geschildert. In der ersten Datenerhebung (n = 1.617) wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Neu im Vergleich zur ersten Auflage des Manuals ist die dritte Datenerhebung, in der die HKS 38 Ö für eine Befragung von Polizeischülern (n = 1.455) verwendet wurde. Auch die Daten der dritten Erhebung wurden testtheoretisch überprüft. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.
Bedingt durch die zunehmende Digitalisierung der wissenschaftlichen Ausbildung entstanden verschiedenste Lehrplattformen, mit denen die Verwaltung von Lehrveranstaltungen und Lehrmitteln möglich geworden ist. Die Plattform LON-CAPA ist eine davon.
Neben der Verwaltung von Lehrveranstaltungen konnten innerhalb der Plattform über eine Programmierschnittstelle auch Übungsaufgaben definiert werden, die durch das Hinterlegen der korrekten Antwort oder bei der Definition von Multiple-Choice Aufgaben einem Studierenden automatisch Feedback über dessen Lösung geben können. Komplexere Aufgaben mussten dagegen häufig manuell durch Menschen korrigiert werden.
Für die formalen Sprachen und die Automatenlehre der theoretischen Informatik wurde daher die in Java geschriebene Bibliothek JFLAP modifiziert, um als Bewertungsinstrument Aufgaben aus diesem Themengebiet automatisch auf Korrektheit bewerten zu können. Ein genereller Interfaceansatz ermöglich zusätzliche eine zugängliche Definition weiterer Aufgaben für die untersuchten Themengebiete.
In this paper we describe methods to approximate functions and differential operators on adaptive sparse (dyadic) grids. We distinguish between several representations of a function on the sparse grid and we describe how finite difference (FD) operators can be applied to these representations. For general variable coefficient equations on sparse grids, genuine finite element (FE) discretizations are not feasible and FD operators allow an easier operator evaluation than the adapted FE operators. However, the structure of the FD operators is complex. With the aim to construct an efficient multigrid procedure, we analyze the structure of the discrete Laplacian in its hierarchical representation and show the relation between the full and the sparse grid case. The rather complex relations, that are expressed by scaling matrices for each separate coordinate direction, make us doubt about the possibility of constructing efficient preconditioners that show spectral equivalence. Hence, we question the possibility of constructing a natural multigrid algorithm with optimal O(N) efficiency. We conjecture that for the efficient solution of a general class of adaptive grid problems it is better to accept an additional condition for the dyadic grids (condition L) and to apply adaptive hp-discretization.
Die Arbeit hat das Ziel, Volumendaten effizient zu visualisieren, ohne diese in ein alternatives Repräsentationsformat wie Polygonnetze zu überführen. Dafür werden Voxel sowie ein Raycasting-Ansatz verwendet. Die Elemente des Volumens werden als Voxel (=volumetrische Pixel), das Volumen nachfolgend als ein dreidimensionales Array aus Voxel bezeichnet. Für jeden Pixel wird ein Strahl erzeugt, der das Array iterativ traversiert, wobei in jeder Iteration geprüft wird, ob das gegebene Volumenelement ein Datum hält oder nicht. Maßgeblich hierfür ist der von (Amanatides, Woo et al., 1987) vorgestellte Ansatz, den Strahl in solche Segmente zu zerlegen, die immer jeweils so lang wie der momentan zu untersuchende Voxel groß ist: In einer Iteration wird also immer genau ein Voxel untersucht. Die Arbeit wird diese Idee verfolgen, praktisch aber anders umsetzen und sie um eine zusätzliche Beschleunigungsstruktur ergänzen. Im Idealfall soll dieser Ansatz es erlauben, mindestens 512^3 Voxel in Echtzeit zu rendern. Der beschriebene Ansatz hat zusätzlich den Vorteil, dass Änderungen direkt sichtbar werden, weil für das anschließende Rendering, auf die modifizierten Daten zurückgegriffen wird.
Der Autobewerter Graja, der in der Lehre zum Bewerten studentischer Java-Programme verwendet wird, stellt ein komplexes Softwaresystem dar. Aufgrund einer kaum vorhandenen Testabdeckung durch Modul- und Integrationstests, ist die Gewährleistung der fehlerfreien Funktionalität in Hinsicht auf die Weiterentwicklung nicht garantiert. Da sich Graja auf das ProFormA-Aufgabenformat stützt, stellt sich die Frage, inwiefern sich die im ProFormA-Aufgabenformat vorausgesetzten Musterlösungen, für einen automatisierten Regressionstestmechanismus eignen.
Das Ziel dieser Forschung ist es ein Konzept, für einen solchen Regressionstestmechanismus zu erstellen und mithilfe einer Referenzimplementierung als Graja-Erweiterung in die Praxis umzusetzen. Der daraus entstandene Mechanismus operiert durch Verhaltensaufzeichnung und Verhaltensabgleich und konvertiert so das in Graja beobachtete Bewertungsverhalten einer Musterlösung in einen Testfall. In der Testphase findet anschließend ein Abgleich des Soll-Verhaltens eines Testfalls und des beobachteten Ist-Verhaltens einer Musterlösung statt. Die Differenzen dieses Abgleichs sind als potenzielle Regressionen zu behandeln, da diese eine semantische Änderung des Bewertungsergebnisses darstellen.
Um diesen Verhaltensabgleich robust und mit möglichst wenigen Fehlalarme zu realisieren, wurden die in Graja verwendeten Datenmodelle auf Eignung bezüglich einer Verhaltensaufzeichnung untersucht. Außerdem fand eine Datenaufzeichnung mit einer Teilmenge der Musterlösungen statt. Nachfolgend wurde eine Analyse dieser Rohdaten, mit dem Ziel potenzielles Rauschen innerhalb der Aufzeichnungen zu detektieren, durchgeführt. So konnte letztendlich eine Strategie für eine Rauschunterdrückung innerhalb der Verhaltensaufzeichnung entwickelt werden.
Abschließend wurde ein Datenmodell entwickelt, das erlaubt, die durch den Verhaltensabgleich detektierten Regressionen verständlich und lokalisierbar darzustellen. Der durch diese Arbeit entstandene automatisierte Regressionstestmechanismus stellt somit eine Grundlage für die Gewährleistung der korrekten Bewertungsfunktionalität innerhalb des Graja-Entwicklungsprozesses dar. Durch das Detektieren von Regressionen mithilfe der Musterlösungen, lassen sich nun Änderungen an Graja gewissenhaft in eine Produktionsumgebung übernehmen.
Die vergleichende Fallstudie untersucht die Auswirkungen des Einsatzes von Videokonferenzsoftware (VKS) in einer kooperativen Lernumgebung in einem Masterseminar der Hochschule Hannover im Studiengang Unternehmensentwicklung. Es wurden 13 problemzentrierte Interviews mit Teilnehmenden eines Online- und eines Präsenzkurses geführt. Die gewonnenen Daten aus den Interviewaussagen wurden unter Anwendung des an der Hochschule eingesetzten Evaluationsfragebogens auf Plausibilität geprüft. Es wurden acht Probanden aus dem Onlinekurs und fünf Probanden aus dem vorherigen Präsenzkurs befragt. Die Interviews wurden über eine qualitative Inhaltsanalyse ausgewertet. Die zentralen
Ergebnisse waren, dass das Teleteaching zwar funktioniert, die Onlinestudierenden aber eine niedrigere Aufmerksamkeit, eine gehemmte aktive Beteiligung, eine geringere Interaktion zwischen den Studierenden und eine erschwerte Interaktion in den Gruppenarbeiten wahrnehmen. Als größte Nachteile wurden die fehlenden persönlichen Kontakte und die niedrige Aufmerksamkeit identifiziert. Als größter Vorteil erwies sich die erhöhte Flexibilität durch den ersparten Anfahrtsweg. Ein für Teleteaching zentraler Erfolgsfaktor ist, dass die Kameras auch bei den Teilnehmenden angeschaltet sein sollten, damit die Aufmerksamkeit und die aktive Beteiligung gefördert werden. Zwölf der Probanden stuften den VKS-Einsatz als sinnvolle Ergänzung für Seminare ein. Präsenzseminare sind aber keinesfalls durch Onlineseminare zu ersetzen.
In dieser Bachelorarbeit werden zwei Ziele verfolgt. Ein Ziel ist es anhand einer Karriere-Seite mit einem Bewerbungsformular einzuordnen, ob die Gestaltung dieser mit der mobile-first Philosophie einen Einfluss auf die Usability und bezüglich der Benutzbarkeit von Interaktionselementen im Desktop-Kontext hat. Ein weiteres Ziel ist, bedingt durch die COVID-19 Pandemie, eine prototypische Software-Lösung zu entwickeln, welche den kompletten Lösungsversuch im Rahmen eines Usability-Tests einer Versuchsperson inklusive der Blickpositionen, ohne den Einsatz spezieller Hardware, aufnimmt und diese Aufnahme für eine Auswertung auch wieder abspielen kann.
Die Arbeit setzt sich dabei aus zwei praktischen Teilen zusammen. Der erste Teil umfasst die Konzeption und Entwicklung der Karriere-Seite unter Einsatz der mobile-first Philosophie für das betreuende Unternehmen, frobese GmbH. Im zweiten Teil der Arbeit wird die Auswirkung der mobile-first Philosophie auf die Usability im Desktop-Kontext empirisch untersucht. Dies geschieht im Rahmen eines remote Usability-Tests mithilfe der dafür entwickelten Software-Lösung. Diese nimmt die Lösungsversuche mitsamt der Blickpositionen der Versuchspersonen auf und fordert sie anschließend auf, einen Fragebogen auszufüllen. Abschließend werden die Ergebnisse, der Versuchsaufbau und die Ergebnisse kritisch gewürdigt.
Der remote Usability-Test im zweiten Teil der Arbeit wurde mit insgesamt 30 Versuchspersonen durchgeführt. Sie wurden dabei in zwei Gruppen aufgeteilt, eine mobile Gruppe und eine Desktop Gruppe. Im Rahmen des Usability-Tests mussten sie eine Aufgabe auf der prototypischen Karriere-Seite vom ersten praktischen Teil dieser Arbeit erledigen. Die entwickelte remote Lösung erlaubte auch unter Pandemiebedingungen eine einfache Rekrutierung der Versuchspersonen und Durchführung der Versuche. Mithilfe eines Auswertungs-Clients konnten die Versuchsaufnahmen im Nachhinein wieder abgespielt werden und in Form von Heatmaps visualisiert werden. Die Auswertung zeigte, dass mithilfe der mobile-first Philosophie eine exzellente Usability im mobilen Kontext erreicht werden konnte, die sich auch auf den Desktop übertragen hat. Es konnte aber auch ein signifikanter Unterschied in den Bearbeitungszeiten zwischen beiden Gruppen festgestellt werden. Hier konnten die Versuchsaufnahmen Indizien auf die Ursachen dieser Diskrepanz geben.
Die Generation der ab den 1980er Jahren Geborenen, genannt Generation Y, tritt seit einiger Zeit als Arbeitnehmer in die Arbeitsmärkte ein. Im Jahr 2020 wird diese Gruppe die Hälfte der Arbeitnehmer in der Bundesrepublik ausmachen. Lebensstil, Globalisierung, kulturelles und mediales Angebot führen bei dieser Generation auch in der Arbeitswelt zu anderen Erwartungen und Ansprüchen als dies bei vorherigen Generationen der Fall war. In Literatur und Studien wird diese Generation fast ausschließlich als selbstbewusst, ehrgeizig, aufstrebend, sozial engagiert und mobil beschrieben. Vor dem Hintergrund des zu erwartenden Fachkräftemangels widmet sich diese Arbeit unter anderem der Frage, mit welchen Instrumenten das Personalmanagement der Unternehmen auf diese Situation reagieren kann, um bei der Gewinnung und Bindung von Mitarbeitern erfolgreich zu sein.
Herausgeberwerk (Litzcke): 1. Die Intelligence-Acht. Überlegungen zu einer wissenschaftlichen Annäherung an nachrichtendienstliches Tun. 2. Korruption in Auslandsnachrichtendiensten 3. Interkulturelle Kommunikation Deutschland - China 4. Aspekte eines nachrichtendienstlichen Gesprächs 5. Nonverbale Lügen- und Machtmerkmale 6. Illegale Migration aus psychologischer und aus nachrichtendienstlicher Sicht 7. Stessbelastung operativ arbeitender Mitarbeiter 8. Psychologie verdeckter Ermittler 9. Psychologische Aspekte des Einsatzes kriminalpolizeilicher Verbindungsbeamter im Ausland 10. Agentinnen aus Liebe - psychologische Betrachtung der Romeomethode
Eine wertorientierte Unternehmensführung hat in den letzten Jahren in den Unternehmen zunehmend an Bedeutung gewonnen. Wertorientierung stellt dabei ein Führungsverhalten dar, welches sich mit der Gestaltung und Realisierung von wertorientierten Zielen auf Managementebene beschäftigt. Heutzutage lebt Wertorientierung vom Einklang aus ökonomischen, ökologischen und gesellschaftlichen Gesichtspunkten. Die vorliegende Masterarbeit befasst sich mit der Geschäftsberichtsanalyse der DAX-30-Unternehmen hinsichtlich wertorientierter Steuerung. Dabei werden Unternehmen hinsichtlich ihres Bekenntnisses zur Wertorientierung, Veröffentlichung wertorientierter Kennzahlen und Höhe der Kapitalkostensätze untersucht.Hierbei kommt der Vergleichbarkeit und Transparenz eine entscheidende Rolle zu. Die Untersuchung ergibt ein hohes Bekenntnis zur Wertorientierung in nahezu allen betrachteten DAX-Unternehmen. Die Unternehmen führen viele Spitzenkennzahlen an, die vorwiegend auf dem Economic Value Added basieren. Zusätzlich werden eine Reihe weiterer, in der betrieblichen Praxis als wertorientierte Kennzahlen genutzte Messgrößen, herausgegeben. Eine Vergleichbarkeit untereinander gestaltet sich sehr schwierig, da Berechnung und Bezeichnung gleicher Kennzahlen sehr unterschiedlich sind. Daran wird sich ohne einheitlichen Standard in naher bis mittelfristiger Zukunft nichts ändern.
The automated transfer of flight logbook information from aircrafts into aircraft maintenance systems leads to reduced ground and maintenance time and is thus desirable from an economical point of view. Until recently, flight logbooks have not been managed electronically in aircrafts or at least the data transfer from aircraft to ground maintenance system has been executed manually. Latest aircraft types such as the Airbus A380 or the Boeing 787 do support an electronic logbook and thus make an automated transfer possible. A generic flight logbook transfer system must deal with different data formats on the input side – due to different aircraft makes and models – as well as different, distributed aircraft maintenance systems for different airlines as aircraft operators. This article contributes the concept and top level distributed system architecture of such a generic system for automated flight log data transfer. It has been developed within a joint industry and applied research project. The architecture has already been successfully evaluated in a prototypical implementation.
This paper describes the latest accomplishments on the current research that is based on the master’s thesis “Ein System zur Erstellung taktiler Karten für blinde und sehbehinderte Menschen” (German for “A system creating tactile maps for blind and visually impaired people”) (Hänßgen, 2012). The system consists of two parts. The first part is new software especially designed and developed for creating tactile maps addressing the needs of blind and visually impaired people on tactile information. The second is an embossing device based on a modified CNC (computer numerical control) router. By using OpenStreetMap-data, the developed system is capable of embossing tactile maps into Braille paper and writing film.
BACKGROUND:
Despite their increasing popularity, little is known about how users perceive mobile devices such as smartphones and tablet PCs in medical contexts. Available studies are often restricted to evaluating the success of specific interventions and do not adequately cover the users' basic attitudes, for example, their expectations or concerns toward using mobile devices in medical settings.
OBJECTIVE:
The objective of the study was to obtain a comprehensive picture, both from the perspective of the patients, as well as the doctors, regarding the use and acceptance of mobile devices within medical contexts in general well as the perceived challenges when introducing the technology.
METHODS:
Doctors working at Hannover Medical School (206/1151, response 17.90%), as well as patients being admitted to this facility (213/279, utilization 76.3%) were surveyed about their acceptance and use of mobile devices in medical settings. Regarding demographics, both samples were representative of the respective study population. GNU R (version 3.1.1) was used for statistical testing. Fisher's exact test, two-sided, alpha=.05 with Monte Carlo approximation, 2000 replicates, was applied to determine dependencies between two variables.
RESULTS:
The majority of participants already own mobile devices (doctors, 168/206, 81.6%; patients, 110/213, 51.6%). For doctors, use in a professional context does not depend on age (P=.66), professional experience (P=.80), or function (P=.34); gender was a factor (P=.009), and use was more common among male (61/135, 45.2%) than female doctors (17/67, 25%). A correlation between use of mobile devices and age (P=.001) as well as education (P=.002) was seen for patients. Minor differences regarding how mobile devices are perceived in sensitive medical contexts mostly relate to data security, patients are more critical of the devices being used for storing and processing patient data; every fifth patient opposed this, but nevertheless, 4.8% of doctors (10/206) use their devices for this purpose. Both groups voiced only minor concerns about the credibility of the provided content or the technical reliability of the devices. While 8.3% of the doctors (17/206) avoided use during patient contact because they thought patients might be unfamiliar with the devices, (25/213) 11.7% of patients expressed concerns about the technology being too complicated to be used in a health context.
CONCLUSIONS:
Differences in how patients and doctors perceive the use of mobile devices can be attributed to age and level of education; these factors are often mentioned as contributors of the problems with (mobile) technologies. To fully realize the potential of mobile technologies in a health care context, the needs of both the elderly as well as those who are educationally disadvantaged need to be carefully addressed in all strategies relating to mobile technology in a health context.
Das Ziel dieser Forschungsarbeit ist es, KMU einen Überblick über die möglichen Instrumente für die Erfolgskontrolle von Social Media Marketing zu geben. Dabei wird sich auf die folgende Forschungsfrage konzentriert: „Welche Instrumente existieren, um Social Media Maßnahmen auf ihren Erfolg zu prüfen?“. Zur Beantwortung der Forschungsfrage wurde zunächst eine Literaturrecherche durchgeführt, bei der gezielt nach Modellen und Kennzahlen gesucht wurde. In diesem Zusammenhang fand eine empirische Analyse von Social Media Tools statt. Außerdem wurde eine Online-Umfrage konzipiert und an KMU versendet, um zu erfahren, wie die KMU aktuell den Erfolg messen. Dabei zeigte die Literaturrecherche, dass bis heute kein einheitlicher Ansatz für die Erfolgskontrolle existiert und die Social Media Tools verschiedene Kennzahlen bereitstellen. Darüber hinaus hat die Online-Umfrage ergeben, dass viele der Teilnehmer ihre Erfolgskontrolle sehr einfach handhaben, wofür vor allem fehlende Ressourcen verantwortlich sind.
Agile Prozesse und zertifizierte Managementsysteme wirken anfänglich wie ein Widerspruch, insbesondere hinsichtlich der Steuerung des Prozessverlaufs sowie der Kontrolle beabsichtigter Ergebnisse. Doch ein wissenschaftlicher Blick auf etablierte Formen der Prozesssteuerung legte im Rahmen einer Masterarbeit offen, dass sich einheitliche Mechanismen dahinter verbergen, die auch auf agile Prozesse angewendet werden können. Fünf erkannte Prozesssteuerungsmechanismen geben dem Leser konkrete Ansatzpunkte zur ISO 9001-konformen Steuerung und Kontrolle agiler Prozesse.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.
Die vorliegende Arbeit ermittelt die Ist-Kosten für den Prozess der Herbarbeleg Digitalisierung im Botanischen Garten/ Botanischen Museum in Berlin-Dahlem. Dabei werden die Kosten durch drei verschiedene Vorgehensweisen aufgezeigt. Die erste Vorgehensweise ermittelt die Kosten für die Digitalisierung anhand der Gesamtaufwendungen im Botanischen Garten/ Botanischen Museum. In dieser Betrachtung werden die Kosten abgegrenzt, die nur der Digitalisierung zuzuordnen sind. Eine weitere Methode erfasst alle Einzelkosten die für die Digitalisierung von Herbarbelegen anfallen und stellt abschließend die Gesamtkosten für die Digitalisierung dar. Als weitere Vorgehensweise zur Kostenbestimmung wurde eine Projektbetrachtung gewählt. In dieser sind die Digitalisierungskosten anhand eines durchgeführten Projektes im Botanischen Garten/ Botanischen Museum veranschaulicht.
Der vorliegende Artikel analysiert sowohl das in der Entwicklung stehende Projekt, die Digitalisierung von Herbarbelegen, als auch den dafür vorhandenen Markt. Bei der Produktanalyse wird das Kernprodukt in die 3 Einzelprodukte gegliedert und diese in Funktion und Zusammensetzung näher erklärt. Besonderen Wert wird hier auf die bisher angefallenen Entwicklungskosten gelegt, da sie die Basis für die Kalkulation der Umsatzanalyse bilden. Die Marktanalyse besteht aus einer genauen Analyse des deutschen Marktes sowie einer gröberen des europäischen- und des Weltmarktes. Die anschließend durchge-führte Umsatzanalyse basiert auf den Daten aus der Produktanalyse und der recherchierten Märkten. Ziel hiervon ist es, erste Vorstellungen eines möglichen Umsatzes auf dem deutschen, europäischen und weltweiten Markt zu erstellen.
Angesichts neuer Rahmenbedingungen der Hochschulsteuerung wie Globalhaushalte, Zielvereinbarungen, Akkreditierung und leistungsorientierter Mittelvergabe sind staatliche Hochschulen veranlasst in Zukunft stärker strategisch zu Denken und zu Handeln. Vor diesem Hintergrund stehen Hochschulen vor der Herausforderung, geeignete Controllingsysteme zur Planung, Durchführung und Kontrolle ihrer Handlungen zu entwickeln. Das hier konzipierte Berichtssystem ist objektorientiert ausgerichtet und konstruiert sich aus monetären und nicht-monetären Rahmenbedingungen. Der Nutzungszweck des Berichtssystems ist auf das Controlling hin ausgerichtet, d. h. die sachliche und zeitliche Abstimmung (Koordination) sozialer Handlungen durch Planungs- und Kontrollprozesse. Entsprechend dem Qualitätsmanagement-System vollzieht sich das Controlling auf Handlungsfelder mit den Objekten Finanzen, Personal, Flächen, Studiengänge und Forschungsprojekte, auf denen anhand von Standardberichten Planungsprozesse im Gegenstromverfahren durchgeführt werden können. Um sachzielbezogene Kennzahlen abzubilden, die die Strategien der Hochschule nach innen und außen kommunizieren, wird das Berichtssystem um eine Balanced Scorecard für Hochschulen ergänzt. Dadurch wird ein umfangreich angelegtes Referenzmodell für ein Controlling mit Berichten aufgezeigt, das partizipative Entscheidungen für eine autonome Hochschulentwicklung unterstützen soll.
Die Zeit liegt noch nicht lange zurück, da es insbesondere im Bereich des unternehmensbezogenen Managements einfach dazugehörte, „im Stress“ zu sein. Häufig wurde es als Zeichen für Wichtigkeit und Unentbehrlichkeit gedeutet. Bemerkenswert ist, dass sich diese Einstellung zur Stressthematik in der einschlägigen wirtschaftsbezogenen Öffentlichkeit grundlegend geändert hat. Heutzutage – so heißt es dort – handeln Führungskräfte verantwortungsvoll, wenn Stresssymptome ernst genommen werden, weil man davon ausgeht, dass erholte Mitarbeiter auf allen Ebenen der Hierarchie weniger Fehler machen, seltener krank sind und produktiver arbeiten. Vor diesem Hintergrund wird empfohlen, der Balance zwischen An- und Entspannung durch beispielsweise meditative Entspannungstechniken mehr Aufmerksamkeit zu schenken und auch der im Menschen stattfindenden Kommunikation, der sog. inneren Kommunikation, größere Beachtung zu schenken, denn der Stress beginnt im Kopf. Im folgenden Beitrag wird die eben skizzierte Einstellungsänderung aufgegriffen, um auf dieser Grundlage die Relevanz der Entwicklung von Spiritualität im Sinne einer religionsunabhängigen Erfahrung zum Zwecke der Stressbewältigung herauszuarbeiten.
Im vorliegenden Beitrag findet sich eine kritische Würdigung der Diskussion zur Risikokapitalausstattung aus betrieblicher Sicht unter Berücksichtigung von mittelstandsspezifischen Besonderheiten, um den Zusammenhang zwischen Liquiditätsproblemen in kleinen und mittleren Unternehmen und der vertikalen Eigenkapital-Quote zu hinterfragen
Sowohl die liquiditäts- als auch die erfolgsorientierte Betrachtungsweise von Zahlungsströmen soll mit dem Begriff der optimalen Liquidität zum Ausdruck kommen. Der Liquiditätsplan stellt ein geeignetes Instrument dar, um fundierte Entscheidungen zu ermöglichen. Neben Ausführungen zu den allgemeinen Grundlagen bietet die Abhandlung von Dr. K. Kairies praxisorientierte Überlegungen für die Einführung und Pflege eines Liquiditätsplanes im Unternehmen.
Lässt man sich etwas Zeit bei der Betrachtung der Märchenfigur des Froschkönigs erkennt man zwei unterschiedliche Ebenen. Die Prinzessin aus dem Märchen darf beide erfahren. Einerseits nimmt sie den Frosch als Belastung wahr. Andererseits erfährt sie in dem Frosch auch einen königlichen Aspekt, der durch die Krone symbolisiert wird. Wie kommt die Prinzessin von der empfundenen Belastung hin zur Erfahrung der „Krone des Lebens“? Die Verwandlung geschieht durch das Akzeptieren der Situation. In dem Märchen wird das Annehmen durch den Kuss symbolisiert.
Auch im normale Alltag werden Menschen mit diversen Belastungen – kleineren und größeren – konfrontiert. Das kann beispielsweise im Job, in der Familie oder auch im Straßenverkehr sein. Und es pfeifen die Spatzen von Dächern, dass Belastungen, die über einen längeren Zeitraum empfunden werden, zu diversen Krankheiten führen können. Man denke z. B. an Herz-/Kreislauferkrankungen, Angststörungen, Burnout, Süchte sowie erhöhte Aggressionsbereitschaften.
Es gibt also einen riesigen Handlungsbedarf. Mit Blick auf das Märchen „Der Froschkönig“ stellt sich die Frage, ob in Situationen, die als Belastung empfunden werden, vielleicht auch etwas Königliches verborgen ist.
Im Arbeitspapier wird im Sinne der Achtsamkeit davon ausgegangen, dass sich die Krone des Lebens in Situationen erst dann zeigen kann, wenn sie „geküsst“ bzw. angenommen werden, weil sich dann eine neue, eine tiefere Dimension zeigt, die man sich mit dem Verstand nicht erschließen kann.
Leo A. Nefiodow, einer der angesehensten Vordenker der Informationsgesellschaft, verweist auf die großen Schäden und Verluste, die uns momentan durch psychische Störungen wie beispielsweise Angst, Depressionen, Burnout und ihre Folgen wie Gewalt, Kriminalität, Drogenmissbrauch und Erkrankungen entstehen. Die Förderung psychosozialer Gesundheit wäre somit geeignet, sowohl das Wohlbefinden des einzelnen Menschen zu verbessern als auch der Wirtschaft und der gesamten Gesellschaft einen Entwicklungsschub zu verleihen. Im Rahmen des Arbeitspapiers geht es darum, Möglichkeiten des Gegensteuerns aus dem Blickwinkel von Achtsamkeit vorzustellen. U. a. am praktischen Beispiel einer Schule wird versucht, das Wirkprinzip von Achtsamkeit zur Förderung psychosozialer Gesundheit in einer sozialen Einheit zu verdeutlichen.
Arbeitspapier im Rahmen des Arbeitsschwerpunktes "Entwicklung von Spiritualität in der Wirtschaft : ein komplementärer Weg zur Verbesserung von Wettbewerbsfähigkeit und Steigerung von Produktivität in Unternehmen im Sinne einer nachhaltigen Entwicklung, die es zukünftigen Generationen ermöglichen soll, auf der Erde ein lebenswertes Leben zu leben."
Wird ein Problem chronisch, könnte man dies als Mangel an Kreativität interpretieren. Die Antwort auf die Frage „wie könnte eine Problemlösung ohne schädliche Nebenwirkungen aussehen?“ fällt häufig allerdings nicht leicht.
Der vorliegende Arbeitsbericht hat sich zur Aufgabe gemacht, für solche Problemlösungen die Aufmerksamkeit auf eine Tür zu lenken, die heutzutage tendenziell verschlossen ist. Die Empfehlung lautet, das gewohnte Denken zu transzendieren. Viele große Künstler und Wissenschaftler sind diesen Weg gegangen und haben auf diese Weise Kreatives hervorgebracht. So hat sich z.B. Johannes Brahms für seine Kompositionen in einen besonderen Zustand versetzt, der ihm „transzendentale Offenbarungen“ ermöglichte. Er erwähnte auch, dass jeder Mensch über solche Möglichkeiten verfügt, um auf diese Weise unkonventionelle Problemlösungen auf die Erde zu holen.
In zahlreichen Fachbüchern wird „Digital Leadership“ zur Unterstützung der digitalen Transformation propagiert. Im Rahmen eines Forschungsprojektes wurden die hierin vertretenen Führungsansätze mit aktuellen wissenschaftlichen Erkenntnissen abgeglichen. Fazit: Die Bücher stellen durchgängig altbewährte Führungskonzepte vor - neuere wissenschaftliche Erkenntnisse enthalten sie kaum.
An der Digitalisierung und ihren Auswirkungen kommt heutzutage fast niemand mehr vorbei. Neue Technologien und digitale Trends halten Einzug in unsere Gesellschaft und in unsere Wirtschaft. Sie beeinflussen und verändern mit hoher Geschwindigkeit die Art, wie wir kommunizieren, interagieren und arbeiten. Viele Unternehmen durchlaufen vor diesem Hintergrund eine digitale Transformation, die tiefgreifende Veränderungen von Prozessen, Produkten, Geschäftsmodellen und oftmals von ganzen Unternehmen nach sich zieht. Auch die Art, Unternehmen und Mitarbeiter zu führen, wird einem Wandel unterliegen.
In diesem Zusammenhang wird häufig auf Digital Leadership als adäquates Modell verwiesen, welches aufzeigen soll, wie Führung in Zeiten der digitalen Transformation gestaltet werden kann. Auf Basis einer qualitativen Inhaltsanalyse wird in der vorliegenden Masterarbeit untersucht, ob das Führungskonzept Digital Leadership neue Führungsansätze und Erkenntnisse hervorbringt oder ob sich das Konzept bewährter Führungsansätze bedient und diese lediglich unter einer neuen Überschrift zusammenfasst.
Die Ergebnisse der Analyse zeigen, dass sich für das Konzept Digital Leadership noch keine allgemeingültige Definition durchgesetzt hat und verschiedene Quellen verschiedene Führungsansätze mit Digital Leadership in Verbindung bringen. Dennoch lassen sich Schwerpunkte erkennen, da die Handlungsempfehlungen sich mehrheitlich an partizipativen und beziehungsorientierten Führungsansätzen, wie der geteilten Führung und der Theorie der transformationalen Führung, ausrichten. Die Führungsansätze, die im Rahmen von Digital Leadership an Bedeutung gewinnen, sind nicht neu, sondern teilweise empirisch bereits gut erforscht.
Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung einer Entwicklungsumgebung als Android-App für den Einsatz im Schulunterricht. Die Anwendung ist mit der natürlichen Sprache zu bedienen und stellt eine Entwicklungsumgebung für das logische Programmierparadigma zur Verfügung. Die entstandene Software wird in einem Feldversuch mit Kindern der 4. Klassenstufe an einer Grundschule erprobt. Da Änderungen und neue Erkenntnisse möglichst effizient in die Software einfließen sollen, wurde die App nach der Clean Architecture umgesetzt. Die Ergebnisse aus der Feldforschung zeigen, dass die Schülerinnen und Schüler mit hoher Motivation an einem fachlichen Thema gearbeitet haben. Sie erlernten die Konzepte der Fakten, Regeln und der Wissensbasis und vertieften damit ihr Wissen zu geometrischen Formen in der Mathematik. Der Architekturansatz der App stellt dessen Vorteile deutlich an Fallbeispielen dar. Die Arbeit zeigt das spannende Feld der angewandten Wissenschaft, das die beiden Disziplinen Informatik und Didaktik verknüpft.
Angesichts der tiefgreifenden Veränderungen in der Medienbranche (z. B. Digitalisierung, Konvergenz) müssen Medienunternehmen gemeinsam mit externen Partnern innovative Geschäftsmodelle vorantreiben. Die vorliegende Arbeit untersucht die Bedeutung der Beziehungsqualität und der Nutzung von Steuerungsmechanismen für den Erfolg unternehmensübergreifender Geschäftsmodellinnovationen. Anhand eines Datensatzes von 198 Medienunternehmen weisen wir einen positiven Zusammenhang zwischen der Beziehungsintensität und der Umsetzung von Geschäftsmodellinnovationen nach. Dieser Zusammenhang wird durch ein starkes Vertrauen und detaillierte formelle Verträge zwischen den Partnern zusätzlich gefördert. Daraus lässt sich ableiten, wie Medienunternehmen Partnerschaften im Kontext von Business-Model-Innovationen effektiv gestalten können.
Die Prävention und Erkennung von Cyber-Angriffen ist eine Herausforderung von hoher Bedeutung, da die Digitalisierung nahezu aller Lebensbereiche immer weiter voranschreitet. Im Forschungssektor der sogenannten Intrusion Detection wird fortlaufend untersucht, inwiefern sich Machine Learning (ML) zur Erkennung von Angriffen eignet. Während ML-Algorithmen bei Anwendungsfällen wie Produktempfehlungen oder Spam-Filtern erfolgreich in Produktion eingesetzt werden können, gestaltet sich die Anwendung in der Intrusion Detection schwieriger.
In sogenannten signatur-basierten IDS-Systemen werden Regelwerke eingesetzt, um Angriffe im Netzwerkverkehr zur Laufzeit zu erkennen. Die Erstellung und Verwaltung dieser IDS-Regeln erfolgt normalerweise manuell und erfordert eine hohe Domänenexpertise. Diese Masterthesis liefert einen Forschungsbeitrag, da diese IDS-Regeln erstmals automatisiert unter der Verwendung von Machine Learning erzeugt werden. Die für diesen Zweck entwickelte Toolchain verwendet Entscheidungsbaum-Algorithmen zur Regelerzeugung aus Trainingsdaten. Des Weiteren werden die Regeln für den Einsatz in einem signatur-basierten IDS-System in das Format von Suricata konvertiert.
Die Evaluierung der erzeugten Regeln hat gezeigt, dass in einer Vielzahl von Experimenten hohe Erkennungsraten und wenige Fehlalarme möglich sind. Allerdings basieren die betroffenen Regelwerke zum Teil auf unterkomplexen Zusammenhängen in den zugrundeliegenden Trainingsdaten. Darüber hinaus verfügen die Regelwerke über eine eingeschränkte Generalisierungsfähigkeit. Für ein finales Urteil wäre es notwendig und empfehlenswert, zusätzliche Forschungskapazitäten für die Erstellung repräsentativer IDS-Datensätze aufzuwenden.
Renewable energy production is one of the strongest rising markets and further extreme growth can be anticipated due to desire of increased sustainability in many parts of the world. With the rising adoption of renewable power production, such facilities are increasingly attractive targets for cyber attacks. At the same time higher requirements on a reliable production are raised. In this paper we propose a concept that improves monitoring of renewable power plants by detecting anomalous behavior. The system does not only detect an anomaly, it also provides reasoning for the anomaly based on a specific mathematical model of the expected behavior by giving detailed information about various influential factors causing the alert. The set of influential factors can be configured into the system before learning normal behaviour. The concept is based on multidimensional analysis and has been implemented and successfully evaluated on actual data from different providers of wind power plants.
End users urgently request using mobile devices at their workplace. They know these devices from their private life and appreciate functionality and usability, and want to benefit from these advantages at work as well. Limitations and restrictions would not be accepted by them. On the contrary, companies are obliged to employ substantial organizational and technical measures to ensure data security and compliance when allowing to use mobile devices at the workplace. So far, only individual arrangements have been presented addressing single issues in ensuring data security and compliance. However, companies need to follow a comprehensive set of measures addressing all relevant aspects of data security and compliance in order to play it safe. Thus, in this paper at first technical architectures for using mobile devices in enterprise IT are reviewed. Thereafter a set of compliance rules is presented and, as major contribution, technical measures are explained that enable a company to integrate mobile devices into enterprise IT while still complying with these rules comprehensively. Depending on the company context, one or more of the technical architectures have to be chosen impacting the specific technical measures for compliance as elaborated in this paper. Altogether this paper, for the first time, correlates technical architectures for using mobile devices at the workplace with technical measures to assure data security and compliance according to a comprehensive set of rules.
In service-oriented architectures the management of services is a crucial task during all stages of IT operations. Based on a case study performed for a group of finance companies the different aspects of service management are presented. First, the paper discusses how services must be described for management purposes. In particular, a special emphasis is placed on the integration of legacy/non web services. Secondly, the service lifecycle that underlies service management is presented. Especially, the relation to SOA governance and an appropriate tool support by registry repositories is outlined.
The Gravitational Search Algorithm is a swarm-based optimization metaheuristic that has been successfully applied to many problems. However, to date little analytical work has been done on this topic.
This paper performs a mathematical analysis of the formulae underlying the Gravitational Search Algorithm. From this analysis, it derives key properties of the algorithm's expected behavior and recommendations for parameter selection. It then confirms through empirical examination that these recommendations are sound.
This article discusses event monitoring options for heterogeneous event sources as they are given in nowadays heterogeneous distributed information systems. It follows the central assumption, that a fully generic event monitoring solution cannot provide complete support for event monitoring; instead, event source specific semantics such as certain event types or support for certain event monitoring techniques have to be taken into account. Following from this, the core result of the work presented here is the extension of a configurable event monitoring (Web) service for a variety of event sources. A service approach allows us to trade genericity for the exploitation of source specific characteristics. It thus delivers results for the areas of SOA, Web services, CEP and EDA.
Heterogeneity has to be taken into account when integrating a set of existing information sources into a distributed information system that are nowadays often based on Service- Oriented Architectures (SOA). This is also particularly applicable to distributed services such as event monitoring, which are useful in the context of Event Driven Architectures (EDA) and Complex Event Processing (CEP). Web services deal with this heterogeneity at a technical level, also providing little support for event processing. Our central thesis is that such a fully generic solution cannot provide complete support for event monitoring; instead, source specific semantics such as certain event types or support for certain event monitoring techniques have to be taken into account. Our core result is the design of a configurable event monitoring (Web) service that allows us to trade genericity for the exploitation of source specific characteristics. It thus delivers results for the areas of SOA, Web services, CEP and EDA.
Nowadays, REST is the most dominant architectural style of choice at least for newly created web services. So called RESTfulness is thus really a catchword for web application, which aim to expose parts of their functionality as RESTful web services. But are those web services RESTful indeed? This paper examines the RESTfulness of ten popular RESTful APIs (including Twitter and PayPal). For this examination, the paper defines REST, its characteristics as well as its pros and cons. Furthermore, Richardson's Maturity Model is shown and utilized to analyse those selected APIs regarding their RESTfulness. As an example, a simple, RESTful web service is provided as well.