Refine
Year of publication
- 2018 (40) (remove)
Document Type
- Bachelor Thesis (9)
- Article (7)
- Master's Thesis (7)
- Working Paper (5)
- Conference Proceeding (4)
- Report (4)
- Book (2)
- Part of a Book (1)
- Lecture (1)
Language
- German (40) (remove)
Has Fulltext
- yes (40)
Is part of the Bibliography
- no (40)
Keywords
- E-Learning (5)
- Grader (4)
- Autobewerter (3)
- Computerunterstütztes Lernen (3)
- E-Assessment (3)
- Programmierung (3)
- Variabilität (3)
- Übung <Hochschule> (3)
- Achtsamkeit (2)
- Agilität <Management> (2)
Wir führen schrittweise in den Einsatz einer Java-Bibliothek ein, um Variationspunkte und deren Wertemengen in automatisiert bewerteten Programmieraufgaben zu spezifizieren und als XML-Datei zu exportieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält.
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
Wir beschreiben eine Möglichkeit, Variationspunkte und deren Varianten in automatisiert bewerteten Programmieraufgaben zu spezifizieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält. Die Varianten werden automatisch gebildet, indem an definierten Variationspunkten immer wieder andere, konkrete Werte eingesetzt werden. Schon bei sehr einfachen Aufgaben bestehen Abhängigkeiten zwischen den einzelnen Variationspunkten, die bei der Wahl der konkreten Werte zu berücksichtigen sind. Zudem kann die Menge der gültigen Werte auch bei einfachen Aufgaben so groß werden, dass die vollständige Auflistung aller Wertkombinationen an Ressourcengrenzen scheitert. Die vorgestellte Spezifikation verwendet eine kompakte und für Aufgabenautoren verständliche Sprache, die eine automatische Auswahl von korrekten, den Abhängigkeiten gehorchenden Wertekombinationen ermöglicht. Die Sprache ist unabhängig von den Erfordernissen eines bestimmten Autobewerters und versetzt Frontend- und Backendsysteme in verschiedenen technischen Ökosystemen in die Lage, ausgewählte Werte einer sehr großen Wertemenge zu generieren, deren Abhängigkeiten zu prüfen, sowie ggf. bestimmte Wertbelegungen in einem benutzerfreundlichen Dialog auszuwählen. Wir unterstützen Variationspunkte mit endlichen Mengen vorzugebender diskreter Werte sowie kontinuierliche Wertebereiche, die durch eine vorzugebende Anzahl von Samples diskretisiert werden. Wir beschäftigen uns insbesondere mit der Frage, wie lange Auflistungen gültiger Wertkombinationen durch die Angabe von Ableitungsvorschriften ersetzt werden können. Ein besonderes Augenmerk legen wir auf eine redundanzfreie Beschreibung der Variantenmenge. Die Notation setzt auf XML und Javascript in der Annahme, dass diese Technologien in allen beteiligten Systemen zur Verfügung stehen können.
In der vorliegenden Masterarbeit geht es um die automatische Annotation von Bildern mithilfe der Kategoriesystematik der Wikipedia. Die Annotation soll anhand der Bildbeschriftungen und ihren Textreferenzen erfolgen. Hierbei wird für vorhandene Bilder eine passende Kategorie vorgeschlagen. Es handelt sich bei den Bildern um Abbildungen aus naturwissenschaftlichen Artikeln, die in Open Access Journals veröffentlicht wurden. Ziel der Arbeit ist es, ein konzeptionelles Verfahren zu erarbeiten, dieses anhand einer ausgewählten Anzahl von Bildern durchzuführen und zu evaluieren. Die Abbildungen sollen für weitere Forschungsarbeiten und für die Projekte der Wikimedia Foundation zur Verfügung stehen. Das Annotationsverfahren findet im Projekt NOA - Nachnutzung von Open Access Abbildungen Verwendung.
Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung einer Entwicklungsumgebung als Android-App für den Einsatz im Schulunterricht. Die Anwendung ist mit der natürlichen Sprache zu bedienen und stellt eine Entwicklungsumgebung für das logische Programmierparadigma zur Verfügung. Die entstandene Software wird in einem Feldversuch mit Kindern der 4. Klassenstufe an einer Grundschule erprobt. Da Änderungen und neue Erkenntnisse möglichst effizient in die Software einfließen sollen, wurde die App nach der Clean Architecture umgesetzt. Die Ergebnisse aus der Feldforschung zeigen, dass die Schülerinnen und Schüler mit hoher Motivation an einem fachlichen Thema gearbeitet haben. Sie erlernten die Konzepte der Fakten, Regeln und der Wissensbasis und vertieften damit ihr Wissen zu geometrischen Formen in der Mathematik. Der Architekturansatz der App stellt dessen Vorteile deutlich an Fallbeispielen dar. Die Arbeit zeigt das spannende Feld der angewandten Wissenschaft, das die beiden Disziplinen Informatik und Didaktik verknüpft.
Informationskompetenz ist eine Schlüsselkompetenz für gesellschaftliche Teilhabe. Unter dem Eindruck des „Framework for Information Literacy for Higher Education“ der ACRL verändert sich das Verständnis von Informationskompetenz. Die Angebote zur Förderung von Informationskompetenz von Universitäts- und Hochschulbibliotheken müssen besser in die Lehre in den Disziplinen integriert werden. E-Learning-Formate eigenen sich hierfür besonders gut. Für die gelungene Gestaltung von E-Learning-Angeboten sind Kenntnisse über Lerntheorien und Mediendidaktik notwendig. Auf eine breite theoretische Betrachtung folgt der Entwurf mediendidaktischer Konzepte für ein E-Learning-Angebot zur Förderung von Informationskompetenz an der Universitätsbibliothek der Freien Universität Berlin.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Dieser Beitrag fasst drei explorative Befragungen zusammen, in denen unter anderem Zusammenhänge von ehrenamtlichem Engagement mit verschiedenen Variablen überprüft wurden. Die Überprüfung dieser Zusammenhänge betrifft sowohl personaldiagnostische Variablen als auch korruptionsrelevante Variablen. Konkret wurde ehrenamtliches Engagement auf Zusammenhänge mit dem Fünf-Faktoren-Modell der Persönlichkeit, mit emotionaler Kompetenz, mit Korruptionswahrnehmung und mit der Einstellung zu Korruption überprüft. Befragt wurden Studierende der Betriebswirtschaftslehre, der Wirtschaftsinformatik, der Psychologie, der Rechtswissenschaften sowie Auszubildende der Polizei. Ehrenamtliches Engagement besitzt insgesamt nur eine geringe praktische Bedeutung für die Personaldiagnostik und ebenfalls nur eine geringe Bedeutung für die Korruptionsprävention. Derzeit ehrenamtlich engagierte Testpersonen weisen eine geringere Affinität gegenüber Korruption auf als Testpersonen ohne derzeitiges ehrenamtliches Engagement. Relativiert werden diese Ergebnisse jedoch durch ihre Widersprüchlichkeit über die drei Befragungen hinweg und durch die durchgängig geringen Effekthöhen. Wegen der geringen Effekthöhen ist die praktische Bedeutung eines ehrenamtlichen Engagements sowohl für die Personaldiagnostik als auch für die Korruptionsprävention als gering einzustufen.
Im Rahmen einer umfassenden Organisationanalyse durch das Projekt "Inklusive Beratung und Begleitung" der Hochschule Hannover wurde die Konzeptionalisierung und Praxis der Kooperationen der Jakob-Muth-Schule, anerkannte Tagesbildungsstätte aus Meppen einer näheren Betrachtung unterzogen und auf ihren Mehrwert im Kontext einer inklusiven Schullandschaft reflektiert. Anhand von Einzel- und Gruppeninterviews mit Lehrer*innen sowie pädagogischen Fachkräften konnten inklusionsförderliche und -hemmende Aspekte herausgearbeitet werden. Im Zuge einer resümierenden Betrachtung werden Ansatzpunkte zur Verbesserung der Zusammenarbeit und pädagogischen Praxis formuliert und zur Diskussion gestellt.
Der vorliegende Leitfaden ist eine Hilfestellung zur Vernehmung von erwachsenen Zeugen und Beschuldigten. Er wurde an der Hochschule für Polizei Baden-Württemberg interdisziplinär erstellt und berücksichtigt neueste wissenschaftliche Erkenntnisse sowie rechtliche, kriminalistische und psychologische Aspekte.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Wir hoffen, dass Ihnen damit die praktische Vernehmung erleichtert wird und Sie gute Ergebnisse erzielen werden.
Wir freuen uns über Ihr Feedback!
Dass Menschen bereit sind, ein Leben lang zu lernen, ist bereits in der heutigen Informations- und Wissensgesellschaft eine wichtige Voraussetzung, um in der Arbeitswelt zu bestehen, innovativ zu sein und sich weiterzuentwickeln. Die vorliegende Arbeit untersucht, inwieweit die Montessori-Pädagogik bereits Kinder und Jugendliche auf die Herausforderungen der Zukunft vorbereiten kann und ob sie den Anforderungen, die das Lebenslange Lernen stellt, gerecht wird. Zunächst werden das Phänomen des Lebenslangen Lernens, das Lernen in verschiedenen Lebensphasen und Lernsituationen sowie die Gründe und Ziele von Lebenslangem Lernen vorgestellt. Anschließend werden als Einflussfaktoren für das Gelingen Lebenslangen Lernens, und zwar die Lernmotivation, die Lernumgebung, die Lernerfahrung, das selbstgesteuerte Lernen sowie Kompetenzen skizziert. Weiter folgen ein Überblick über die Montessori-Pädagogik, deren Erziehungsziele, Grundlagen sowie Methoden. Den Abschluss der Arbeit bildet ein Vergleich der Konzepte und Prinzipien der Montessori-Pädagogik mit den Methoden, die für das Lernen am Arbeitsplatz eingesetzt werden und damit dem Lebenslangen Lernen dienen.
Lässt man sich etwas Zeit bei der Betrachtung der Märchenfigur des Froschkönigs erkennt man zwei unterschiedliche Ebenen. Die Prinzessin aus dem Märchen darf beide erfahren. Einerseits nimmt sie den Frosch als Belastung wahr. Andererseits erfährt sie in dem Frosch auch einen königlichen Aspekt, der durch die Krone symbolisiert wird. Wie kommt die Prinzessin von der empfundenen Belastung hin zur Erfahrung der „Krone des Lebens“? Die Verwandlung geschieht durch das Akzeptieren der Situation. In dem Märchen wird das Annehmen durch den Kuss symbolisiert.
Auch im normale Alltag werden Menschen mit diversen Belastungen – kleineren und größeren – konfrontiert. Das kann beispielsweise im Job, in der Familie oder auch im Straßenverkehr sein. Und es pfeifen die Spatzen von Dächern, dass Belastungen, die über einen längeren Zeitraum empfunden werden, zu diversen Krankheiten führen können. Man denke z. B. an Herz-/Kreislauferkrankungen, Angststörungen, Burnout, Süchte sowie erhöhte Aggressionsbereitschaften.
Es gibt also einen riesigen Handlungsbedarf. Mit Blick auf das Märchen „Der Froschkönig“ stellt sich die Frage, ob in Situationen, die als Belastung empfunden werden, vielleicht auch etwas Königliches verborgen ist.
Im Arbeitspapier wird im Sinne der Achtsamkeit davon ausgegangen, dass sich die Krone des Lebens in Situationen erst dann zeigen kann, wenn sie „geküsst“ bzw. angenommen werden, weil sich dann eine neue, eine tiefere Dimension zeigt, die man sich mit dem Verstand nicht erschließen kann.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
In den letzten Jahren wurden verstärkt neue Forschungsinformationssysteme (FIS) geplant, aufgebaut und in Betrieb genommen. Da diese IT-gestützten Informationssysteme eine Vielzahl an Forschungsinformationen beinhalten sowie verschiedenen Zielen dienen können, bietet eine Sammlungsrichtlinie die Möglichkeit, die Entscheidungen auf inhaltlicher Ebene verbindlich und transparent darzustellen. Derartige Richtlinien existieren zum Beispiel bereits für Sammlungen in Bibliotheken und Museen. Die Bachelorarbeit zieht Parallelen zu diesen Bereichen und beschreibt deren Ziele und Inhalte.
In einem praxisbezogenen Teil wurde die Sammlungsrichtlinie für das Informationssystem Göttingen Research Online (GRO) erstellt. Die Vorgehensweise, Hindernisse und Erfahrungen werden zusammenfassend wiedergegeben. Ergänzt werden die Erkenntnisse durch eine Befragung unter deutschen Hochschulen und Forschungseinrichtungen.
Abschließend ist eine Empfehlung für eine FIS-Sammlungsrichtlinie entstanden, die Hinweise, Bestandteile und Best Practices enthält und somit anderen Institutionen als Leitfaden dienen kann.
Hintergrund: Das System der pflegerischen Versorgung in Deutschland befindet sich in einer Umbruchphase. Seit Jahren wird über eine Weiterentwicklung der Kooperation im Gesundheitswesen und damit über eine Veränderung der Aufgabenverteilung zwischen den Gesundheitsberufen diskutiert. Im Jahr 2008 hat der Gesetzgeber die Einführung von Modellvorhaben zur Übertragung von Heilkunde auf Pflegende gem. § 63 Abs. 3c SGB V ermöglicht. Die Umsetzung verläuft sehr schleppend. Das Ziel der Untersuchung war, die Gründe für diese schleppende Umsetzung aus Sicht der gesetzlichen Krankenkassen zu analysieren.
Methode: Quantitative Befragung aller gesetzlichen Krankenkassen (n=124) in Deutschland.
Ergebnisse: Zur Sicherstellung der Versorgung halten 94 % der Krankenkassen die Übertragung von Heilkunde auf nichtärztliche Leistungserbringer für einen sinnvollen Ansatz. Sie wird von 96 % der Krankenkassen als sehr wichtig empfunden. Zwar befürworten 96 % der Krankenkassen grundsätzlich die Durchführung von Modellvorhaben, tatsächlich sind aber nur 8 % an derartigen Verträgen beteiligt; 71 % der Krankenkassen planen auch keine eigenen Modellvorhaben für die Zukunft.
Als mögliche Ursachen für die bislang schleppende Umsetzung werden aus Sicht der GKV insbesondere rechtliche Hürden (90 %), Widerstand durch ärztliche Standesvertreter (84 %), ungeklärte Finanzierungs- (74 %) und Haftungsfragen (70 %) sowie nicht-praxistaugliche Regelungen in der G-BA-Richtlinie (79 %) und im Gesetz (85 %) angeführt. Weniger als die Hälfte (46 %) der Krankenkassen vermutet hohe Kosten als Ursache für die schleppende Umsetzung.
Diskussion: Die vom Gesetzgeber im aktuellen Pflegeberufereformgesetz (PflBRefG) vorgenommenen Änderungen, insbesondere die Tatsache, dass Krankenkassen entsprechende Modellvorhaben bis zum 31. Dezember 2020 vereinbaren und durchführen sollen, sind vor dem Hintergrund der geäußerten Kritik als zielführend und adäquat zu bezeichnen.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Viele Unternehmen experimentieren mit Agilität. Gleichzeitig ist die Unsicherheit groß, wieviel Agilität ein QM-System nach ISO 9001 tatsächlich verträgt. Ein gemeinsames Forschungsprojekt der Hochschule Hannover und der DGQ hat sich zum Ziel gesetzt, hier mehr Sicherheit zu geben. Aus Interviews mit Vertretern von Unternehmen, welche teilweise agil arbeiten, entstand erstmals eine klare Definition von Agilität, agilen Praktiken und agilen Prozessen im Organisationskontext. Die daraus entwickelten Leitlinien für die Integration von agilen Vorgehensweisen in QM-Systeme beweisen schlüssig, dass agile Prozesse grundsätzlich nach den ISO 9001-Kriterien zertifizierungsfähig ausgestaltet werden können.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö besteht aus 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden zwei Datenerhebungen geschildert. Mit einer ersten Datenerhebung wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.