Refine
Year of publication
- 2018 (40) (remove)
Document Type
- Bachelor Thesis (9)
- Article (7)
- Master's Thesis (7)
- Working Paper (5)
- Conference Proceeding (4)
- Report (4)
- Book (2)
- Part of a Book (1)
- Lecture (1)
Language
- German (40) (remove)
Has Fulltext
- yes (40)
Is part of the Bibliography
- no (40) (remove)
Keywords
- E-Learning (5)
- Grader (4)
- Autobewerter (3)
- Computerunterstütztes Lernen (3)
- E-Assessment (3)
- Programmierung (3)
- Variabilität (3)
- Übung <Hochschule> (3)
- Achtsamkeit (2)
- Agilität <Management> (2)
Unverständliche Texte sind ein täglicher Alptraum vieler Millionen Erwachsener in deutschsprachigen Ländern. Ob Behördenbrief, Beipackzettel oder Betriebsanleitung: Man mag das Kauderwelsch nicht lesen. Dabei ist es gar nicht so kompliziert, diesen Ärger aus der Welt zu schaffen. Dieses Buch berichtet von Hintergründen und zeigt, wie man es macht.
Einfluss von Industrie 4.0 auf die Anwendbarkeit von Lastmanagement in der industriellen Produktion
(2018)
Technische Energiemanagementsysteme (kurz und im Folgenden tEnMS) in der produzierenden Industrie dienen heute meinst dem Messen, Speichern und Auswerten von Energieverbrauchsdaten. Allerdings besteht auch die Möglichkeit der Vorhersage und aktiven Einflussnahme auf die Energieaufnahme von Produktionsumgebungen durch das tEnMS. Derartige Funktionen werden als Prognose- und Lastmanagementfunktionen bezeichnet. Industrielle Produktionsumgebungen erfahren im Rahmen von Industrie 4.0 einen Wandel. Dieser Beitrag soll aufzeigen, wie tEnMS durch den beschriebenen Wandel beeinflusst werden und welche Chancen sich daraus für zukünftige tEnMS ergeben.
Studien zeigen, dass Anhänger der PEGIDA-Bewegung die Medienberichterstattung als unangemessen wahrnehmen und ihr misstrauen. Diese Wahrnehmung und daraus resultierende kognitive, affektive und konative Konsequenzen wurden in einer standardisierten Online-Befragung untersucht (n= 800). Es zeigt sich, dass Anhänger der PEGIDA-Bewegung der Berichterstattung über PEGIDA mehr misstrauen als PEGIDA-Gegner. Diese Wahrnehmung wiederum hat politisch relevante Konsequenzen: Je stärker PEGIDA-Anhänger und neutral Eingestellte der Berichterstattung misstrauen, desto weniger Vertrauen bringen sie den Medien allgemein entgegen, desto unzufriedener sind sie mit der Demokratie in Deutschland und desto wütender sind sie auf die Berichterstattung. Die wütenden Reaktionen korrelieren mit einer Zustimmung zu radikalen Protestformen, was wiederum die Beteiligung an den Protestmärschen erhöht. Somit zeigen die Befunde, dass das Misstrauen in die Berichterstattung über PEGIDA auch über deren Anhängerkreis hinaus eng verbunden ist mit erodierendem Vertrauen in Medien und Politik sowie mit der Bereitschaft zu radikalen Protestformen.
Bibliotheken
(2018)
Gerade für Historiker*innen, die für ihre Arbeit vielfach nicht nur Fachliteratur, sondern auch Quelleneditionen und handschriftliche Materialien benötigen, sind Bibliotheken die zentralen Informationseinrichtungen. Der Beitrag stellt in kompakter Form die wichtigsten digitalen Informationsressourcen und Infrastruktureinrichtungen für die Geschichtswissenschaft vor.
In diesem Beitrag werden Spezifika der Hochschulen und Ausbildungseinrichtungen, die in der KIBA organisiert sind, mit ihren Studiengängen, Weiterbildungsprogrammen, Forschungsschwerpunkten und didaktischen Konzepten vorgestellt. Es wird gezeigt, wie diese Einrichtungen mit ihrer Berufungs- und Einstellungspolitik, strategischen Allianzen und übergeordneten fachlichen und politischen Zusammenschlüssen sowie mit der Profilierung ihrer Studiengänge auf neue Anforderungen des Marktes und der Berufspraxis reagieren. Berücksichtigt werden dabei Positionen und Strategien zur Digitalisierung aus der Politik sowie ihren Beratungsgremien, in der sich die Inhalte bibliotheks- und informationswissenschaftlicher Ausbildung und Forschung verorten lassen. Insgesamt wird deutlich, wie schwierig es heute ist zu definieren, was die Bibliotheks- und die Informationswissenschaft im Kern ausmacht, um im Spannungsfeld der Herausforderungen an wissenschaftliche und öffentliche Bibliotheken, den Anforderungen der Wirtschaft im Bereich Informations- und Wissensmanagement, der Digitalisierung und Langzeitarchivierung von Kulturerbe, um nur einige Felder zu nennen, Ausbildungsprogramme bedarfsgerecht zu profilieren und die bibliotheks- und informationswissenschaftlichen Institute, Fachbereiche und Ausbildungseinrichtungen politisch abzusichern und ausreichend mit Ressourcen auszustatten.
Digitale Marktplätze können die Kosten einer Handelstransaktion, die sog. Transaktionskosten, senken. Durch weiteren technischen Fortschritt und intelligente Handelsbots wird die Nutzung des Marktmechanismus immer kostengünstiger. Dieser Artikel gibt einen Überblick über die bisherige Entwicklung von Digitalen Marktplätzen der Agrar- und Ernährungswirtschaft und eine mögliche Zukunft. Vermutlich werden die Transaktionskosten weiter fallen, sodass weitere Effizienzgewinne durch die vermehrte Nutzung von Märkten möglich sein werden.
Bereits zum dritten Mal in Folge nahm eine zehnköpfige Gruppe Studierender der Hochschule Hannover aus dem Vollzeit- sowie dem berufsbegleitenden Bachelor-Studiengang Informationsmanagement, in Begleitung zweier Dozentinnen, an der BOBCATSSS-Konferenz teil. Nachdem bisher ausschließlich auf der Hochschulwebseite und tagesaktuell im Blog über Erfahrungen und Erlebnisse während der drei BOBCATSSS-Exkursionen berichtet wurde, folgt hiermit nun ein zusammenhängender Beitrag über die diesjährige Konferenz vom 24. bis zum 26. Januar 2018 in Riga, Lettland. Die BOBCATSSS-Konferenz ist eine internationale Konferenz der Bibliotheks- und Informationswissenschaften. Im Gegensatz zu IFLA & Co wird sie fast ausschließlich von Studierenden wechselnder Universitäten in Europa ausgerichtet.
Foucault im Jobcenter : Supervision in einem widersprüchlichen gesellschaftlichen Feld (Teil 2)
(2018)
Ziel dieses zweiten Teils ist eine ausführliche (struktur-)hermeneutische Rekonstruktion und Interpretation des Falles, den wir 2017 im ersten Teil dieses Artikels zur Illustration einer historischen, gesellschaftskritischen und makrosoziologischen Perspektive auf den Wandel der Arbeitswelt und den aktivierenden Sozialstaat verwendet hatten. Diese Perspektive tritt nun zugunsten biografischer, sozialwissenschaftlicher und pädagogischer sowie institutions- und organisationstheoretischer Interpretationen und Analysen des Feldes Jobcenter zurück. In ihm spiegeln sich die im ersten Teil beschriebenen Desintegrationsdynamiken wie in einem Brennglas wider. Die biografische Interpretation baut auf der Gestaltmehrdeutigkeit von Biografien nach Rosenthal auf, sie thematisiert die biografischen Übergänge, die eng mit der Bewältigung der Entwicklungsaufgaben korrelieren. Darüber hinaus werden sozialwissenschaftlich sowohl psychoanalytische als auch rollen-, habitus- und machttheoretische Aspekte eine wichtige Rolle spielen. In der institutions- und organisationstheoretischen Interpretation werden die Strukturen und das Beratungsverständnis der Jobcenter als gesellschaftliche Institution analysiert. Beratungswissenschaftlich und supervisionstheoretisch bedeutsam aus der Sicht der Autoren ist, dass sowohl Supervisor_innen als auch die Mitarbeitenden in den Jobcentern über biografietheoretische, sozialwissenschaftliche und sozial-pädagogischen Wissensbestände verfügen sollten, damit sie die komplexen, unverstandenen und aufgrund der Aktenlage häufig fragmentierten Biografien ihrer ‚Kund_innen‘ besser verstehen und beurteilen können. Nur dann scheint auch eine advokatorische Ethik greifen zu können, die das unverstandene Material nicht zu Ungunsten ihrer Klient_innen auslegt. Ziel dieses Artikels ist es, einen sozial- und strukturhermeneutischen Verstehenszugang in dieses für die Supervision interessante Feld zu eröffnen, der zugleich homologe Übertragungsmöglichkeiten in andere gesellschaftliche Felder ermöglichen kann.
Ein Schnittstellen-Datenmodell der Variabilität in automatisch bewerteten Programmieraufgaben
(2018)
Automatisch bewertete, variable Programmieraufgaben stellen besondere Schnittstellenanforderungen an Autobewerter (Grader) und Lernmanagementsysteme (LMS). Um Wiederverwendung von Aufgaben über Systemgrenzen hinweg zu begünstigen, schlagen wir vor, Aufgabenschablonen durch eine von allen beteiligten Systemen genutzte Middleware zu instanziieren und dabei Variabilitätsinformationen in einem Schnittstellen-Datenmodell zu transportieren. Wir stellen ein solches Datenmodell vor, welches für die Grader-unabhängige Kommunikation mit LMS ausgelegt ist und beispielhaft im Autobewerter Graja implementiert wurde. Zudem wird eine Dialogkomponente für die manuelle Werteauswahl vorgestellt, die auch bei großen Wertemengen effizient und Grader-unabhängig einsetzbar ist. Die Eignung des Dialogs und des Datenmodells wird anhand eines typischen Bewertungsszenarios diskutiert.
Hintergrund: Das System der pflegerischen Versorgung in Deutschland befindet sich in einer Umbruchphase. Seit Jahren wird über eine Weiterentwicklung der Kooperation im Gesundheitswesen und damit über eine Veränderung der Aufgabenverteilung zwischen den Gesundheitsberufen diskutiert. Im Jahr 2008 hat der Gesetzgeber die Einführung von Modellvorhaben zur Übertragung von Heilkunde auf Pflegende gem. § 63 Abs. 3c SGB V ermöglicht. Die Umsetzung verläuft sehr schleppend. Das Ziel der Untersuchung war, die Gründe für diese schleppende Umsetzung aus Sicht der gesetzlichen Krankenkassen zu analysieren.
Methode: Quantitative Befragung aller gesetzlichen Krankenkassen (n=124) in Deutschland.
Ergebnisse: Zur Sicherstellung der Versorgung halten 94 % der Krankenkassen die Übertragung von Heilkunde auf nichtärztliche Leistungserbringer für einen sinnvollen Ansatz. Sie wird von 96 % der Krankenkassen als sehr wichtig empfunden. Zwar befürworten 96 % der Krankenkassen grundsätzlich die Durchführung von Modellvorhaben, tatsächlich sind aber nur 8 % an derartigen Verträgen beteiligt; 71 % der Krankenkassen planen auch keine eigenen Modellvorhaben für die Zukunft.
Als mögliche Ursachen für die bislang schleppende Umsetzung werden aus Sicht der GKV insbesondere rechtliche Hürden (90 %), Widerstand durch ärztliche Standesvertreter (84 %), ungeklärte Finanzierungs- (74 %) und Haftungsfragen (70 %) sowie nicht-praxistaugliche Regelungen in der G-BA-Richtlinie (79 %) und im Gesetz (85 %) angeführt. Weniger als die Hälfte (46 %) der Krankenkassen vermutet hohe Kosten als Ursache für die schleppende Umsetzung.
Diskussion: Die vom Gesetzgeber im aktuellen Pflegeberufereformgesetz (PflBRefG) vorgenommenen Änderungen, insbesondere die Tatsache, dass Krankenkassen entsprechende Modellvorhaben bis zum 31. Dezember 2020 vereinbaren und durchführen sollen, sind vor dem Hintergrund der geäußerten Kritik als zielführend und adäquat zu bezeichnen.
In den letzten Jahren wurden verstärkt neue Forschungsinformationssysteme (FIS) geplant, aufgebaut und in Betrieb genommen. Da diese IT-gestützten Informationssysteme eine Vielzahl an Forschungsinformationen beinhalten sowie verschiedenen Zielen dienen können, bietet eine Sammlungsrichtlinie die Möglichkeit, die Entscheidungen auf inhaltlicher Ebene verbindlich und transparent darzustellen. Derartige Richtlinien existieren zum Beispiel bereits für Sammlungen in Bibliotheken und Museen. Die Bachelorarbeit zieht Parallelen zu diesen Bereichen und beschreibt deren Ziele und Inhalte.
In einem praxisbezogenen Teil wurde die Sammlungsrichtlinie für das Informationssystem Göttingen Research Online (GRO) erstellt. Die Vorgehensweise, Hindernisse und Erfahrungen werden zusammenfassend wiedergegeben. Ergänzt werden die Erkenntnisse durch eine Befragung unter deutschen Hochschulen und Forschungseinrichtungen.
Abschließend ist eine Empfehlung für eine FIS-Sammlungsrichtlinie entstanden, die Hinweise, Bestandteile und Best Practices enthält und somit anderen Institutionen als Leitfaden dienen kann.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Organisation der IT-Sicherheit in der Produktion : in zehn Schritten zur sicheren Produktionsanlage
(2018)
Der folgende Beitrag befasst sich mit der IT-Sicherheit von Produktionsanlagen aus Betreibersicht. Hierbei liegt der Fokus auf den organisatorischen Aspekten der IT-Sicherheit. In einer Bestandsaufnahme werden zunächst die Probleme herausgearbeitet, die entstehen, sofern sich eine Organisation im Wesentlichen auf technische Aspekte der IT-Sicherheit konzentriert. Daraus wird die Notwendigkeit organisatorischer Maßnahmen abgeleitet. Eine Betrachtung von Normen und Standards, die sich mit den organisatorischen Aspekten der IT-Sicherheit in der Produktion befassen, liefert das Grundgerüst für die Ableitung eines Maßnahmenplans. Der daraus resultierende 10-Punkte-Plan zur Umsetzung der IT-Sicherheit in der Produktion schließt den Beitrag ab.
In der Lehre kommen seit einiger Zeit Autobewerter zum Einsatz, um automatisiert oder teilautomatisiert Lösungen von Lernenden zu Programmieraufgaben zu bewerten. Aus Sicht eines Betreibers von Autobewerter-Systemen erfordert letzteres meist die Ausführung von fremdem Programmcode in der eigenen Server-Umgebung. Hierbei ist Vorsicht geboten, da fehlerhafter oder angriffslustiger Programmcode verbotene Aktionen ausführen könnte.
An der Hochschule Hannover können Studierende Lösungen zu Programmieraufgaben verschiedener Programmiersprachen über das Lernmanagementsystem "moodle" einreichen. Die angeschlossene Middleware Grappa nimmt Lösungen anschließend entgegen und leitet diese an einen Autobewerter der zugehörigen Programmiersprache weiter.
Diese Arbeit befasst sich damit, Sicherheitsrisiken bei der Ausführung von fremdem Programmcode durch Autobewerter zu identifizieren und zu vermeiden. Hierzu gilt es, mögliche Angriffe herauszustellen und aktuelle, angemessene Technologien zu finden, um diese zu verhindern. Anschließend findet mit einer Technologie die Entwicklung einer abgesicherten Ausführungsumgebung für beliebige an die Middleware Grappa angebundene Autobewerter statt. Die exemplarische Einbettung der beiden Autobewerter Graja und Praktomat in die entwickelte Ausführungsumgebung soll unter Beweis stellen, dass es sich um eine generische Lösung mit wenig Overhead handelt.
Leo A. Nefiodow, einer der angesehensten Vordenker der Informationsgesellschaft, verweist auf die großen Schäden und Verluste, die uns momentan durch psychische Störungen wie beispielsweise Angst, Depressionen, Burnout und ihre Folgen wie Gewalt, Kriminalität, Drogenmissbrauch und Erkrankungen entstehen. Die Förderung psychosozialer Gesundheit wäre somit geeignet, sowohl das Wohlbefinden des einzelnen Menschen zu verbessern als auch der Wirtschaft und der gesamten Gesellschaft einen Entwicklungsschub zu verleihen. Im Rahmen des Arbeitspapiers geht es darum, Möglichkeiten des Gegensteuerns aus dem Blickwinkel von Achtsamkeit vorzustellen. U. a. am praktischen Beispiel einer Schule wird versucht, das Wirkprinzip von Achtsamkeit zur Förderung psychosozialer Gesundheit in einer sozialen Einheit zu verdeutlichen.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö besteht aus 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden zwei Datenerhebungen geschildert. Mit einer ersten Datenerhebung wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.
Viele Unternehmen experimentieren mit Agilität. Gleichzeitig ist die Unsicherheit groß, wieviel Agilität ein QM-System nach ISO 9001 tatsächlich verträgt. Ein gemeinsames Forschungsprojekt der Hochschule Hannover und der DGQ hat sich zum Ziel gesetzt, hier mehr Sicherheit zu geben. Aus Interviews mit Vertretern von Unternehmen, welche teilweise agil arbeiten, entstand erstmals eine klare Definition von Agilität, agilen Praktiken und agilen Prozessen im Organisationskontext. Die daraus entwickelten Leitlinien für die Integration von agilen Vorgehensweisen in QM-Systeme beweisen schlüssig, dass agile Prozesse grundsätzlich nach den ISO 9001-Kriterien zertifizierungsfähig ausgestaltet werden können.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Die vorliegende Ausarbeitung befasst sich mit der Digitalisierung und der Öffnung des Kulturerbes. Anhand einer theoretischen und qualitativen Untersuchung mit Experteninterviews soll verdeutlicht werden, warum einige Kulturerbeinstitutionen wenig motiviert sind, ihre Sammlungen und Artefakte digital zu öffnen. Mit Hilfe von sieben Experteninterviews aus unterschiedlichen kulturellen Digitalisierungsbereichen soll erforscht werden, wo die Kulturerbedigitalisierung aktuell steht und welche Chancen und Risiken Digitalisierungsmaßnahmen fördern oder hemmen. Weiter werden die Ergebnisse geprüft, um daraus mobilisierende Maßnahmen zu erkennen.
An acht deutschen Hochschulen besteht heute die Möglichkeit, einen grundständigen Bachelorstudiengang Evangelische Religions- bzw. Gemeindepädagogik zu absolvieren, der je nach landeskirchlicher Tradition die kirchliche Berufsanerkennung als Diakon/in bzw. Gemeindepädagoge/-pädagogin ermöglicht. An fünf Standorten kann diese Qualifikation mit einem zweiten Abschluss in Sozialer Arbeit verbunden werden, der zu einer staatlichen Anerkennung als Sozialarbeiterin bzw. Sozialpädagoge führt. Welche Erfahrungen machen Studierende im Laufe eines Studiums der Religions- und Gemeindepädagogik? Wie gut fühlen sie sich durch das Studium auf eine anschließende eigenständige Berufstätigkeit vorbereitet? Welche Vorstellungen haben sie von den Arbeitsfeldern und Aufgabenbereichen in denen sie später arbeiten wollen? Um Antwort auf diese Fragen zu erhalten wurden die Studierenden zum Ende ihres Studiums befragt. Der vorliegende Bericht fasst zentrale Ergebnisse für den Studienstandort Hannover zusammen und vergleicht diese mit jenen anderer Hochschulstandorte.
Viele erwachsene Deutsche sind keine guten und geübten Leser. Sachtexte führen deswegen zu Unklarheiten, Fehlentscheidungen und Nachfragen. Diese Konzequenz stellt sich auch bei geübten aber fachfremden Lesern ein. Nur eine sprachliche Anpassung an Leser kann das ändern. Der Aufsatz vergleicht dazu zwei Ansätze, Einfache Sprache und Leichte Sprache. Der Autor vertritt die Auffassung, dass nur eine einfache Sprache als Lösung des genannten Dilemmas taugt. Leichte Sprache ist gegenwärtig das einzige Instrument, um Menschen mit neuronalen Schädigungen einen Inhalt zu übermitteln. Doch auch dafür nutzt sie nur eingeschränkt. Die Wissenschaft wird an diesen Themen arbeiten müssen. Sie steht erst am Anfang.
Beitrag zum Workshop "Informationskompetenz im Norden" am 01.02.2018 im Bibliotheks- und Informationssytem der Carl von Ossietzky Universität Oldenburg.
Es geht zunächst darum, welche Ansätze und Projekte die Schreibwerkstatt verfolgt, um Informations- & Schreibprozesse an der Hochschule Hannover zu fördern.
Da es gemeinsame Ziele und Zielgruppen von sowie inhaltliche Überschneidungen zwischen Bibliothek und Schreibwerkstatt gibt, werden Kooperationsbeispiele und Vorteile der Zusammenarbeit vorgestellt.
Im Social Web wird der Gatekeeper zum Gatewatcher. Unternehmen können medial eigene Inhalte an die relevanten Bezugsgruppen vermitteln, ohne auf einen Gatekeeper angewiesen zu sein. Die Relevanz der Inhalte wird allerdings durch das Publikum bestimmt. Die Nachrichtenwerttheorie, die ursprünglich auf die Selektion von Journalisten von Nachrichten geprägt war, muss uminterpretiert werden, um aktuell zu bleiben. Welche Nachrichtenfaktoren bestimmen also die Interaktion des Publikums und sorgen für wahre Relevanz in den Sozialen Medien?
Zu einer Vielzahl von Vorlesungen gibt es Übungsaufgaben, anhand derer das theoretisch erlernte Wissen noch weiter vertieft, gefestigt oder praktisch angewandt werden kann. Klassischerweise erhalten alle Studierende hierfür dieselbe Aufgabe. Allerdings gibt es gute Gründe, für alle eine jeweils individualisierte Variante zu erstellen. Da es für eine einzelne Lehrperson unmöglich ist, für alle Studierenden individuelle Aufgaben zu konzipieren, wurden in anderen Arbeiten bereits Möglichkeiten entwickelt, variable Aufgaben zu formulieren, aus denen viele unterschiedliche Varianten generiert werden können. Diese Bachelorarbeit befasst sich mit dem Entwurf und der Implementierung eines Services, der diese Generierung automatisiert durchführen kann. Er soll unabhängig von einem konkreten Frontend sein und mit beliebigen Gradern zusammenarbeiten können.
Lässt man sich etwas Zeit bei der Betrachtung der Märchenfigur des Froschkönigs erkennt man zwei unterschiedliche Ebenen. Die Prinzessin aus dem Märchen darf beide erfahren. Einerseits nimmt sie den Frosch als Belastung wahr. Andererseits erfährt sie in dem Frosch auch einen königlichen Aspekt, der durch die Krone symbolisiert wird. Wie kommt die Prinzessin von der empfundenen Belastung hin zur Erfahrung der „Krone des Lebens“? Die Verwandlung geschieht durch das Akzeptieren der Situation. In dem Märchen wird das Annehmen durch den Kuss symbolisiert.
Auch im normale Alltag werden Menschen mit diversen Belastungen – kleineren und größeren – konfrontiert. Das kann beispielsweise im Job, in der Familie oder auch im Straßenverkehr sein. Und es pfeifen die Spatzen von Dächern, dass Belastungen, die über einen längeren Zeitraum empfunden werden, zu diversen Krankheiten führen können. Man denke z. B. an Herz-/Kreislauferkrankungen, Angststörungen, Burnout, Süchte sowie erhöhte Aggressionsbereitschaften.
Es gibt also einen riesigen Handlungsbedarf. Mit Blick auf das Märchen „Der Froschkönig“ stellt sich die Frage, ob in Situationen, die als Belastung empfunden werden, vielleicht auch etwas Königliches verborgen ist.
Im Arbeitspapier wird im Sinne der Achtsamkeit davon ausgegangen, dass sich die Krone des Lebens in Situationen erst dann zeigen kann, wenn sie „geküsst“ bzw. angenommen werden, weil sich dann eine neue, eine tiefere Dimension zeigt, die man sich mit dem Verstand nicht erschließen kann.
Dass Menschen bereit sind, ein Leben lang zu lernen, ist bereits in der heutigen Informations- und Wissensgesellschaft eine wichtige Voraussetzung, um in der Arbeitswelt zu bestehen, innovativ zu sein und sich weiterzuentwickeln. Die vorliegende Arbeit untersucht, inwieweit die Montessori-Pädagogik bereits Kinder und Jugendliche auf die Herausforderungen der Zukunft vorbereiten kann und ob sie den Anforderungen, die das Lebenslange Lernen stellt, gerecht wird. Zunächst werden das Phänomen des Lebenslangen Lernens, das Lernen in verschiedenen Lebensphasen und Lernsituationen sowie die Gründe und Ziele von Lebenslangem Lernen vorgestellt. Anschließend werden als Einflussfaktoren für das Gelingen Lebenslangen Lernens, und zwar die Lernmotivation, die Lernumgebung, die Lernerfahrung, das selbstgesteuerte Lernen sowie Kompetenzen skizziert. Weiter folgen ein Überblick über die Montessori-Pädagogik, deren Erziehungsziele, Grundlagen sowie Methoden. Den Abschluss der Arbeit bildet ein Vergleich der Konzepte und Prinzipien der Montessori-Pädagogik mit den Methoden, die für das Lernen am Arbeitsplatz eingesetzt werden und damit dem Lebenslangen Lernen dienen.
Der vorliegende Leitfaden ist eine Hilfestellung zur Vernehmung von erwachsenen Zeugen und Beschuldigten. Er wurde an der Hochschule für Polizei Baden-Württemberg interdisziplinär erstellt und berücksichtigt neueste wissenschaftliche Erkenntnisse sowie rechtliche, kriminalistische und psychologische Aspekte.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Wir hoffen, dass Ihnen damit die praktische Vernehmung erleichtert wird und Sie gute Ergebnisse erzielen werden.
Wir freuen uns über Ihr Feedback!
Im Rahmen einer umfassenden Organisationanalyse durch das Projekt "Inklusive Beratung und Begleitung" der Hochschule Hannover wurde die Konzeptionalisierung und Praxis der Kooperationen der Jakob-Muth-Schule, anerkannte Tagesbildungsstätte aus Meppen einer näheren Betrachtung unterzogen und auf ihren Mehrwert im Kontext einer inklusiven Schullandschaft reflektiert. Anhand von Einzel- und Gruppeninterviews mit Lehrer*innen sowie pädagogischen Fachkräften konnten inklusionsförderliche und -hemmende Aspekte herausgearbeitet werden. Im Zuge einer resümierenden Betrachtung werden Ansatzpunkte zur Verbesserung der Zusammenarbeit und pädagogischen Praxis formuliert und zur Diskussion gestellt.
Dieser Beitrag fasst drei explorative Befragungen zusammen, in denen unter anderem Zusammenhänge von ehrenamtlichem Engagement mit verschiedenen Variablen überprüft wurden. Die Überprüfung dieser Zusammenhänge betrifft sowohl personaldiagnostische Variablen als auch korruptionsrelevante Variablen. Konkret wurde ehrenamtliches Engagement auf Zusammenhänge mit dem Fünf-Faktoren-Modell der Persönlichkeit, mit emotionaler Kompetenz, mit Korruptionswahrnehmung und mit der Einstellung zu Korruption überprüft. Befragt wurden Studierende der Betriebswirtschaftslehre, der Wirtschaftsinformatik, der Psychologie, der Rechtswissenschaften sowie Auszubildende der Polizei. Ehrenamtliches Engagement besitzt insgesamt nur eine geringe praktische Bedeutung für die Personaldiagnostik und ebenfalls nur eine geringe Bedeutung für die Korruptionsprävention. Derzeit ehrenamtlich engagierte Testpersonen weisen eine geringere Affinität gegenüber Korruption auf als Testpersonen ohne derzeitiges ehrenamtliches Engagement. Relativiert werden diese Ergebnisse jedoch durch ihre Widersprüchlichkeit über die drei Befragungen hinweg und durch die durchgängig geringen Effekthöhen. Wegen der geringen Effekthöhen ist die praktische Bedeutung eines ehrenamtlichen Engagements sowohl für die Personaldiagnostik als auch für die Korruptionsprävention als gering einzustufen.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Informationskompetenz ist eine Schlüsselkompetenz für gesellschaftliche Teilhabe. Unter dem Eindruck des „Framework for Information Literacy for Higher Education“ der ACRL verändert sich das Verständnis von Informationskompetenz. Die Angebote zur Förderung von Informationskompetenz von Universitäts- und Hochschulbibliotheken müssen besser in die Lehre in den Disziplinen integriert werden. E-Learning-Formate eigenen sich hierfür besonders gut. Für die gelungene Gestaltung von E-Learning-Angeboten sind Kenntnisse über Lerntheorien und Mediendidaktik notwendig. Auf eine breite theoretische Betrachtung folgt der Entwurf mediendidaktischer Konzepte für ein E-Learning-Angebot zur Förderung von Informationskompetenz an der Universitätsbibliothek der Freien Universität Berlin.
In der vorliegenden Masterarbeit geht es um die automatische Annotation von Bildern mithilfe der Kategoriesystematik der Wikipedia. Die Annotation soll anhand der Bildbeschriftungen und ihren Textreferenzen erfolgen. Hierbei wird für vorhandene Bilder eine passende Kategorie vorgeschlagen. Es handelt sich bei den Bildern um Abbildungen aus naturwissenschaftlichen Artikeln, die in Open Access Journals veröffentlicht wurden. Ziel der Arbeit ist es, ein konzeptionelles Verfahren zu erarbeiten, dieses anhand einer ausgewählten Anzahl von Bildern durchzuführen und zu evaluieren. Die Abbildungen sollen für weitere Forschungsarbeiten und für die Projekte der Wikimedia Foundation zur Verfügung stehen. Das Annotationsverfahren findet im Projekt NOA - Nachnutzung von Open Access Abbildungen Verwendung.
Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung einer Entwicklungsumgebung als Android-App für den Einsatz im Schulunterricht. Die Anwendung ist mit der natürlichen Sprache zu bedienen und stellt eine Entwicklungsumgebung für das logische Programmierparadigma zur Verfügung. Die entstandene Software wird in einem Feldversuch mit Kindern der 4. Klassenstufe an einer Grundschule erprobt. Da Änderungen und neue Erkenntnisse möglichst effizient in die Software einfließen sollen, wurde die App nach der Clean Architecture umgesetzt. Die Ergebnisse aus der Feldforschung zeigen, dass die Schülerinnen und Schüler mit hoher Motivation an einem fachlichen Thema gearbeitet haben. Sie erlernten die Konzepte der Fakten, Regeln und der Wissensbasis und vertieften damit ihr Wissen zu geometrischen Formen in der Mathematik. Der Architekturansatz der App stellt dessen Vorteile deutlich an Fallbeispielen dar. Die Arbeit zeigt das spannende Feld der angewandten Wissenschaft, das die beiden Disziplinen Informatik und Didaktik verknüpft.
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
Wir beschreiben eine Möglichkeit, Variationspunkte und deren Varianten in automatisiert bewerteten Programmieraufgaben zu spezifizieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält. Die Varianten werden automatisch gebildet, indem an definierten Variationspunkten immer wieder andere, konkrete Werte eingesetzt werden. Schon bei sehr einfachen Aufgaben bestehen Abhängigkeiten zwischen den einzelnen Variationspunkten, die bei der Wahl der konkreten Werte zu berücksichtigen sind. Zudem kann die Menge der gültigen Werte auch bei einfachen Aufgaben so groß werden, dass die vollständige Auflistung aller Wertkombinationen an Ressourcengrenzen scheitert. Die vorgestellte Spezifikation verwendet eine kompakte und für Aufgabenautoren verständliche Sprache, die eine automatische Auswahl von korrekten, den Abhängigkeiten gehorchenden Wertekombinationen ermöglicht. Die Sprache ist unabhängig von den Erfordernissen eines bestimmten Autobewerters und versetzt Frontend- und Backendsysteme in verschiedenen technischen Ökosystemen in die Lage, ausgewählte Werte einer sehr großen Wertemenge zu generieren, deren Abhängigkeiten zu prüfen, sowie ggf. bestimmte Wertbelegungen in einem benutzerfreundlichen Dialog auszuwählen. Wir unterstützen Variationspunkte mit endlichen Mengen vorzugebender diskreter Werte sowie kontinuierliche Wertebereiche, die durch eine vorzugebende Anzahl von Samples diskretisiert werden. Wir beschäftigen uns insbesondere mit der Frage, wie lange Auflistungen gültiger Wertkombinationen durch die Angabe von Ableitungsvorschriften ersetzt werden können. Ein besonderes Augenmerk legen wir auf eine redundanzfreie Beschreibung der Variantenmenge. Die Notation setzt auf XML und Javascript in der Annahme, dass diese Technologien in allen beteiligten Systemen zur Verfügung stehen können.
Wir führen schrittweise in den Einsatz einer Java-Bibliothek ein, um Variationspunkte und deren Wertemengen in automatisiert bewerteten Programmieraufgaben zu spezifizieren und als XML-Datei zu exportieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält.