Refine
Year of publication
Document Type
- Article (168)
- Working Paper (105)
- Bachelor Thesis (89)
- Book (57)
- Report (40)
- Master's Thesis (31)
- Periodical Part (29)
- Conference Proceeding (27)
- Part of a Book (26)
- Study Thesis (14)
Language
- German (633) (remove)
Keywords
- Milchwirtschaft (35)
- Bibliothek (31)
- Molkerei (27)
- Digitalisierung (22)
- Ausbildung (21)
- Logistik (20)
- Informationsmanagement (17)
- E-Learning (16)
- Herbarium (16)
- Herbar Digital (15)
Mehr als 3,5 Millionen Menschen verbringen an deutschen Hochschulen den Großteil ihres Tages und sind hier gesundheitlichen Belastungen ausgesetzt. Die Rahmenbedingungen an Hochschulen können erheblichen Einfluss auf die Gesundheit der Studierenden und Beschäftigten haben. Die soziale Verantwortung der Fakultät V gegenüber den dort Studierenden und Beschäftigten hat zur Initiierung des Projektes der „Gesundheitsfördernden Fakultät V – Campus Kleefeld“ geführt.
Das Projekt zielt auf den Erhalt bzw. die nachhaltige Förderung der Gesundheit und Gesundheitskompetenz der dort lokalisierten Statusgruppen ab und möchte damit insbesondere die Motivation und Zufriedenheit der Studierenden und Beschäftigten an der Fakultät V unterstützen. Dieses Handbuch richtet sich an Fakultäten, die Interesse an einer langfristigen und nachhaltigen Implementierung gesundheitsförderlicher Maßnahmen für Studierende und/oder Beschäftigte haben und nach einer greifbaren sowie praxisnahen Unterstützung suchen.
Die Bachelorarbeit befasst sich mit dem Generieren kurzer fröhlicher und harmonischer Musikstücke mittels des Einsatzes genetischer Algorithmen. Dabei werden die Evolutionsprozesse der Biologie nachgeahmt. In der Programmiersprache Java, unter der Verwendung der Open-Source-Programmierbibliothek JFugue, sind dafür die einzelnen Zyklusphasen entworfen und implementiert worden.
Die Vereinigung der Biologie, der Kunst und der Informatik wird damit erreicht, um etwas ästhetisch Wirksames zu schaffen und stellt den besonderen Reiz der Arbeit dar.
Öffentliche Bibliotheken sind in der Digitalen Bildung von großer Bedeutung. Sie vermitteln digitale Kompetenzen, nutzen zunehmend neue Technologien und verleihen digitale Medien. Die Arbeit befasst sich mit der Förderung und Finanzierung digitaler Angebote in Bibliotheken. Zu Beginn wird ein Überblick über die Bibliotheksgesetzgebung in Deutschland gegeben. In diesem Zusammenhang wird die Forderung der Bibliotheken nach einer Normierung zur Pflichtaufgabe für Kommunen erörtert und ein Vergleich mit den europäischen Ländern Dänemark und Finnland gezogen. Eine Untersuchung der Drittmittelförderung auf Landesebene, Bundesebene und der Europäischen Kommission zeigt die Verortung der Bibliotheken in Förderprogrammen auf. Im Anschluss werden anhand von Best-Practice-Beispielen alternative Finanzierungsmöglichkeiten dargestellt. Meinungen von Vertretern aus Bibliotheken weisen auf die Vorteile und Nachteile von Drittmittelförderung, Fundraising, Rechtsformwechsel, Integration in die Stadtentwicklung oder die Entwicklung von Bibliothekskonzeptionen, Bibliotheksentwicklungsplänen sowie die Regelung durch Kulturfördergesetze hin. Ausgehend von den Ergebnissen der untersuchten Finanzierungmöglichkeiten wird abschließend die Notwendigkeit von Bibliotheksgesetzen diskutiert. Hieraus ergibt sich, dass Bibliotheksgesetze für eine einheitliche und zukunftsfähige Entwicklung der Bibliotheken in der Digitalen Bildung notwendig sind. Zugleich wird deutlich, dass die derzeit bestehenden Gesetze diese Anforderungen nicht leisten.
Das Stufenmodell „Komplexitätsstufen von aktivierenden Lernressourcen“ wurde von einem Projektteam der Fachhochschule Hannover für die Produktion von E-Learning Materialien entwickelt. Die Bachelorarbeit soll beantworten, ob das Modell in der Praxis anwendbar ist. Hierfür wird eine Analyse des Stufenmodells angestrebt.
Um die Anwendbarkeit zu überprüfen, wird das Stufenmodell mit Beispielen aus wissenschaftlichen Bibliotheken abgeglichen. Die Beispiele basieren auf Lernressourcen, die aus Bibliotheken entnommen werden, die mittels E-Learning Informationskompetenz vermitteln.
Für die Analyse werden die Angebote anhand der Parameter und der Lernziele des Stufenmodells kategorisiert. Um die Ergebnisse anwendbar zu machen, wird weiterhin ein Konzept für die Förderung von Informationskompetenz mit E-Learning Werkzeugen vorgeschlagen.
Die Analyse des Stufenmodells zeigt auf, dass das Modell eine gute Orientierung ist, um E-Learning Ressourcen zu kategorisieren. Der Parameter Komplexität eignet sich, um die Ressourcen umfassend abzubilden, da die meisten Beispiele in das Modell einsortiert werden
können. Der Schwachpunkt des Modells besteht jedoch darin, dass zu viele Parameter berücksichtigt werden, die sich gegenseitig ausschließen können.
Die Ergebnisse der Analyse werden abschließend zu einem Konzept für Bibliotheken zusammengefasst. Die Theorien der Didaktik, sowie das Schwellenkonzept der Association of College & Research Libraries dienen hierbei als Grundlage. Dies zeigt auf, dass Informationskompetenz mit E-Learning Werkzeugen vermittelt werden und das Stufenmodell als Instrument dienlich sein kann.
Die Mitgliederversammlung der Deutschen Gesellschaft für Supervision und Coaching e. V. (DGSv) stand 2020 äußerlich im Zeichen von Covid-19 und damit Social Distancing, inhaltlich im Zeichen der konsequenten Fortführung begonnener Strategie- und Modernisierungsprozesse des Berufs- und Fachverbandes. Gleichzeitig aktualisierten diese Prozesse die Identitätsfrage des Verbandes.
Cora Baltussen in den USA : Lernerfahrungen für die Supervision in den Niederlanden und Deutschland
(2021)
Cora Baltussen unternahm - wie zahlreiche europäische Sozialarbeitende - Anfang der 1950er Jahre eine 18-monatige Studienreise in die USA, um Casework und Supervision zu erlernen. Dieser Beitrag wertet ihren Summerreport von 1953 aus, der als Archivalie erhalten ist. So können ihre Lernerfahrungen in der historisch-kritischen Rekonstruktion kontextualisiert und in den Diskurs eingeordnet werden. Dabei werden erste Differenzierungen der frühen Supervisionsgeschichte ebenso sichtbar wie prägende Begegnungen und entstehende Netzwerke, die die Supervisionsentwicklung in Deutschland maßgeblich beeinflussten.
Das Forschungscluster Smart Data Analytics stellt in dem vorliegenden Band seine Forschung aus den Jahren 2019 und 2020 vor. In der ersten Hälfte des Bandes geben 20 Kurzporträts von laufenden oder kürzlich abgeschlossenen Projekten einen Überblick über die Forschungsthemen im Cluster. Enthalten in den Kurzporträts ist eine vollständige, kommentierte Liste der wissenschaftlichen Veröffentlichungen aus den Jahren 2019 und 2020. In der zweiten Hälfte dieses Bandes geben vier längere Beiträge exemplarisch einen tieferen Einblick in die Forschung des Clusters und behandeln Themen wie Fehlererkennung in Datenbanken, Analyse und Visualisierung von Sicherheitsvorfällen in Netzwerken, Wissensmodellierung und Datenintegration in der Medizin, sowie die Frage ob ein Computerprogramm Urheber eines Kunstwerkes im Sinne des Urheberrechts sein kann.
Das Forschungscluster Industrie 4.0 stellt in acht Beiträgen aktuelle Ergebnisse aus seinen vielfältigen Forschungsprojekten vor. Es werden virtuelle Techniken in der Produktentwicklung, Lehrkonzepte für Industrie 4.0, Energy Harvesting bei Antennen, Energiemanagement in Produktionsanlagen, firmenübergreifende IT-Security Anforderungen, dezentral gesteuerte Produktionsprozesse und Spracherkennung mit Mikrocontrollern behandelt.
Die vergleichende Fallstudie untersucht die Auswirkungen des Einsatzes von Videokonferenzsoftware (VKS) in einer kooperativen Lernumgebung in einem Masterseminar der Hochschule Hannover im Studiengang Unternehmensentwicklung. Es wurden 13 problemzentrierte Interviews mit Teilnehmenden eines Online- und eines Präsenzkurses geführt. Die gewonnenen Daten aus den Interviewaussagen wurden unter Anwendung des an der Hochschule eingesetzten Evaluationsfragebogens auf Plausibilität geprüft. Es wurden acht Probanden aus dem Onlinekurs und fünf Probanden aus dem vorherigen Präsenzkurs befragt. Die Interviews wurden über eine qualitative Inhaltsanalyse ausgewertet. Die zentralen
Ergebnisse waren, dass das Teleteaching zwar funktioniert, die Onlinestudierenden aber eine niedrigere Aufmerksamkeit, eine gehemmte aktive Beteiligung, eine geringere Interaktion zwischen den Studierenden und eine erschwerte Interaktion in den Gruppenarbeiten wahrnehmen. Als größte Nachteile wurden die fehlenden persönlichen Kontakte und die niedrige Aufmerksamkeit identifiziert. Als größter Vorteil erwies sich die erhöhte Flexibilität durch den ersparten Anfahrtsweg. Ein für Teleteaching zentraler Erfolgsfaktor ist, dass die Kameras auch bei den Teilnehmenden angeschaltet sein sollten, damit die Aufmerksamkeit und die aktive Beteiligung gefördert werden. Zwölf der Probanden stuften den VKS-Einsatz als sinnvolle Ergänzung für Seminare ein. Präsenzseminare sind aber keinesfalls durch Onlineseminare zu ersetzen.
In diesem Beitrag werden die Ergebnisse einer Personalbefragung österreichischer Polizisten und Polizistinnen in Ausbildung geschildert, bei denen die Einstellung zu Korruption erhoben wurde. Weiterhin wurden Variablen wie Geschlecht, Alter und Bildungsgrad erhoben, die in Hellfeldforschung zu Korruption häufig als Merkmale von Korruptionstätern und Korruptionstäterinnen genannt werden. Im Fokus dieses Beitrags steht unter anderem die Frage, inwieweit sich Befunde aus dem Hellfeld von Korruption im Dunkelfeld abbilden. Zur Klärung dieser Frage werden Merkmale aus dem Hellfeld der Korruptionstäter und Korruptionstäterinnen auf eine Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption im Dunkelfeld überprüft. Zudem wird in diesem Beitrag die Frage geklärt, wie die Polizisten und Polizistinnen in Ausbildung hinsichtlich der Einstellung zu Korruption im Vergleich mit der Allgemeinbevölkerung Österreichs abschneiden. Polizisten und Polizistinnen in Ausbildung sind für das Bundesamt zur Korruptionsprävention und Korruptionsbekämpfung (kurz: BAK) die größte Zielgruppe bei der Ausbildung und Weiterbildung öffentlich Bediensteter in Österreich.
Die Ergebnisse lassen erkennen, dass sich die Befunde aus dem Hellfeld von Korruption nicht im Dunkelfeld abbilden, denn die überprüften Variablen weisen insgesamt betrachtet keine substanzielle Ursache-Wirkungs-Beziehung mit der Einstellung zu Korruption auf. Hinsichtlich des Vergleichs der österreichischen Polizisten und Polizistinnen in Ausbildung mit der Allgemeinbevölkerung Österreichs zeigen sich nur geringfügige Unterschiede in der Einstellung zu Korruption. Tendenziell lehnen die Polizisten und Polizistinnen in Ausbildung Korruption eher ab als die Allgemeinbevölkerung Österreichs.
Vor der Abgabe einer Studien- oder Abschlussarbeit ist dringend eine sorgfältige Überarbeitung in Form einer Endredaktion vorzunehmen, um eine gute Bewertung der Arbeit nicht zu gefährden. Dies ist einfach; denn das Vorgehen ist schlicht und wenig aufwändig. Daher wäre es besonders ärgerlich, einfache Fehler nicht zu beheben und dafür Abzüge bei der Bewertung der Arbeit hinzunehmen. Für eine Endredaktion wird hiermit eine Anleitung vorgelegt.
Die Gesellschaft ist geprägt von einem zunehmenden Bedürfnis nach Mitbestimmung und damit auch Beteiligung. In Zeiten mangelnder Wohnangebote ist das Interesse besonders groß, wenn bedeutsame Baumaßnahmen thematisiert werden und große Veränderungen mit sich bringen.
Die positive Resonanz auf innerstädtische Immobilienprojekte ist alles andere als selbstverständlich, dabei liegen die Interessen häufig eng beieinander. "Man wird natürlich nie alle zufriedenstellen können" aber häufig mangelt es an ausreichender Kommunikation und Aufklärungsarbeit.
Die Wissenschaftsarbeit beschäftigt sich mit der Frage, welche Ansprüche an Bürgerkommunikation bestehen und welche Chancen sich daraus für die Kommunikation von Bauprojekten ergeben. Daraus resultiert ein Lösungsansatz für die Immobilien-Public-Relations (PR).
Untersuchungen zu Berufen der Wirtschaftsinformatik bleiben weiterhin
interessant, wenn sie helfen können, dem mittlerweile länger anhaltenden
IT-Fachkräftemangel entgegenzuwirken. Eine Untersuchung der Hochschule
Hannover zu Wirtschaftsinformatikern/-informatikerinnen in den ersten zehn Jahren im Beruf zeigt deren berufliche Ziele und die berufliche Zufriedenheit, die sie erlangen. Deutlich wird, dass Frauen und Männer das Arbeitsklima und die Arbeitsbedingungen sehr unterschiedlich wahrnehmen und daher auch unterschiedlich zufrieden sind. Dabei bemängeln Frauen vor allem Merkmale, die mit „fehlender Fairness“ zu beschreiben sind.
Der vorliegende Beitrag beschreibt Einsatzpotenziale des Energiemanagementprofils PROFIenergy in der Prozessindustrie.
Der Blick auf den Status von Energieeffizienzmaßnahmen in der Prozessindustrie zeigt, dass diese im Wesentlichen innerhalb der verfahrenstechnischen Optimierung angesiedelt sind. Noch hat sich der durchgängige Einsatz von technischen Energiemanagementsystemen
(tEnMS) nicht etabliert. Diese Arbeit fokussiert Vorteile des tEnMS-Einsatzes und präsentiert „Best Practice“- Beispiele in der Prozessindustrie. Abschließend wird aufgezeigt, welches Potenzial das Energiemanagementprofil PROFIenergy liefern kann und welche Anwendungsfälle sich damit abdecken lassen.
Am Beispiel des Fünf-Faktoren-Modells der Persönlichkeit aus der Psychologie (Big 5) wird exemplarisch gezeigt, wie komplexe Lerninhalte adäquat für eine Onlinevermittlung aufbereitet werden können und wie man zugleich die Lernmotivation der Teilnehmenden erhöhen kann. Hierfür wurde eine bestehende Lerneinheit mit Präsenzvermittlung im Umfang von einem halben Tag in ein Onlineformat übertragen. Der Kern des Onlineformats beinhaltet sechs Lernvideos, bestehend aus einem Videofilm zum Modellüberblick und je einem Videofilm für jeden der fünf Faktoren des Modells. In den Videofilmen agieren die fünf Mitglieder einer Rockband sowie ein Erzähler aus dem Off. Jedes Bandmitglied steht prototypisch für einen der fünf Faktoren des Modells. Die Darstellung der fünf Bandmitglieder (The Big Fives) und deren Interaktion werden als Grundlage genutzt, um die Anwendung des Fünf-Faktoren-Modells zu üben.
Die Anzahl an mit dem HI-Virus Neuinfizierten sinkt aufgrund der stetig voranschreitenden Forschung im Bereich der Therapie der HIV-Infektion kontinuierlich. Durch die erforschten HIV-Medikamente, wie zum Beispiel Biktarvy®, Atripla®, Eviplera® oder Genvoya® kann bei nicht vorliegenden Resistenzen oftmals ein bemerkenswerter Therapieerfolg erzielt werden. Doch der Therapieerfolg wird von vielen verschiedenen Faktoren beeinflusst. Um dies genauer zu analysieren, handelt die vorliegende Bachelorarbeit von der Untersuchung des Einflusses verschiedener Parameter auf den Therapieerfolg von HIV-Infizierten. Da es zahlreiche Einflussfaktoren gibt, wurde eine engere Auswahl getroffen. In dieser Arbeit wurde daher der Einfluss von dem Geschlecht, der Therapiekombination, der Altersgruppe, den vergangenen Jahren seit der gestellten Diagnose sowie der Dauer der bereits eingenommenen Therapie auf die Laborwerte „Viruslast“ und „CD4-Zellzahl“ untersucht. Ziel der Bachelorarbeit war es, mehr Daten zu gewinnen, die Ergebnisse des Einflusses der soeben genannten Kenngrößen enthalten. Für die statistische Vergleichsanalyse wurden Daten aus der seit knapp 20 Jahren bestehenden HIV-Datenbank der Medizinischen Hochschule Hannover, Abteilung Rheumatologie und Immunologie, herangezogen. Um die Ergebnisse dieser Bachelorarbeit zusammenzufassen, lässt sich resümieren, dass bei mehr als der Hälfte der Patienten, genauer gesagt bei 51 anhand der Viruslast und 57 von je 72 Patienten anhand der CD4-Zellen, ein Therapieerfolg erzielt werden konnte. Vor allem bei den Einflussgrößen Geschlecht und Therapiekombination konnte ein bemerkenswerter Einfluss auf den Therapieerfolg festgestellt werden. Bei den weiteren Parametern Altersgruppe, Diagnosedauer und Therapiedauer ist kein statistisch signifikanter Unterschied ermittelt worden.
Unter Crowdsensing versteht man Anwendungen, in denen Sensordaten kollaborativ von einer Menge von Freiwilligen erhoben werden. So kann Crowdsensing eingesetzt werden um die Luftqualität an Orten zu messen, an denen keine fest installierten Sensoren verfügbar sind. In Crowdsensing-Systemen müssen die Teilnehmer koordiniert und die Messdaten verarbeitet werden, um relevante Daten zu erhalten. Im Rahmen der Abschlussarbeit wurde ein System konzipiert und prototypisch umgesetzt, das auf einem Raspberry Pi (unter Einsatz geeigneter Sensoren) Sensordaten erhebt und mit der Complex Event Processing Technologie verarbeitet.
Wie kann man den empfundenen Alltagsstress bewältigen und eigene, sinnvolle Ziele erreichen? Woher kommt die Zeitnot und was kann man tun? Gibt es Faktoren, die Glück und Erfolg fördern? Was kann man in seinem Studien- und Arbeitsalltag tun, um sich wohl zu fühlen und erfolgreich zu sein? Welche Zeitmanagement-Tools helfen bei der Organisation von Studium und Arbeitsalltag?
Diese und weitere Fragen werden im Workbook beantwortet. Der Selbstmanagement-Prozesskreis wird vorgestellt, verschiedene Modelle, Prinzipien und Techniken werden vermittelt. Mit vielen Reflexionsfragen und Übungen.
Die Nutzung von Messenger-Diensten hat die Nutzung von sozialen Medien übertroffen. Diese Mediennutzung bringt veränderte Erwartungen an Unternehmen mit sich. Unternehmen begegnen den Erwartungen ihrer Kund*innen in der Online-Kundenkommunikation mit dem Einsatz textbasierter Dialogsysteme. Im Facebook-Messenger wurden 2018 bereits über 300.000 Chatbots angeboten. Das Problem ist, dass Studien seit mehreren Jahren aufzeigen, dass diese Kommunikationstechnologie sich bei den Kund*innen noch nicht durchgesetzt hat und häufig noch skeptisch betrachtet wird. Für Unternehmen ist es daher notwendig zu verstehen, welche Kriterien erfüllt sein müssen, um die Akzeptanzbildung der Kund*innen gegenüber textbasierten Dialogsystemen positiv zu beeinflussen.
Das Ziel dieser Arbeit ist es zu betrachten, inwiefern die Eigenschaften textbasierter Dialogsysteme die Akzeptanzkriterien der Kund*innen erfüllen können. Dazu wird die folgende Forschungsfrage gestellt: Wie akzeptieren Kunden den Einsatz textbasierter Dialogsysteme in der Online-Kundenkommunikation von Unternehmen?
Um die Forschungsfrage zu beantworten, wird eine Literaturanalyse durchgeführt. Die Literatur wird mit Studienergebnissen verglichen, um Übereinstimmungen und Abweichungen herauszuarbeiten.
Eine Akzeptanzanalyse hat ergeben, dass Kund*innen textbasierte Dialogsysteme vor allem akzeptieren, wenn sie darin einen Nutzen erkennen. Jedoch beeinflussen neben nutzenorientierten Faktoren auch emotionale Faktoren die Akzeptanz.
Auf dieser Grundlage ist es empfehlenswert, positive und negative Einflussfaktoren des Akzeptanzprozesses zu identifizieren und die Gestaltung textbasierter Dialogsysteme an die Kund*innen anzupassen, bevor diese eingesetzt werden.
Der Autobewerter Graja, der in der Lehre zum Bewerten studentischer Java-Programme verwendet wird, stellt ein komplexes Softwaresystem dar. Aufgrund einer kaum vorhandenen Testabdeckung durch Modul- und Integrationstests, ist die Gewährleistung der fehlerfreien Funktionalität in Hinsicht auf die Weiterentwicklung nicht garantiert. Da sich Graja auf das ProFormA-Aufgabenformat stützt, stellt sich die Frage, inwiefern sich die im ProFormA-Aufgabenformat vorausgesetzten Musterlösungen, für einen automatisierten Regressionstestmechanismus eignen.
Das Ziel dieser Forschung ist es ein Konzept, für einen solchen Regressionstestmechanismus zu erstellen und mithilfe einer Referenzimplementierung als Graja-Erweiterung in die Praxis umzusetzen. Der daraus entstandene Mechanismus operiert durch Verhaltensaufzeichnung und Verhaltensabgleich und konvertiert so das in Graja beobachtete Bewertungsverhalten einer Musterlösung in einen Testfall. In der Testphase findet anschließend ein Abgleich des Soll-Verhaltens eines Testfalls und des beobachteten Ist-Verhaltens einer Musterlösung statt. Die Differenzen dieses Abgleichs sind als potenzielle Regressionen zu behandeln, da diese eine semantische Änderung des Bewertungsergebnisses darstellen.
Um diesen Verhaltensabgleich robust und mit möglichst wenigen Fehlalarme zu realisieren, wurden die in Graja verwendeten Datenmodelle auf Eignung bezüglich einer Verhaltensaufzeichnung untersucht. Außerdem fand eine Datenaufzeichnung mit einer Teilmenge der Musterlösungen statt. Nachfolgend wurde eine Analyse dieser Rohdaten, mit dem Ziel potenzielles Rauschen innerhalb der Aufzeichnungen zu detektieren, durchgeführt. So konnte letztendlich eine Strategie für eine Rauschunterdrückung innerhalb der Verhaltensaufzeichnung entwickelt werden.
Abschließend wurde ein Datenmodell entwickelt, das erlaubt, die durch den Verhaltensabgleich detektierten Regressionen verständlich und lokalisierbar darzustellen. Der durch diese Arbeit entstandene automatisierte Regressionstestmechanismus stellt somit eine Grundlage für die Gewährleistung der korrekten Bewertungsfunktionalität innerhalb des Graja-Entwicklungsprozesses dar. Durch das Detektieren von Regressionen mithilfe der Musterlösungen, lassen sich nun Änderungen an Graja gewissenhaft in eine Produktionsumgebung übernehmen.
Die Nutzerverfolgung im Internet durch die Verwendung von Browsercookies ist gängige Praxis, doch haben diverse datenschutzrechtliche Entwicklungen der letzten Jahre zugunsten der Verbraucher diese Form des Trackings in vielerlei Hinsicht eingeschränkt und auch die Usability von Websites maßgeblich beeinträchtigt. Um weiterhin eine Personalisierung von Werbung und anderen Inhalten unter Wahrung der Nutzbarkeit und Rechte der Nutzer zu gewährleisten, ist es unausweichlich, eine neue Methode zur Identifizierung von Besuchern zu etablieren. Das Ziel dieser Arbeit ist, verschiedene Trackingtechnologien unter Berücksichtigung gegebener Rahmenbedingungen im Rechtsraum der Europäischen Union in ihrer Funktionsweise zu vergleichen und die nach derzeitigem Stand realistische Nachfolgetechnologie zum Tracking via Cookies zu benennen – Fingerprinting. Dieses überzeugt in Bezug auf seine Langlebigkeit und rechtliche Vereinbarkeit, den Implementierungsaufwand sowie den Umfang der sammelbaren Daten. Darauf aufbauend ist eine statistische Untersuchung zur Verbreitung von Methoden aus dem Feld des Fingerprintings auf den meistgenutzten Internetseiten durchgeführt worden. Dabei ergibt sich, dass Informationen, die zur Erstellung eines Fingerprints genutzt werden können, von fast allen Websites abgefragt werden, jedoch durchschnittlich nur wenige verschiedene Arten von Fingerprints genutzt werden. Auf einigen Websites werden durch größere dritte Unternehmen Fingerprints erfasst, der Opt-in-Status hingegen hat in den meisten Fällen für die Praktizierung von Fingerprinting keine Relevanz. Da Fingerprinting auch für schädliche Zwecke, zum Beispiel das Verteilen von potenterer Schadsoftware, verwendet werden kann, ist die Reaktion von Browserentwicklern und -nutzern auf die Entwicklung von derzeitigen und zukünftigen Fingerprintingkonzepten ungewiss, und auch die rechtliche Lage der nächste Jahre hängt von angekündigten Verordnungen ab, die in ihrem Inhalt noch nicht bekannt sind.
Die Bachelorarbeit "Content-Strategien im Luxusmodemarketing" befasst sich mit den jeweiligen Besonderheiten von Content-Strategie und Luxusmodemarketing. Diese Ansatzpunkte werden zur Hilfe genommen, um die jeweiligen Disziplinen aufeinander zu beziehen. Dabei spielen bei der Content-Strategie die Faktoren Zielgruppe, Zeitpunkt, Inhalt, Kanäle und Formate eine übergeordnete Rolle, während im Luxusmodemarketing die Symbolkraft der Marke, die Saisonalität der Mode, die Visualität sowie die Akzeptanz seitens des Konsumenten von Bedeutung sind. Mithilfe dieser Kernaspekte, die in dieser Arbeit anhand von Theorien und Modellen untersucht werden, können Bezugspunkte zu den beiden Disziplinen hergestellt werden.
Der Theorieteil erläutert diese Facetten und arbeitet heraus, welche genauen Muster innerhalb der Content-Strategie sowie des Luxusmodemarketings vorliegen. Schließlich beschreibt der Anwendungsteil, wie die relevanten Zielgruppen, die passenden Inhalte, der richtige Zeitpunkt, die erforderlichen Kanäle und die angemessenen Formate auszusehen haben, um eine Content-Strategie erfolgreich im Luxusmodemarketing zu implementieren. Diese Arbeit versucht dies anhand der gewonnenen theoretischen Erkenntnisse sowie entsprechenden Praxisbeispielen näher zu betrachten.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
»Digital(isiert)e« Beratung verspricht neben Innovation auch Flexibilität, Ubiquität, Globalität, Geschwindigkeit und Legitimität durch evidenzbasierte Wirksamkeit. Für eine sozialwissenschaftlich fundierte arbeitsweltliche Beratung wie Coaching und Supervision ist danach zu fragen, welches Menschen- und Weltbild sich hinter der Digitalisierung verbirgt und welche Anliegen sie transportiert. Dazu wird mit den Theorien Michel Foucaults der gegenwärtige Diskurs auf Steuerungslogiken und Machtverhältnisse hin kritisch analysiert. Dabei zeigt sich, dass die Digitalisierung das »Zeitalter der Gouvernementalität« (Foucault) festigt: Humanistisch geprägte Werte und Ziele wie Reflexion, Anerkennung und Selbsterkenntnis treten in den Hintergrund, während die Nutzbarmachung und Optimierung des Selbst sowie des Beratungsprozesses wichtiger werden: Beratung will und muss effizienzgetrieben ihre Wirksamkeit evidenzbasiert legitimieren, und Digitalisierung erleichtert dies.
Durch den Wandel des bibliothekarischen Selbstverständnisses zum zunehmend wirtschaftlich geführten Dienstleistungsbetrieb gewinnt die Nutzerorientierung im Bibliothekssektor an Bedeutung. Insbesondere Nutzerzufriedenheit ist in diesem Kontext ein wichtiges Ziel von zukunftsorientierten Bibliotheken. Für die Bibliothek der Hochschule Hannover ist aus diesem Grund im Mai 2020 eine empirische Zufriedenheitsstudie unter den Mitgliedern der Hochschule durchgeführt worden. Es wurden Nutzungseigenschaften sowie Ansichten bezüglich Dienstleistungen, Lokalitäten und Gesamteindrücken erhoben. Ergänzend zur Auswertung dieser Ergebnisse wird in dieser Arbeit ein Vergleich mit denen der bis dato jüngsten Zufriedenheitsstudie von 2009 gezogen. Ziel der onlinebasierten Befragung sowie des Vergleichs ist die Ermittlung von Nutzerbedürfnissen und Kritikpunkten, um eine fundierte
Entwicklungsempfehlung für die Bibliothek erstellen zu können. Maßnahmen, die auf dieser Empfehlung basieren, sollen eine Steigerung der Nutzerzufriedenheit ermöglichen. Die Analyse der Antworten lässt vor allem auf einen Mangel des selbstständigen Informierens über die Angebote der Bibliothek sowie deren Nutzung für das wissenschaftliche Arbeiten schließen. Daher werden insbesondere eine Verbesserung der aktiven Kommunikation mit den Zielgruppen und die Förderung der Informationskompetenz der Nutzer empfohlen.
Das Ziel dieser Bachelorarbeit ist es, ein einfach verständliches Simulationsmodell zur Darstellung der Wirkung von Kabelschirmen bei Betrachtung verschiedener Schirmauflageverfahren zu entwickeln. Die erarbeiteten Ergebnisse decken sich mit der allgemein vertretenen Meinung, dass die beste Schirmwirkung durch eine beidseitige und flächige Schirmauflage erzielt wird. Zuerst werden Grundlagen erklärt, wobei sich auf relevante Literatur bezogen wird. Daraus wird das Simulationsmodell hergeleitet, dessen Ergebnisse anhand von theoretischen Überlegungen und praktischen Messungen überprüft werden. Die vorliegende Arbeit ist interessant für Ingenieurinnen und Ingenieure der Automatisierungstechnik in der Prozess- und Fertigungsindustrie, die ein grundlegendes Verständnis für relevante Effekte der Kabelschirmung bilden wollen.
Zur Verbesserung der IT-Sicherheit im klassischen Büroumfeld wird bereits eine neue Firewall-Technologie, die sogenannte Next Generation Firewall verwendet. Um diese Technologie im Produktionsbereich einzusetzen, muss sie vorher getestet werden, da sich die Priorisierung der Schutzziele im Produktionsbereich und im Büroumfeld unterscheidet. In dieser Arbeit werden das Einsatzgebiet und die Wirkungsweise von Firewalls in industriellen Automatisierungssystemen im Allgemeinen und spezifisch für Next Generation Firewalls untersucht. Die Untersuchung geht auf die Aufgaben der einzelnen Firewalls in einem Produktionsunternehmen ein und prüft, welche Firewall durch eine Next Generation Firewall ergänzt werden kann. Dazu werden die konventionellen Firewall-Technologien mit der neuen Firewall-Technologie verglichen und bewertet. Der Nutzen der Next Generation Firewall in der Produktionsumgebung wird am Beispiel eines ausgewählten Angriffsszenarios erklärt. Abschließend werden Empfehlungen für dessen Einsatz in industriellen Automatisierungssystemen gegeben.
Plugins erweitern die Funktionalität von WordPress und helfen Webseitenbetreibern beim Hinzufügen neuer Elemente oder Funktionen. Dabei muss der Betreiber selbst keinen komplexen Programmcode schreiben. Auch können diese Erweiterungen als Erleichterung bei der Pflege von Informationen und Inhalten dienen. In der vorliegenden Bachelorarbeit wird die Konzipierung, Umsetzung und Anwendung eines solchen Plugins für den Vergleich von Veranstaltungen beschrieben. Dabei findet es Anwendung auf einer Internetseite zum Thema Festivals. Die Informationen bezüglich der Festivals werden per Import in einer Tabelle gespeichert und für den Vergleich dargestellt. Eintragungen können auch händisch getätigt werden, woraus sich schließlich ergibt, dass das Plugin mit seiner Importfunktion eine zeitsparende und sinnvolle Erweiterung ist.
Dieses Research Paper befasst sich mit dem Thema der Hochverfügbarkeit von Automatisierungsnetzwerken am Beispiel von PROFINET. Anhand von verschiedenen PROFINET-Topologien soll verdeutlicht werden, durch welche Maßnahmen eine hohe Verfügbarkeit erzielt werden kann. Zuvor wird mithilfe von grundliegenden Berechnungsbeispielen gezeigt, wie sich die Verfügbarkeit eines technischen Systems ermitteln lässt. Anschließend erfolgt für die Betrachtung der Gesamtverfügbarkeit einer PROFINET-Anlage eine genaue Bestimmung der jeweiligen Verfügbarkeitswerte für die einzelnen PROFINET-Geräte. Ein besonderes Augenmerk richtet sich hierbei speziell auf die Verwendung von IO Devices mit redundanten bzw. nicht-redundanten Interfacemodulen. Für das Erzielen einer hohen Verfügbarkeit sind nicht nur PROFINET-Geräte von entscheidender Bedeutung, sondern auch die Stuktur des PROFINET-Netzwerks. Im Zusammenspiel mit den bereits existierenden Redundanzprotokollen, die für die Verwaltung des Datenverkehrs zuständig sind, werden in diesem Bericht mehrere Topologien anhand verschiedener Eigenschaften und Voraussetzungen auf ihre Vor- und Nachteile untersucht und entsprechend ihrer Gesamtverfügbarkeitswerte bewertet.
Dieses Research Paper basiert im Wesentlichen auf der Bachelorarbeit von Herrn Sebastian Stelljes an der Hochschule Hannover. Im Nachgang zur Arbeit wurden noch weitere Aspekte untersucht und mit den Inhalten der Bachelorarbeit zu diesem Research Paper zusammengeführt.
Im Rahmen des vom Bundesministerium für Wirtschaft und Technologie geförderten Forschungsprojektes INSA sollen wichtige Beiträge zur Verbesserung der IT-Sicherheit von Produktionsanlagen insbesondere in kleinen und mittelständischen Unternehmen (KMU) realisiert und erprobt werden.
Die IT-Sicherheit von Produktionsanlagen wird zu einer immer wichtigeren Komponente des Schutzes von Unternehmen gegen Cyber-Attacken. Neben Angriffen aus dem Internet sind dabei interne Angriffsquellen in Betracht zu ziehen. Gängige Vorgehensmodelle, wie z. B. die VDI-Richtlinie 2182, setzen dabei unter anderem auf eine wiederkehrende Analyse der Bedrohungen und auf die Implementierung entsprechender Schutzmaßnahmen. Die Durchführung einer solchen wiederkehrenden Gefährdungsanalyse ist mit einem wiederkehrenden manuellen Aufwand verbunden, weshalb kleine und mittlere Unternehmen die Durchführung dieser Maßnahmen häufig meiden. Ziel des Projektes ist die Unterstützung kleiner und mittlerer Unternehmen bei der Durchführung entsprechender Bedrohungsanalysen zu unterstützen.
Der Ansatz des Projektes beruht auf der automatisierten bzw. teilautomatisierten Erfassung der installierten Automatisierungskomponenten (Assets). Danach kann für bekannte Standardkomponenten durch die Verwendung wissensbasierter Methoden eine Beurteilung der Bedrohung einer Automatisierungsanlage erfolgen. Hierfür wird fachspezifisches Wissen erfasst und verarbeitet wird. Diese Methoden können bei Bedarf in die Engineering-Oberfläche einer Automatisierungsanlage intergiert werden.
Die folgende Studie befasst sich mit den Auswirkungen der Corona-Pandemie und deren Effekt – ein verminderter CO2-Ausstoß in Deutschland. Für einen übersichtlichen Vergleich wird im weiteren Verlauf in unterschiedlichen Szenarien darauf eingegangen, wie sich der CO2-Ausstoß im Vergleich zu 2020 ohne die Corona-Pandemie in Deutschland verändern könnte. Grundbasis für die Ermittlungen der folgenden Szenarien ist der CO2-Trend ohne die Corona-Pandemie im Jahr 2020, in dem Deutschland das Emissionsziel von -40 % gegenüber 1990 mit einer Reduktion von lediglich 37 % verfehlt hätte. Im zweiten Szenario wird dargestellt, wie sich die aktuelle Corona-Pandemie mit verschiedenen Lockdown-Phasen auf den CO2-Ausstoß auswirkt. Deutlich wird hierbei, dass trotz der aktuellen Maßnahmen eine längere Lockdown-Phase benötigt wird, um das Klimaziel von -40 % langfristig gesichert zu erreichen. In den Szenarien 3 und 4 liegt der Fokus auf möglichen Handlungs- und Verhaltensweisen nach der Pandemie. Das Szenario 3 betrachtet die Folgen von wirtschaftsfördernden Maßnahmen nach dem Lockdown und dem damit einhergehenden CO2-Anstieg. Wie viel CO2 zusätzlich aufgrund von nachhaltigem und klimaorientiertem Verhalten eingespart werden kann, erläutert das Szenario 4 „CO2 Entwicklung unter Berücksichtigung der Corona-Pandemie 2020 und möglicher positiver Umweltentwicklungen aus dem Lockdown“.
Faktoren, wie die wachsende Bevölkerung, sich verändernde Produktionsfaktoren oder Umwelteinflüsse wurden vernachlässigt. Die Studie zeigt, dass die Chancen, die durch die wirtschaftlichen Einschnitte und die Verhaltensänderungen, die durch die Corona-Pandemie bzw. deren Folgen hervorgerufen wurden, einen maßgeblichen Einfluss auf den CO2-Ausstoß der Bundesrepublik Deutschland haben können.
Bereits zum dritten Mal in Folge nahm eine zehnköpfige Gruppe Studierender der Hochschule Hannover aus dem Vollzeit- sowie dem berufsbegleitenden Bachelor-Studiengang Informationsmanagement, in Begleitung zweier Dozentinnen, an der BOBCATSSS-Konferenz teil. Nachdem bisher ausschließlich auf der Hochschulwebseite und tagesaktuell im Blog über Erfahrungen und Erlebnisse während der drei BOBCATSSS-Exkursionen berichtet wurde, folgt hiermit nun ein zusammenhängender Beitrag über die diesjährige Konferenz vom 24. bis zum 26. Januar 2018 in Riga, Lettland. Die BOBCATSSS-Konferenz ist eine internationale Konferenz der Bibliotheks- und Informationswissenschaften. Im Gegensatz zu IFLA & Co wird sie fast ausschließlich von Studierenden wechselnder Universitäten in Europa ausgerichtet.
Vergleich von nativer App- und Cross-Platform-Entwicklung (Facebook React Native und Google Flutter)
(2020)
Die Entwicklung mobiler Applikationen für iOS und Android ist in der Regel mit viel Arbeit verbunden, da man für beide Plattformen gezwungenermaßen unterschiedlichen Quelltext schreiben muss. Abhilfe für dieses Problem schaffen Cross-Platform-Frameworks wie React Native von Facebook oder Flutter von Google. Anhand dieser Frameworks lassen sich Apps für beide Plattformen mit nur einer Codebase entwickeln. Eine kritische Stelle und oft gebrauchtes Kontra-Argument gegen die Entwicklung mit Cross-Platform-Frameworks ist die Hardwarenähe der nativen Applikationen, an welcher es den Frameworks vermeintlich mangelt. Doch wie ist der Stand der Dinge im Jahr 2020? Können Cross-Platform-Frameworks inzwischen performant und einfach auf Hardwarekomponenten zugreifen und machen damit die mühsame, native Entwicklung für iOS und Android vor allem in Anbetracht der Entwicklung von größerer Enterprise-Software obsolet?
Dieser Frage wird in dieser Arbeit nachgegangen und generell überprüft wie tauglich die Cross-Platform-Entwicklung ist. Nach dem Lesen dieser Bachelorarbeit sollte entschieden werden können, ob Cross-Platform-Frameworks für das Anwendungsproblem des Lesers geeignet sind. Um die Forschungsfrage zu beantworten, wurden je zwei Applikationen im Rahmen einer Fallstudie für je iOS und Android entwickelt, damit geprüft werden konnte, wie förderlich die zuvor genannten Frameworks sind. Der Fokus der Arbeit liegt also auf der Güte bzw. dem heutigen Stand der Cross-Platform-Entwicklung, vor allem im Bezug auf die Benutzung von Hardwarekomponenten bzw. betriebssystemspezifischen Diensten (Bluetooth, Kamera, etc.).
Die Ergebnisse der Fallstudie zeigen, dass es stets auf den Kontext und die Komplexität der zu realisierenden Anwendung ankommt inwiefern Cross-Platform-Frameworks verwendet werden können. In simplen Anwendungsfällen können Frameworks meist zu einer erheblichen Kostenminimierung und Zeitersparnis führen, wohingegen bei komplexeren Anwendungen relativ schnell Grenzen und starke Abhängigkeiten erreicht werden.
Die zunehmenden Anwendungsfälle der vertikalen und horizontalen Vernetzung von Automatisierungssystemen erhöhen gleichzeitig auch die Bedrohungen der IT-Sicherheit der relevanten automatisierten technischen Prozesse. Zukünftige Anlagenstrukturen werden stärker vernetzt und dezentralisiert organisiert sein, oder sogar weltweit mit anderen technischen Systemen über das Internet kommunizieren. Dies erfolgt häufig über standardisierte Kommunikationsprotokolle, im Weiteren Middleware genannt. Daher ist die Bedeutung standardisierter Verfahren und Modelle zur Erleichterung der Sicherheitskonfigurationen der Middleware, die die folgenden Anforderungen erfüllen, von wesentlicher Bedeutung:
- Sichere Kommunikation (sichere Middleware)
- Authentifizierung und Autorisierung der Kommunikationspartner auch bei stark vernetzten Systemen und Ad-hoc-Verbindungen
- Einfache Verwaltung von Sicherheitsmaßnahmen ohne erheblichen Mehraufwand für die Organisation
Die bestehende Referenzarchitektur und die Sicherheitsmerkmale der entsprechenden Middleware werden untersucht, um deren Anwendbarkeit in verschiedenen Stufen der Automatisierungspyramide zu ermitteln. Es werden die Sicherheitsmerkmale für eine durchgängig sichere Kommunikation und deren Flexibilität bei der Integration in eine Public Key Infrastruktur (PKI) untersucht. Die bestehenden Zugangskontrollmechanismen und deren Zukunft im Rahmen von Industrie 4.0 werden bewertet. Die Möglichkeiten zur Integration des mit Attributzertifikaten aktivierten Berechtigungsmechanismus im Rahmen von OPC UA werden in diesem Projekt untersucht und als Teil des Demonstrators implementiert. Die Anwendungsrelevanz der entwickelten Lösungen wird gewährleistet, indem die Projektpartner des projektbegleitenden Ausschusses bei der Erstellung und dem Review von Konzepten frühzeitig beteiligt werden.
In der philosophischen Ethik wird unterschieden zwischen deskriptiver Ethik, normativer Ethik und Metaethik. In diesem Beitrag steht die normative Ethik im Mittelpunkt. Es soll die Frage erörtert werden, welche ethischen Kriterien für die Praxis von Beratung gelten sollten. Zu diesem Zweck werden zunächst beratungskritische Traditionen angeführt und im Anschluss professionsethische Überlegungen mit Rückgriff auf Impulse aus Foucaults Philosophie angestellt.
Mit Blick auf Cora Baltussens Leben, Wirken und Beratungsverständnis werden die demokratischen, emanzipatorischen und internationalen Wurzeln der Rezeption der Profession Supervision in Deutschland in den 1950er und 1960er Jahren betont. Das ist besonders notwendig angesichts kritischer Weiterentwicklungen von Supervision und Coaching, bei denen die professionsethischen Grundlagenfragen zum Teil aus dem Blick geraten.
Was bedeutet es beratungswissenschaftlich und beratungspraktisch, wenn
wie bei Astrid Schreyögg Coaching als Instrument einer Personalentwicklung im Sinne Oswald Neubergers verstanden wird, der ausdrücklich betont: „Der Mensch ist Mittel. Punkt.“ Wie ist ein solches Coachingverständnis diskursanalytisch zuzuordnen, in dem eine bestimmte Arbeits‐ und Organisationspsychologie sich in den Dienst eines bestimmten Verständnisses von Personalwirtschaft stellt? Wie wirkt sich dies in der konkreten Beratungspraxis aus? Welches Menschenbild liegt einem solchen Coaching zugrunde? Lassen sich historisch Modelle rekonstruieren, in denen psychologische Methoden und Techniken im Interesse einer bestimmten ökonomistischen Weltanschauung und Haltung instrumentalisiert wurden? Der Autor vertritt die These, dass „Psychotechnik“ und „Menschenökonomie“ aus den 1910er‐ und 1920er‐Jahren charakteristische Ähnlichkeiten mit einem personalentwicklungsorientierten Coaching aufweisen, wie es Schreyögg unter Rückgriff auf Neubergers Lehrbuch vertritt.
Der Autor setzt sich mit der Frage auseinander, ob pastoralpsychologisch ausgebildete Seelsorger/innen besonders geeignet sind, Mitarbeitende in Kirche und Diakonie zu supervidieren? In der Auseinandersetzung mit Vertretern der pastoralpsychologischen Supervision kommt er zu dem Ergebnis, dass die postulierten Vorteile nur dann zum Tragen kommen, wenn die Supervisoren ihre berufsbezogene Beratungstätigkeit von der theologischen Arbeit zu unterscheiden und zu trennen wissen.
Foucault im Jobcenter : Supervision in einem widersprüchlichen gesellschaftlichen Feld (Teil 2)
(2018)
Ziel dieses zweiten Teils ist eine ausführliche (struktur-)hermeneutische Rekonstruktion und Interpretation des Falles, den wir 2017 im ersten Teil dieses Artikels zur Illustration einer historischen, gesellschaftskritischen und makrosoziologischen Perspektive auf den Wandel der Arbeitswelt und den aktivierenden Sozialstaat verwendet hatten. Diese Perspektive tritt nun zugunsten biografischer, sozialwissenschaftlicher und pädagogischer sowie institutions- und organisationstheoretischer Interpretationen und Analysen des Feldes Jobcenter zurück. In ihm spiegeln sich die im ersten Teil beschriebenen Desintegrationsdynamiken wie in einem Brennglas wider. Die biografische Interpretation baut auf der Gestaltmehrdeutigkeit von Biografien nach Rosenthal auf, sie thematisiert die biografischen Übergänge, die eng mit der Bewältigung der Entwicklungsaufgaben korrelieren. Darüber hinaus werden sozialwissenschaftlich sowohl psychoanalytische als auch rollen-, habitus- und machttheoretische Aspekte eine wichtige Rolle spielen. In der institutions- und organisationstheoretischen Interpretation werden die Strukturen und das Beratungsverständnis der Jobcenter als gesellschaftliche Institution analysiert. Beratungswissenschaftlich und supervisionstheoretisch bedeutsam aus der Sicht der Autoren ist, dass sowohl Supervisor_innen als auch die Mitarbeitenden in den Jobcentern über biografietheoretische, sozialwissenschaftliche und sozial-pädagogischen Wissensbestände verfügen sollten, damit sie die komplexen, unverstandenen und aufgrund der Aktenlage häufig fragmentierten Biografien ihrer ‚Kund_innen‘ besser verstehen und beurteilen können. Nur dann scheint auch eine advokatorische Ethik greifen zu können, die das unverstandene Material nicht zu Ungunsten ihrer Klient_innen auslegt. Ziel dieses Artikels ist es, einen sozial- und strukturhermeneutischen Verstehenszugang in dieses für die Supervision interessante Feld zu eröffnen, der zugleich homologe Übertragungsmöglichkeiten in andere gesellschaftliche Felder ermöglichen kann.
„Foucault im Jobcenter“ : Supervision in einem widersprüchlichen gesellschaftlichen Feld (Teil 1)
(2017)
Erwerbsarbeit ist nach wie vor der wichtigste Faktor gesellschaftlicher Teilhabe. Jobcenter erfüllen aus diesem Grund eine wichtige gesellschaftliche Funktion. Aufgrund ihrer verwickelten und konfliktreichen Geschichte ist ihre gesellschaftliche Verortung schwierig. Jobcenter sind bisher, trotz ihrer Größe und gesellschaftlichen Relevanz für maßgebliche Bevölkerungsteile, kaum beratungswissenschaftlich untersucht worden. Unserer Ansicht scheint es notwendig zu sein, sich intensiver mit dem gesellschaftlichen Feld der Jobcenter zu beschäftigten: Zum einen, weil Beratung selbst eine herausgehobene Bedeutung im Jobcenter besitzt und zum anderen, weil die Jobcenter ein wichtiges Feld für die Supervision werden könnten. Dieser Artikel soll daher eine erste kasuistische Grundlage für eine kritische Reflexion bieten und wird in zwei Teilen erscheinen. Der erste Teil wird eine grundlagentheoretische Einführung in das Thema sein. Darauf aufbauend rekonstruieren wir in einem zweiten Teil einen Fall aus dem Jobcenter, der in der nächsten Ausgabe der FoRuM Supervision unter dem Titel ‚Fallverstehen und Fallrekonstruktion‘ analysiert und reflektiert werden wird.
Ein Konferenzrückblick:
Das DFG-Forschungskolleg „Postwachstumsgesellschaften“ hatte gemeinsam mit der Deutschen Gesellschaft für Soziologie (DGS) zu einer gemeinsamen fünftägigen Konferenz vom 23. bis 27. September 2019 an die Friedrich Schiller-Universität Jena geladen, und rund 700 Wissenschaftler*innen und Studierende kamen aus dem In- und Ausland, um an den rund 150 Veranstaltungen teilzunehmen. Begleitet wurde die Konferenz von einem umfänglichen Kulturprogramm mit Konzerten, Kinofilmen und Kunst, und rechtzeitig zur Konferenz erschien als Tagungsband auch eine lesenswerte 600-seitige Sonderausgabe des Berliner Journals für Soziologie (Dörre et al. 2019).
Das Konferenzprogramm stand einerseits unter der Thematik der „Great Transformation“, also der auf Karl Polanyi (1886-1964) zurückgehenden These einer zunehmenden Vermarktlichung und Verselbstständigung der Wirtschaft gegenüber der Gesellschaft (vgl. Polanyi 1944), die das DFG-Forschungskolleg rund um die Soziologen Klaus Dörre, Hartmut Rosa und Stefan Lessenich als Titel gewählt hat. Andererseits tagten einige Sektionen der DGS als Regionalkonferenz, um sektionsspezifische Panels durchzuführen.
Fragen gehören zu den wirkungsvollsten Mitteln, um Lernprozesse anzustoßen. Sie regen Studierende an, sich mit Inhalten auseinanderzusetzen, diese zu verstehen und ihr Wissen und Können zu zeigen. Fragen ermöglichen Lernenden genauso wie Lehrenden Feedback zum Lernstand zu erhalten. Eine „gute“ Frage zu erstellen, ist eine Herausforderung für alle Dozierenden, die ihnen in verschiedenen Lehrzusammenhängen begegnet:
• Klausurfragen (summatives Prüfen)
• Test- und Übungsaufgaben zur Selbsteinschätzung Studierender
• Test- und Übungsaufgaben als Lernfortschrittskontrolle
• Semesterbegleitende Übungsaufgaben zum kontinuierlichen Lernen
• Fragen für den Einsatz von Abstimmungssystemen (Audience-Response-Systeme)
Die vorliegende Handreichung bietet eine praktische Anleitung zur Erstellung guter Fragen im Antwort-Wahl-Verfahren (AWV). Unter guten Fragen verstehen wir Fragen hoher Qualität hinsichtlich der Gütekriterien Reliabilität, Validität und Objektivität. Den Schwerpunkt der Arbeit bilden allgemeine Hinweise zur Formulierung guter Fragen, wobei auch die fachdisziplinäre Sicht berücksichtigt wird.
Der ständige Wandel der Gesellschaft hinsichtlich der Bedürfnisse und Arbeitsgewohnheiten, stellt eine Herausforderung dar, mit der sich auch Behördenbibliotheken auseinandersetzen müssen. Diese stetigen Veränderungen führen zu einem erhöhten Innovationsbedarf in diesen Bibliotheken. Die Arbeit setzt sich mit zwei möglichen nutzerorientierten Innovationsmethoden auseinander. Jene können dazu beitragen, dass die veränderten Bedürfnisse der Bibliotheksnutzer unmittelbar in Innovationsprojekte der Behördenbibliotheken mit einfließen. Im ersten Teil der Arbeit werden die theoretischen Grundlagen von Innovationen sowie der zwei Methoden, Open Innovation und Design Thinking, dargestellt. Open Innovation und Design Thinking werden darüber hinaus anhand von Praxisbeispielen aus Bibliotheken näher erläutert. Außerdem werden sowohl die Aufgaben als auch die allgemeinen Herausforderungen in Behördenbibliotheken dargestellt. Im zweiten Teil der Arbeit wird die durchgeführte empirische Untersuchung beschrieben, die einen Aufschluss über den aktuellen Stand von Innovationen in Behördenbibliotheken geben soll. Abschließend werden, anhand der theoretischen Grundlagen sowie der gewonnenen Erkenntnisse, Erfolgskriterien und Handlungsempfehlungen für die Durchführung von nutzerintegrierten Innovationsprojekten für Behördenbibliotheken gegeben.
Die allgemeine Digitalisierung und besonders die IT Branche in Hannover, stellen Arbeitgeber_innen und Arbeitnehmer_innen vor große Herausforderungen. Berufsbezeichnungen im IT Sektor zeichnen sich im Gegensatz zu klassischen Berufsfeldern nicht dadurch aus, dass sie vereinheitlicht sind. Unterschiedlichste Berufsbezeichnungen verlangen oftmals identische Kompetenzen. Die Kompetenzen und Fähigkeiten der Arbeitnehmer_innen stehen ebenso immer mehr im Fokus der Arbeitgeber_innen, wie die Bereitschaft der permanenten Weiterbildung.
Zielgebend der vorliegenden Abschlussarbeit ist eine Datenbasis für ein kompetenzbasiertes IT Tool zu liefern, welches den Anspruch hat, die bereits beschriebenen Herausforderungen zu analysieren und zu klassifizieren. Zunächst ist daher eine Klassifikation, der auf dem hannoverschen Jobmarkt gesuchten IT Kompetenzen, zu erstellen. Vorbereitend wird eine Marktanalyse angefertigt, die sowohl Jobsuchmaschinen auf ihre Kompetenzorientierung als auch IT Kompetenzklassifikationen untersucht. Die erstellte Klassifikation bildet anschließend die Grundlage für das Kompetenzmatching zwischen Klassifikation und den Kompetenzen, die hannoversche IT Studierende erlernen, um zu verdeutlichen, in welchen Kompetenzen Weiterbildungsbedarf besteht. Die entstandene Datenbasis wird in einer MySQL Datenbank präsentiert, um eine möglichst flexible Verwendung und Weiterentwicklung des Datenbestands zu ermöglichen.
Ein Schnittstellen-Datenmodell der Variabilität in automatisch bewerteten Programmieraufgaben
(2018)
Automatisch bewertete, variable Programmieraufgaben stellen besondere Schnittstellenanforderungen an Autobewerter (Grader) und Lernmanagementsysteme (LMS). Um Wiederverwendung von Aufgaben über Systemgrenzen hinweg zu begünstigen, schlagen wir vor, Aufgabenschablonen durch eine von allen beteiligten Systemen genutzte Middleware zu instanziieren und dabei Variabilitätsinformationen in einem Schnittstellen-Datenmodell zu transportieren. Wir stellen ein solches Datenmodell vor, welches für die Grader-unabhängige Kommunikation mit LMS ausgelegt ist und beispielhaft im Autobewerter Graja implementiert wurde. Zudem wird eine Dialogkomponente für die manuelle Werteauswahl vorgestellt, die auch bei großen Wertemengen effizient und Grader-unabhängig einsetzbar ist. Die Eignung des Dialogs und des Datenmodells wird anhand eines typischen Bewertungsszenarios diskutiert.
Das Forschungscluster Energie – Mobilität – Prozesse stellt in acht Beiträgen aktuelle Ergebnisse aus laufenden Forschungsprojekten vor. Es werden Aspekte der Urbanen Logistik, der Automatisierung von Energiemanagementsystemen, der Effizienz von neuen Kältemaschinen, der Entsäuerung von Kulturgütern, der Auslastung von Pedelec-Vermietsystemen und der Reichweite von Elektrofahrzeugen behandelt. Zusätzlich werden relevante Daten in Form von 17 Diagrammen kompakt zusammengestellt.
Praktische Übungen anhand von Programmieraufgaben sind ein gängiger und zentraler Bestandteil der Programmierausbildung in der Informatik und verwandten Fächern. Die manuelle Korrektur von Lösungen zu Programmieraufgaben ist jedoch zeitaufwändig und nicht immer einfach. Gerade in Szenarien, die auf sogenanntes „formatives Assessment“ setzen, ist jedoch ein zeitnahes Feedback zumindest zu den wesentlichen Aspekten einer Lösung sehr wünschenswert. In diesem – aber auch in weiteren Szenarien – kann eine automatisierte Bewertung der Lösungen von Programmieraufgaben einen wertvollen Beitrag zur Verbesserung der Lehre leisten. Darüber hinaus ermöglichen geeignete Systeme eine Darstellung des Lernfortschritts, halten Lernende durch regelmäßig bewertete Übungsaufgaben zur kontinuierlichen Mitarbeit an und unterstützen Lehrende durch einen Überblick über Lernfortschritte und Lernhürden einzelner Studierender und der gesamten Gruppe bei der Planung und Ausrichtung ihrer Lehre.
Dieses Buch richtet sich an Lehrende an Hochschulen, Schulen und anderen Ausbildungseinrichtungen, an Hochschuldidaktiker mit Bezug zur Programmierausbildung und an Informatiker, die mit der Entwicklung oder Integration von Systemen zur automatischen Programmbewertung beschäftigt sind. Die Ziele dieses Buches sind zum einen, Lehrenden die praktische Relevanz und Tauglichkeit automatisierter Programmbewertung aufzuzeigen und damit den Einsatz automatischer Programmbewertung durch die Darstellung erfolgreicher Ansätze zu fördern. Zum anderen soll dem Thema der automatisierten Programmbewertung ein größerer Bekanntheitsgrad in der Fachöffentlichkeit verschafft und Arbeitsergebnisse aus Forschungs- und Praxisprojekten einem größeren Anwenderkreis präsentiert werden.
Der Tagungsband der Teaching Trends 2018 bietet allen Leser*innen spannende Einblicke in Präsenzhochschulen, die in geschickten Szenarien verschiedene digitale Medien für den Kompetenzerwerb ihrer Studierenden nutzen. In einer breiten Sicht auf die Digitalisierung beschäftigen sich die Tagungsbeiträge mit neuen Lernformaten wie Blended Learning und Inverted Classroom, deren aktuellen rechtlichen Rahmenbedingungen in DSGVO und Urheberrecht und technischen Grundlagen, z.B. in Augmented / Virtual Reality oder Audience Response. Darüber hinaus jedoch kommen übergreifende Strategien und Entwicklungskonzepte zu Wort, die die Hochschule in eine digitale Zukunft führen. In allen Bereichen berichteten die Vortragenden sowohl direkt aus ihrer Lehrpraxis als auch aus der begleitenden Forschung. Zur Abrundung der Tagung haben die Herausgeber*innen das einleitende Streitgespräch zur Bedeutung der digitalen Transformation für Universitäten, die Podiumsdiskussion zu Herausforderungen, die sich daraus für das Studium ergeben, sowie eine Keynote zur Architektur von Lernräumen zu Papier gebracht.
Die Dunkle Triade besteht aus den Konstrukten Machiavellismus, Narzissmus sowie Psychopathie. Nachfolgend wird eine Untersuchung des Zusammenhangs zwischen den Konstrukten der Dunklen Triade und Studienerfolg berichtet. Studienerfolg wurde mittels Durchschnittsnote, Studiendauer, Kompetenzerwerb sowie Studienzufriedenheit operationalisiert und jeweils separat überprüft. Insgesamt wurden 98 Studierende der Hochschule Hannover befragt. Es konnten keine statistisch signifikanten Zusammenhänge zwischen den drei Konstrukten der Dunklen Triade und Durchschnittsnote sowie Studiendauer festgestellt werden. Ebenfalls konnten keine statistisch signifikanten Zusammenhänge zwischen Machiavellismus und Kompetenzerwerb sowie Studienzufriedenheit festgestellt werden. Auch für Narzissmus konnten keine statistisch signifikanten Zusammenhänge mit Kompetenzerwerb sowie Studienzufriedenheit festgestellt werden. Die Effekte dieser statistisch insignifikanten Ergebnisse sind in ihrer Höhe gering (r < 0,10). Als statistisch signifikant erwiesen sich die Zusammenhänge zwischen Psychopathie und Kompetenzerwerb (p = 0,01, r = -0,23) sowie zwischen Psychopathie und Studienzufriedenheit (p = 0,03, r = -0,20).
Die Masterarbeit analysiert in einer empirischen Experimentalstudie die Wirkung von CSR-Kommunikation auf Konsumenten in der Lebensmittelbranche. Dazu wurde eine quantitative Online-Befragung durchgeführt, in der mithilfe eines fiktiven Unternehmens untersucht wurde, inwiefern CSR-Kommunikation, die Glaubwürdigkeit der CSR-Kommunikation und die Reputation des Unternehmens das CSR-Image beeinflussen.
Bei der Integration technischer Energiemanagementsysteme (tEnMS) in Automatisierungsanlagen fällt ein hoher Engineering-Aufwand an, besonders für die Steuerungsprogrammierung. Dieser Engineering-Aufwand ist für industrielle Anwender der Hauptgrund, integrierte tEnMS nicht einzusetzen. Im Rahmen des Forschungsprojektes „Integriertes Anlagenengineering zur Erhöhung der Energieeffizienz (IAE4)“ (Förderkennzeichen: ZN2948; Forschungsprofessur des Landes Niedersachsen/Volkswagenstiftung) wurde untersucht, wie sich dieser Engineering-Aufwand reduzieren lässt. Hierzu wurde ein Software-Werkzeug entwickelt, das die benötigten Steuerungsprogramme automatisch aus Engineering-Daten und Gerätebeschreibungsdateien generiert. Dieser Beitrag stellt die Ergebnisse des IAE4-Projektes vor.
Die Reproduzierbarkeit von Studien ist wichtig, um ihre Ergebnisse prüfen zu können. Auch bei Forschung, die auf frühere Ergebnisse aufbaut, wird zuweilen ein Zugang zu den alten Daten oder dem Source Code benötigt. Diese Arbeit analysiert Studien aus der Computerlinguistik hinsichtlich ihrer Reproduzierbarkeit. Zunächst werden die Begrifflichkeiten zu diesem speziellen Gebiet definiert und im folgenden Schritt wird ein Datensatz erstellt, in dem ausgewählte Open-Access-Studien aus dem Jahre 2018 auf der Basis zuvor festgelegter Kriterien bewertet werden. Diese sind unter anderem die Zugänglichkeit des benutzten Materials, der angewendeten Methoden und der Ergebnisse. Neben den Kriterien werden auch Hypothesen zu diesem Datensatz aufgestellt. Schließlich werden die Ergebnisse visualisiert und hinsichtlich besagter Hypothesen interpretiert. Basierend auf der resultierenden Auswertung sind die meisten Studien reproduzierbar. Im Ausblick werden mögliche Weiterführungen und Erweiterungen dieser Untersuchung erläutert.
Fortgeschrittene Konzepte der logischen Programmierung - für Kinder einfach zugänglich via NLP
(2019)
In dieser Arbeit wurde an der über Google Dialogflow gesteuerten Entwicklungsumgebung für logische Programmierung "Speech and Logic IDE" (SLIDE) geforscht. Die Anwendung wurde von Dialogflow zu der Bibliothek Snips NLU überführt, damit ohne Internetanbindung gearbeitet werden kann.
Als Hauptteil der Arbeit wurden die logischen Konzepte Variablen, Rekursion und Listen in die Anwendung implementiert. Es wurde eine Benennungsvorschrift eingeführt, die die Anwendung von starren Strukturen löst und es durch rekursive Verarbeitung erlaubt, beliebig komplexe Strukturen zu modellieren. Die Anwendung wurde anschließend im Rahmen der Sekundarstufe I betrachtet. Die behandelten Fragen waren:
"Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Fakten und Regeln zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Variablen, Rekursion und Listen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen außerhalb der mathematischen Domäne zu vermitteln?"
Dazu wurden zwei Unterrichtsbeispiele konzipiert, die sich im Deutschunterricht mit Grammatik und Lyrik auseinandersetzen, zwei Themen des niedersächsischen Kerncurriculums aus der Sekundarstufe I. Bei der Unterrichtsgestaltung wurde besonderes Augenmerk auf die neu eingeführten Konzepte gesetzt. Das zweite Unterrichtsbeispiel wurde im Rahmen einer Zusammenarbeit mit dem Projekthaus Zukunft MINT der Hochschule Hannover zweimalig mit unterschiedlichen 10. Klassen (IGS und Gymnasium) durchgeführt. Die theoretischen Ergebnisse der Arbeit zeigen, dass alle Fragen mit "Ja" beantwortet werden können. In der neuen Version von SLIDE ist es möglich die neuen Konzepte zu modellieren und es ist möglich Unterrichtsbeispiele zu konzipieren, die dieses Wissen vermitteln und sich auf Inhalte des Kerncurriculums beziehen. Die Ergebnisse der Feldexperimente in Form von Fragebögen fallen weniger aussagekräftig aus, da sich die SuS bereits am Ende der Sekundarstufe I befanden und die konzipierten Inhalte somit eine Wiederholung darstellten. Weiter muss anerkannt werden, dass viele Faktoren bei der Befragung nicht berücksichtigt werden konnten. Deswegen können aus den praktischen Versuchen keine umfassenden Schlüsse gezogen werden, eine optimistische Betrachtung zeigt ein generelles Interesse der Anwendung seitens der SuS. Die Erfahrungen legen nahe die Unterrichtsinhalte auf mehrere Unterrichtseinheiten aufzuteilen, damit die Teilnehmer mit Vorwissen an die neuen Konzepte herantreten und sich auf sie konzentrieren können.
Das Bedürfnis Daten in Echtzeit zu analysieren und auf Ereignisse zu reagieren, ist innerhalb aller Branchen in den letzten Jahren stark gestiegen. Als die Analysetechnik für Echtzeitdatenströme hat sich das Complex Event Processing (CEP) durchgesetzt. Mithilfe von Regeln lassen sich kausale, temporale und räumliche Zusammenhänge von Ereignissen definieren und durch eine CEP-Engine evaluieren. Die Konstruktion von Regeln hat sich dabei als einschränkende Faktor von CEP herausgestellt. Greedy4Cep ist ein algorithmischer Ansatz zur automatisierten Erstellung von CEP-Regeln anhand eines historischen Datenstromes.
Der vorliegende Sammelband hochschulischer Abschlussarbeiten, d. h. wissenschaftlich besonders ansprechende Bachelor- und Masterarbeiten und aktuelle Beiträge von ProjektmitarbeiterInnen, hat sich die Aufgabe gestellt, Beiträge des wissenschaftlichen Nachwuchses der Pflege- und Gesundheitswissenschaften aus den drei beteiligten Hochschulen Hannover, Esslingen und Bielefeld zur Diskussion zu stellen. Dabei haben die drei Herausgebenden dieser Hochschulen für angewandte Wissenschaften, die einschlägige Studiengänge für Gesundheits- und Pflegeberufe anbieten, die hier veröffentlichten Beiträge jeweils an den entsprechenden Hochschulstandorten begleitet. Zusätzlich wurden alle Beiträge auch einem wechselseitigen Review durch die drei Herausgebenden unterzogen, um abschließend eine einheitliche Formatierung von hochschulisch zwar durchaus ähnlichen ggfs. aber in den Details etwas unterschiedlichen Standards wissenschaftlichen Arbeitens in den Beiträgen umzusetzen.
Im Ergebnis sind so im Zeitraum von Dezember 2017 bis Mai 2019 insgesamt 13 pflege- und gesundheitswissenschaftliche Beiträge, d. h. 14 Bachelor- und Masterarbeiten (hier drei kooperative Arbeiten von jeweils zwei AutorInnen) und zwei Drittmittelprojekte unter Beteiligung von NachwuchswissenschaftlerInnen sehr verbindlich und konzentriert bearbeitet worden, die nun hier unter einer jeweils gemeinsamen Kapitelüberschrift nach den drei Standorten kurz vorgestellt und gewürdigt werden sollen.
An der Hochschule Hannover soll die Lernplattform LON-CAPA von Moodle-STACK abgelöst werden. Dazu werden Aufgaben von LON-CAPA nach Moodle-STACK konvertiert. Durch die Entwicklung eines Konverters kann ein großer Teil dieser Arbeit automatisiert erfolgen. Aufgrund der potentiellen Komplexität von LON-CAPA-Aufgaben ist nicht jede Aufgabe in vollem Umfang zu übersetzen und eine manuelle Nacharbeit notwendig.
In dieser Arbeit werden die LON-CAPA-Antworttypen numerical, formula und math response analysiert. Es wird untersucht, wie LON-CAPA-Aufgabenelemente einzeln umgewandelt werden können und welche Parameter im Moodle-STACK-Format gesetzt werden müssen, um eine äquivalente Aufgabe in Moodle-STACK zu erhalten.
Die technische Umsetzung erfolgt in Java. Der modulare Aufbau sieht Wartbarkeit und Weiterentwicklung vor. Auf GitHub steht die Implementierung unter der GPL (GNU General Public License) zur Verfügung: https://github.com/kiliandangendorf/lc2mdl
Das wissenschaftliche Publikationswesen befindet sich in einem Transformationsprozess, weg von der Bezahlung des lesenden Zugriffs durch den Kauf von Lizenzen durch Bibliotheken, hin zu der Vergütung der Verlagsleistungen durch Publikationsgebühren. Ziel ist der freie Zugang zu Forschungsergebnissen in wissenschaftlichen Publikationen und den dazugehörigen Forschungsdaten. Dieser freie Zugang zu wissenschaftlicher Literatur wird weltweit, unter dem Begriff Open Access gefördert und vorangebracht. Veränderungen in der Wissenschaft bedeuten auch immer Änderungen in den Arbeitsabläufen und im Aufgabenbereich wissenschaftlicher Bibliotheken. Diese Arbeit beschäftigt sich mit der Fragestellung, welche Angebote medizinische Fachbibliotheken in Deutschland, Österreich und der Schweiz den Wissenschaftlern ihrer Institution im Bereich des Open Access Publizierens bieten. Aufbauend auf den Ergebnissen einer Webseitenanalyse, werden Handlungsempfehlungen für die Ärztliche Zentralbibliothek im Universitätsklinikum Hamburg-Eppendorf für den Aufbau von Publikationsdiensten, insbesondere für Open Access, erstellt.
Dieser Beitrag adressiert einleitend die aktuelle Bedrohungslage aus Sicht der Industrie mit einem Fokus auf das Feld und die Feldgeräte. Zentral wird dann die Frage behandelt, welchen Beitrag Feldgeräte im Kontext von hoch vernetzten Produktionsanlagen für die künftige IT-Sicherheit leisten können und müssen. Unter anderem werden auf Basis der bestehenden Standards wie IEC 62443-4-1, IEC 62443-4-2 oder der VDI 2182-1 und VDI 2182-4 ausgewählte Methoden und Maßnahmen am Beispiel eines Durchflussmessgerätes vorgestellt, die zur künftigen Absicherung von Feldgeräten notwendig sind.
Automatisiert bewertbare Programmieraufgaben dienen Studierenden zum Einüben von Programmierfertigkeiten. Die Verfügbarkeit von mehreren verschiedenen Aufgaben, die denselben Stoff abdecken, ist für verschiedene Zwecke hilfreich. Eine Programmieraufgabe lässt sich durch Einführung von Variationspunkten variabel gestalten. Die hierbei entstehende Aufgabenschablone ist Ausgangsbasis der sogenannten Materialisierung, der automatischen Generierung konkreter Aufgaben. Der vorliegende Beitrag stellt ein Datenmodell mit dem Ziel vor, sowohl die Auswahl von Variationspunktwerten als auch die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen zu unterstützen. Das vorgeschlagene Datenformat ermöglicht Lernmanagementsystemen die Unterstützung variabler Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö umfasst 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden drei Datenerhebungen geschildert. In der ersten Datenerhebung (n = 1.617) wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Neu im Vergleich zur ersten Auflage des Manuals ist die dritte Datenerhebung, in der die HKS 38 Ö für eine Befragung von Polizeischülern (n = 1.455) verwendet wurde. Auch die Daten der dritten Erhebung wurden testtheoretisch überprüft. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.
Anlässlich einer bevorstehenden Curriculumsrevision führte der Bachelorstudiengang Informationsmanagement der Hochschule Hannover im März 2016 eine Studie unter all seinen bisherigen Absolventen durch (Abschlussjahrgänge 2008 bis 2015). Bei einer Grundgesamtheit von 303 Personen antworteten 200 (66%). Die Ergebnisse enthalten ein retrospektives Feedback auf das Studium und skizzieren die Strukturreform, die daraus als Konsequenz erwächst. Zudem geben sie Aufschluss über Berufseinmündung und Berufsverlauf der Alumni und umfassen Eckdaten über ihr erstes und aktuelles Beschäftigungsverhältnis.
Der Übergang vom Studium in den Beruf gestaltet sich bei dem Gros der Befragten problemlos. Ein Drittel der Alumni schließt ein Masterstudium an. Zum Befragungszeitpunkt liegt die Beschäftigungsquote bei 96%. Davon arbeiten 64 % unbefristet. Die thematische Breite des IM-Curriculums spiegelt sich in einer Vielfalt von Branchen und Tätigkeiten wider, die die Alumni mit ihrem aktuellen Beschäftigungsverhältnis abdecken. Die Befragten äußern insgesamt eine große Zufriedenheit mit ihrer beruflichen Entwicklung, allerdings hätten sie sich im Studium mehr Orientierung und größere Wahlfreiheit bei der Fächerbelegung gewünscht. Das revidierte Curriculum wird deshalb mehr Verbindlichkeit und zugleich größere Flexibilität bei der Schwerpunktwahl vorsehen.
Automatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden. Letzteres sucht einen Ausgleich im Spannungsfeld zwischen einem für Studierende einfach verständlichen Bewertungsergebnis und den Eigenarten der eigentlich nicht für Bewertungszwecke erfundenen, nichtsdestotrotz regelmäßig und sinnvollerweise für Bewertungszwecke eingesetzten Softwarewerkzeuge.
Das Thema Elektromagnetische Verträglichkeit (EMV) ist noch immer ein wesentlicher Aspekt bei der Planung, bei der Installation und beim Betrieb von Automatisierungssystemen. Kommunikationsnetzwerke wie zum Beispiel PROFIBUS und PROFINET sind als robuste und zuverlässige Übertragungssysteme bekannt. Dennoch ist für deren Funktion die Beachtung einiger grundlegender Prinzipien wichtig, um einen störungsfreien Betrieb über ein langes Anlagenleben zu gewährleisten. Der Beitrag beschreibt zunächst einige Grundlagen der EMV. Basierend auf diesen Grundlagen werden dann sechs Handlungsempfehlungen abgeleitet, die bei der Planung eines Automatisierungssystems für den Einsatz in der Fertigungsindustrie zu beachten sind. Abschließend wird ein Ausblick auf die weiterführenden Arbeiten für Anlagen der Prozessindustrie gegeben.
In der vorliegenden Bachelorarbeit wird thematisiert, wie Coding zu Zwecken der sich im Umbruch befindenden MINT-Bildung eingesetzt werden kann und welche Kompetenzen durch das Erlernen von Programmierfähigkeiten gefördert werden. Darüber hinaus wird ein Bezug zur Informatik als Herkunftswissenschaft des Coding hergestellt und die Relevanz einer frühzeitigen Aneignung von Programmierfähigkeiten in einer digitalen Gesellschaft beleuchtet. Eine Analyse der webbasierten Programmierplattformen Open Roberta Lab, Scratch, Sprite Lab von Code.org und TurtleCoder, die zur Vermittlung von Programmier-fähigkeiten bei Kindern genutzt werden können, gibt Aufschluss darüber, ob sich die benannten Programmierplattformen auch für den Einsatz in außerschulischen Bildungseinrichtungen, wie etwa öffentliche Bibliotheken, eignen.
In den letzten Jahren wurden verstärkt neue Forschungsinformationssysteme (FIS) geplant, aufgebaut und in Betrieb genommen. Da diese IT-gestützten Informationssysteme eine Vielzahl an Forschungsinformationen beinhalten sowie verschiedenen Zielen dienen können, bietet eine Sammlungsrichtlinie die Möglichkeit, die Entscheidungen auf inhaltlicher Ebene verbindlich und transparent darzustellen. Derartige Richtlinien existieren zum Beispiel bereits für Sammlungen in Bibliotheken und Museen. Die Bachelorarbeit zieht Parallelen zu diesen Bereichen und beschreibt deren Ziele und Inhalte.
In einem praxisbezogenen Teil wurde die Sammlungsrichtlinie für das Informationssystem Göttingen Research Online (GRO) erstellt. Die Vorgehensweise, Hindernisse und Erfahrungen werden zusammenfassend wiedergegeben. Ergänzt werden die Erkenntnisse durch eine Befragung unter deutschen Hochschulen und Forschungseinrichtungen.
Abschließend ist eine Empfehlung für eine FIS-Sammlungsrichtlinie entstanden, die Hinweise, Bestandteile und Best Practices enthält und somit anderen Institutionen als Leitfaden dienen kann.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
Dieser Text soll das Verfassen von Bachelorarbeiten erleichtern. Schrittweise wird dargestellt, wie man recherchiert, wie man eine Bachelorarbeit strukturiert, wie man argumentiert, wie man Ergebnisse darstellt und wie man eine zielführende Diskussion führt. Zwei Meilensteine für eine gute Bachelorarbeit sind das eigenständige Strukturieren von Informationen sowie das Entwickeln einer Argumentationslinie. Informationen sollen nicht unverbunden nebeneinander stehen, sondern argumentativ verknüpft werden. Es werden abschließend Grundregeln des Darstellens und Zitierens erläutert.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Bibliotheken sind Lernorte. Der interne Organisationsaufbau von Bibliotheken weist hingegen bisher wenige Strukturen einer Lernenden Organisation auf. Um die Bereitstellung von Medien und Informationen für Bibliotheksnutzer aufrechtzuerhalten und stetig an deren Bedürfnissen auszurichten (z. B. im Kontext der fortschreitenden Digitalisierung), bedarf es eines gut ausgebildeten Bibliothekspersonals. Klassische Fortbildungskonzepte gehören ebenso dazu, wie der kontinuierliche, persönliche Lernprozess eines jeden Bibliotheksmitarbeiters. Die Methode „Working Out Loud“ kann eingesetzt werden, um diese persönlichen Fähigkeiten auszubauen und eine agile Arbeitsweise anzuregen. Daher wird überprüft, inwiefern Working Out Loud die Lernende Organisation unterstützen kann. Zunächst wird die Methode Working Out Loud und deren Anwendung bei Unternehmen vorgestellt. Dann werden die Kennzeichen von Lernenden Organisationen definiert und auf Bibliotheken angewandt. Angeschlossen wird eine Betrachtung des zwölf Wochenprogramms von Working Out Loud und deren Potential zur Unterstützung der Lernenden Bibliothek. Working Out Loud vermittelt Bibliotheksmitarbeitern durch gezielte Übungen eine offenere Arbeitseinstellung, die sie mit ihren Kollegen innerhalb und außerhalb der Bibliothek zu teilen lernen.
Content-Gestaltung und Einsatzmöglichkeiten von Augmented Reality in Öffentlichen Bibliotheken
(2019)
Augmented Reality (AR), die Erweiterung der Realität durch computergenerierte Zusatzobjekte, kommt bisher hauptsächlich in Wissenschaftlichen Bibliotheken (WB) zum Einsatz. Diese Arbeit beschäftigt sich deshalb mit den Einsatzmöglichkeiten von AR in Öffentlichen Bibliotheken (ÖB). Betrachtet wird dabei die Realisierung von AR über eigenständig gestalteten Content mittels Anbietern im Internet und dazugehörigen Browser-Apps. Dies stellt eine kostengünstige und barrierefreie Alternative zur Programmierung von Apps dar. Dafür wird zunächst ein theoretischer Überblick gegeben, indem AR definiert wird und die technischen Grundlagen, wie Trackingverfahren und Interfaces, erläutert werden. Darauf folgen, zur Un-termauerung der Diskrepanz zwischen WB und ÖB, Beispiele für umgesetzte Projekte aus beiden Sparten. Anschließend wird auf die allgemeinen Einsatzgebiete und Potenziale von AR sowie die Aufgaben von ÖBs eingegangen. Die daraus abgeleiteten Einsatzmöglichkeiten von AR für Öffentliche Bibliotheken, Navigation und Orientierung, Bestandserweiterung, Veranstaltungen, Öffentlichkeitsarbeit/Marketing/Werbung sowie Informationskompetenz, werden erläutert. Zur Content-Gestaltung werden zunächst Grundvoraussetzungen genannt und die Funktionsweise der AR-Anbieter im Internet erklärt. Im Anschluss werden die Anbieter Blippar, HP Reveal, Layar, ROAR, Wikitude und Zappar, auf Grundlage eines zuvor erstellten Kriterienkatalogs, hinsichtlich ihres Funktionsumfangs verglichen. Im Ergebnis zeigt sich, dass sich die Anbieter zwar alle ähneln, bezüglich spezieller Funktionen und Kosten aber unterscheiden. Am besten schneidet dabei Zappar ab. Ergänzend werden danach die verschiedenen Arten von Content näher betrachtet. Zur Veranschaulichung der leichten Realisierbarkeit von AR werden zwei praktische Beispiele umgesetzt. Zum Abschluss werden Grenzen und Probleme, auch aus rechtlicher Perspektive, betrachtet. Diese schränken die Content-Gestaltung und die Einsatzmöglichkeiten nur wenig ein, womit die Content-Gestaltung von AR für den Einsatz in ÖBs sehr gut geeignet ist.
Organisation der ITSicherheit in der Produktion : in zehn Schritten zur sicheren Produktionsanlage
(2018)
Der folgende Beitrag befasst sich mit der IT-Sicherheit von Produktionsanlagen aus Betreibersicht. Hierbei liegt der Fokus auf den organisatorischen Aspekten der IT-Sicherheit. In einer Bestandsaufnahme werden zunächst die Probleme herausgearbeitet, die entstehen, sofern sich eine Organisation im Wesentlichen auf technische Aspekte der IT-Sicherheit konzentriert. Daraus wird die Notwendigkeit organisatorischer Maßnahmen abgeleitet. Eine Betrachtung von Normen und Standards, die sich mit den organisatorischen Aspekten der IT-Sicherheit in der Produktion befassen, liefert das Grundgerüst für die Ableitung eines Maßnahmenplans. Der daraus resultierende 10-Punkte-Plan zur Umsetzung der IT-Sicherheit in der Produktion schließt den Beitrag ab.
In der Lehre kommen seit einiger Zeit Autobewerter zum Einsatz, um automatisiert oder teilautomatisiert Lösungen von Lernenden zu Programmieraufgaben zu bewerten. Aus Sicht eines Betreibers von Autobewerter-Systemen erfordert letzteres meist die Ausführung von fremdem Programmcode in der eigenen Server-Umgebung. Hierbei ist Vorsicht geboten, da fehlerhafter oder angriffslustiger Programmcode verbotene Aktionen ausführen könnte.
An der Hochschule Hannover können Studierende Lösungen zu Programmieraufgaben verschiedener Programmiersprachen über das Lernmanagementsystem "moodle" einreichen. Die angeschlossene Middleware Grappa nimmt Lösungen anschließend entgegen und leitet diese an einen Autobewerter der zugehörigen Programmiersprache weiter.
Diese Arbeit befasst sich damit, Sicherheitsrisiken bei der Ausführung von fremdem Programmcode durch Autobewerter zu identifizieren und zu vermeiden. Hierzu gilt es, mögliche Angriffe herauszustellen und aktuelle, angemessene Technologien zu finden, um diese zu verhindern. Anschließend findet mit einer Technologie die Entwicklung einer abgesicherten Ausführungsumgebung für beliebige an die Middleware Grappa angebundene Autobewerter statt. Die exemplarische Einbettung der beiden Autobewerter Graja und Praktomat in die entwickelte Ausführungsumgebung soll unter Beweis stellen, dass es sich um eine generische Lösung mit wenig Overhead handelt.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Leo A. Nefiodow, einer der angesehensten Vordenker der Informationsgesellschaft, verweist auf die großen Schäden und Verluste, die uns momentan durch psychische Störungen wie beispielsweise Angst, Depressionen, Burnout und ihre Folgen wie Gewalt, Kriminalität, Drogenmissbrauch und Erkrankungen entstehen. Die Förderung psychosozialer Gesundheit wäre somit geeignet, sowohl das Wohlbefinden des einzelnen Menschen zu verbessern als auch der Wirtschaft und der gesamten Gesellschaft einen Entwicklungsschub zu verleihen. Im Rahmen des Arbeitspapiers geht es darum, Möglichkeiten des Gegensteuerns aus dem Blickwinkel von Achtsamkeit vorzustellen. U. a. am praktischen Beispiel einer Schule wird versucht, das Wirkprinzip von Achtsamkeit zur Förderung psychosozialer Gesundheit in einer sozialen Einheit zu verdeutlichen.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö besteht aus 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden zwei Datenerhebungen geschildert. Mit einer ersten Datenerhebung wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.
Viele Unternehmen experimentieren mit Agilität. Gleichzeitig ist die Unsicherheit groß, wieviel Agilität ein QM-System nach ISO 9001 tatsächlich verträgt. Ein gemeinsames Forschungsprojekt der Hochschule Hannover und der DGQ hat sich zum Ziel gesetzt, hier mehr Sicherheit zu geben. Aus Interviews mit Vertretern von Unternehmen, welche teilweise agil arbeiten, entstand erstmals eine klare Definition von Agilität, agilen Praktiken und agilen Prozessen im Organisationskontext. Die daraus entwickelten Leitlinien für die Integration von agilen Vorgehensweisen in QM-Systeme beweisen schlüssig, dass agile Prozesse grundsätzlich nach den ISO 9001-Kriterien zertifizierungsfähig ausgestaltet werden können.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Die vorliegende Ausarbeitung befasst sich mit der Digitalisierung und der Öffnung des Kulturerbes. Anhand einer theoretischen und qualitativen Untersuchung mit Experteninterviews soll verdeutlicht werden, warum einige Kulturerbeinstitutionen wenig motiviert sind, ihre Sammlungen und Artefakte digital zu öffnen. Mit Hilfe von sieben Experteninterviews aus unterschiedlichen kulturellen Digitalisierungsbereichen soll erforscht werden, wo die Kulturerbedigitalisierung aktuell steht und welche Chancen und Risiken Digitalisierungsmaßnahmen fördern oder hemmen. Weiter werden die Ergebnisse geprüft, um daraus mobilisierende Maßnahmen zu erkennen.
An acht deutschen Hochschulen besteht heute die Möglichkeit, einen grundständigen Bachelorstudiengang Evangelische Religions- bzw. Gemeindepädagogik zu absolvieren, der je nach landeskirchlicher Tradition die kirchliche Berufsanerkennung als Diakon/in bzw. Gemeindepädagoge/-pädagogin ermöglicht. An fünf Standorten kann diese Qualifikation mit einem zweiten Abschluss in Sozialer Arbeit verbunden werden, der zu einer staatlichen Anerkennung als Sozialarbeiterin bzw. Sozialpädagoge führt. Welche Erfahrungen machen Studierende im Laufe eines Studiums der Religions- und Gemeindepädagogik? Wie gut fühlen sie sich durch das Studium auf eine anschließende eigenständige Berufstätigkeit vorbereitet? Welche Vorstellungen haben sie von den Arbeitsfeldern und Aufgabenbereichen in denen sie später arbeiten wollen? Um Antwort auf diese Fragen zu erhalten wurden die Studierenden zum Ende ihres Studiums befragt. Der vorliegende Bericht fasst zentrale Ergebnisse für den Studienstandort Hannover zusammen und vergleicht diese mit jenen anderer Hochschulstandorte.
Viele erwachsene Deutsche sind keine guten und geübten Leser. Sachtexte führen deswegen zu Unklarheiten, Fehlentscheidungen und Nachfragen. Diese Konzequenz stellt sich auch bei geübten aber fachfremden Lesern ein. Nur eine sprachliche Anpassung an Leser kann das ändern. Der Aufsatz vergleicht dazu zwei Ansätze, Einfache Sprache und Leichte Sprache. Der Autor vertritt die Auffassung, dass nur eine einfache Sprache als Lösung des genannten Dilemmas taugt. Leichte Sprache ist gegenwärtig das einzige Instrument, um Menschen mit neuronalen Schädigungen einen Inhalt zu übermitteln. Doch auch dafür nutzt sie nur eingeschränkt. Die Wissenschaft wird an diesen Themen arbeiten müssen. Sie steht erst am Anfang.
Beitrag zum Workshop "Informationskompetenz im Norden" am 01.02.2018 im Bibliotheks- und Informationssytem der Carl von Ossietzky Universität Oldenburg.
Es geht zunächst darum, welche Ansätze und Projekte die Schreibwerkstatt verfolgt, um Informations- & Schreibprozesse an der Hochschule Hannover zu fördern.
Da es gemeinsame Ziele und Zielgruppen von sowie inhaltliche Überschneidungen zwischen Bibliothek und Schreibwerkstatt gibt, werden Kooperationsbeispiele und Vorteile der Zusammenarbeit vorgestellt.
Im Social Web wird der Gatekeeper zum Gatewatcher. Unternehmen können medial eigene Inhalte an die relevanten Bezugsgruppen vermitteln, ohne auf einen Gatekeeper angewiesen zu sein. Die Relevanz der Inhalte wird allerdings durch das Publikum bestimmt. Die Nachrichtenwerttheorie, die ursprünglich auf die Selektion von Journalisten von Nachrichten geprägt war, muss uminterpretiert werden, um aktuell zu bleiben. Welche Nachrichtenfaktoren bestimmen also die Interaktion des Publikums und sorgen für wahre Relevanz in den Sozialen Medien?
Zu einer Vielzahl von Vorlesungen gibt es Übungsaufgaben, anhand derer das theoretisch erlernte Wissen noch weiter vertieft, gefestigt oder praktisch angewandt werden kann. Klassischerweise erhalten alle Studierende hierfür dieselbe Aufgabe. Allerdings gibt es gute Gründe, für alle eine jeweils individualisierte Variante zu erstellen. Da es für eine einzelne Lehrperson unmöglich ist, für alle Studierenden individuelle Aufgaben zu konzipieren, wurden in anderen Arbeiten bereits Möglichkeiten entwickelt, variable Aufgaben zu formulieren, aus denen viele unterschiedliche Varianten generiert werden können. Diese Bachelorarbeit befasst sich mit dem Entwurf und der Implementierung eines Services, der diese Generierung automatisiert durchführen kann. Er soll unabhängig von einem konkreten Frontend sein und mit beliebigen Gradern zusammenarbeiten können.
Unternehmen befinden sich in einem Beziehungsgeflecht mit verschiedenen Stakeholdern, die differierende Ansprüche stellen und den Erfolg des Unternehmens stark beeinflussen. Unter diesen Gegebenheiten ist es von zentraler Bedeutung, gute Beziehungen zu den unterschiedlichen Gruppen und somit ein hohes Beziehungskapital aufzubauen. Eine Schlüsselfunktion kommt dabei der Kommunikation zu, da sie das Bindeglied zwischen Unternehmen und Stakeholdern darstellt.
Um mithilfe strategischen Kommunikationsmanagements die Beziehungen zu Stakeholdern zu stärken, müssen Unternehmen wissen, worauf überhaupt gute Beziehungen beruhen. Im Zentrum der Arbeit steht daher das soziale Kommunikations-Controlling von Unternehmen als Analyse- und Steuerungsfunktion und die Frage, aus welchen Faktoren sich das Beziehungskapital eines Unternehmens zusammensetzt. Im Gegensatz zum ökonomischen Kommunikations-Controlling fokussiert der soziale Ansatz nicht die ökonomische Ausrichtung der Kommunikation, sondern die Unternehmen-Stakeholder-Beziehungen.
Auf Basis des Beziehungskapital-Ansatzes von Szyszka und zentralen Reputationskonzepten wurden die Dimensionen und Indikatoren von Beziehungskapital hergeleitet. Eine quantitative Befragung einer breiten Öffentlichkeit diente anschließend der Prüfung des Entwurfs und der Identifikation möglicher weiterer Aspekte. Das Ergebnis stellt ein Modell dar, demnach Beziehungskapital aus folgenden acht Dimensionen besteht: die Produkte und Services, der unternehmerische Erfolg sowie die Kompetenz des Unternehmens als funktionale Komponenten, die soziale Verantwortung, die ökologische Verantwortung und die Verantwortung gegenüber den Mitarbeitern als soziale Komponenten sowie die Sympathie und Attraktivität des Unternehmens als affektive Komponenten. Die Dimensionen werden durch insgesamt 20 Indikatoren repräsentiert.
Das Modell lässt sich in den theoretischen Kontext des sozialen Kommunikations-Controllings einordnen und kann als Erweiterung des Beziehungskapital-Ansatzes hinzugezogen werden. In der Praxis liefert die Arbeit erste Hilfestellungen, um das Beziehungskapital eines Unternehmens bestimmen und darauf aufbauend ein strategisches Kommunikationsmanagement etablieren zu können.
Lässt man sich etwas Zeit bei der Betrachtung der Märchenfigur des Froschkönigs erkennt man zwei unterschiedliche Ebenen. Die Prinzessin aus dem Märchen darf beide erfahren. Einerseits nimmt sie den Frosch als Belastung wahr. Andererseits erfährt sie in dem Frosch auch einen königlichen Aspekt, der durch die Krone symbolisiert wird. Wie kommt die Prinzessin von der empfundenen Belastung hin zur Erfahrung der „Krone des Lebens“? Die Verwandlung geschieht durch das Akzeptieren der Situation. In dem Märchen wird das Annehmen durch den Kuss symbolisiert.
Auch im normale Alltag werden Menschen mit diversen Belastungen – kleineren und größeren – konfrontiert. Das kann beispielsweise im Job, in der Familie oder auch im Straßenverkehr sein. Und es pfeifen die Spatzen von Dächern, dass Belastungen, die über einen längeren Zeitraum empfunden werden, zu diversen Krankheiten führen können. Man denke z. B. an Herz-/Kreislauferkrankungen, Angststörungen, Burnout, Süchte sowie erhöhte Aggressionsbereitschaften.
Es gibt also einen riesigen Handlungsbedarf. Mit Blick auf das Märchen „Der Froschkönig“ stellt sich die Frage, ob in Situationen, die als Belastung empfunden werden, vielleicht auch etwas Königliches verborgen ist.
Im Arbeitspapier wird im Sinne der Achtsamkeit davon ausgegangen, dass sich die Krone des Lebens in Situationen erst dann zeigen kann, wenn sie „geküsst“ bzw. angenommen werden, weil sich dann eine neue, eine tiefere Dimension zeigt, die man sich mit dem Verstand nicht erschließen kann.
Dass Menschen bereit sind, ein Leben lang zu lernen, ist bereits in der heutigen Informations- und Wissensgesellschaft eine wichtige Voraussetzung, um in der Arbeitswelt zu bestehen, innovativ zu sein und sich weiterzuentwickeln. Die vorliegende Arbeit untersucht, inwieweit die Montessori-Pädagogik bereits Kinder und Jugendliche auf die Herausforderungen der Zukunft vorbereiten kann und ob sie den Anforderungen, die das Lebenslange Lernen stellt, gerecht wird. Zunächst werden das Phänomen des Lebenslangen Lernens, das Lernen in verschiedenen Lebensphasen und Lernsituationen sowie die Gründe und Ziele von Lebenslangem Lernen vorgestellt. Anschließend werden als Einflussfaktoren für das Gelingen Lebenslangen Lernens, und zwar die Lernmotivation, die Lernumgebung, die Lernerfahrung, das selbstgesteuerte Lernen sowie Kompetenzen skizziert. Weiter folgen ein Überblick über die Montessori-Pädagogik, deren Erziehungsziele, Grundlagen sowie Methoden. Den Abschluss der Arbeit bildet ein Vergleich der Konzepte und Prinzipien der Montessori-Pädagogik mit den Methoden, die für das Lernen am Arbeitsplatz eingesetzt werden und damit dem Lebenslangen Lernen dienen.
Der vorliegende Leitfaden ist eine Hilfestellung zur Vernehmung von erwachsenen Zeugen und Beschuldigten. Er wurde an der Hochschule für Polizei Baden-Württemberg interdisziplinär erstellt und berücksichtigt neueste wissenschaftliche Erkenntnisse sowie rechtliche, kriminalistische und psychologische Aspekte.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Wir hoffen, dass Ihnen damit die praktische Vernehmung erleichtert wird und Sie gute Ergebnisse erzielen werden.
Wir freuen uns über Ihr Feedback!
Im Rahmen einer umfassenden Organisationanalyse durch das Projekt "Inklusive Beratung und Begleitung" der Hochschule Hannover wurde die Konzeptionalisierung und Praxis der Kooperationen der Jakob-Muth-Schule, anerkannte Tagesbildungsstätte aus Meppen einer näheren Betrachtung unterzogen und auf ihren Mehrwert im Kontext einer inklusiven Schullandschaft reflektiert. Anhand von Einzel- und Gruppeninterviews mit Lehrer*innen sowie pädagogischen Fachkräften konnten inklusionsförderliche und -hemmende Aspekte herausgearbeitet werden. Im Zuge einer resümierenden Betrachtung werden Ansatzpunkte zur Verbesserung der Zusammenarbeit und pädagogischen Praxis formuliert und zur Diskussion gestellt.
Mit dem Krankenhausfinanzierungsreformgesetz hat der Gesetzgeber 2008 die Möglichkeit zur finanziellen Umstrukturierung von psychiatrischen und psychosomatischen voll- und teilstationären Kliniken geschaffen, nachdem seit 2003 bereits für allgemeine und somatische Krankenhäuser durch das German Diagnosis Related Groups-System (G-DRG-System) eine Umstellung der Abrechnung auf Fallpauschalen erfolgte. Nach heftiger Kritik diverser Fach- und Selbsthilfeverbände wurde das Pauschalierendes Entgeltsystem Psychiatrie und Psychosomatik (PEPP) 2016 überarbeitet. Entstanden ist das Psych-Entgeltsystem, welches zum 01.01.2017 in Kraft getreten ist. Ziel dieser Masterarbeit ist die Erfassung des Informationsstandes von Ergotherapeuten über das neue System und die Entwicklung von Hypothesen über die Auswirkungen des Psych-Entgelt auf die Arbeit von Ergotherapeuten im Fachbereich teil- und vollstationäre Psychiatrie. Dafür wurden sechs teilstrukturierte, Leitfaden gestützte qualitative Experteninterviews durchgeführt und die Ergebnisse hinsichtlich auf das Wissen der Therapeuten ausgewertet und interpretiert. Weiterhin wurde eine umfassende Literaturrecherche in deutschen Datenbanken, Fachzeitschriften und Monographien durchgeführt, um den aktuellen State of the Art der Forschungsliteratur darzustellen. Trotz großer Medienberichterstattung in der allgemeinen Presse und Fachliteratur anderer Berufsgruppen ist das Thema sowohl in der ergotherapeutischen Fachdiskussion als auch bei den Ergotherapeuten in den psychiatrischen Kliniken wenig präsent. Der Wissensstand der Ergotherapeuten variiert und ist abhängig von der Informationspolitik der Kliniken. Die Auswirkungen des neuen Finanzierungsmodells auf die Arbeit der Ergotherapeuten sind noch nicht absehbar, jedoch vermuten die Interviewpartner gravierende Veränderungen. Das neue Finanzierungsmodell wird in den nächsten Jahren zu einem Wandel in psychiatrischen und psychosomatischen Kliniken führen. Für die Ergotherapie besteht eine Chance zur inhaltlichen Neuausrichtung und Neuaufstellung innerhalb der hierarchischen Strukturen der Einrichtungen.
Dieser Beitrag fasst drei explorative Befragungen zusammen, in denen unter anderem Zusammenhänge von ehrenamtlichem Engagement mit verschiedenen Variablen überprüft wurden. Die Überprüfung dieser Zusammenhänge betrifft sowohl personaldiagnostische Variablen als auch korruptionsrelevante Variablen. Konkret wurde ehrenamtliches Engagement auf Zusammenhänge mit dem Fünf-Faktoren-Modell der Persönlichkeit, mit emotionaler Kompetenz, mit Korruptionswahrnehmung und mit der Einstellung zu Korruption überprüft. Befragt wurden Studierende der Betriebswirtschaftslehre, der Wirtschaftsinformatik, der Psychologie, der Rechtswissenschaften sowie Auszubildende der Polizei. Ehrenamtliches Engagement besitzt insgesamt nur eine geringe praktische Bedeutung für die Personaldiagnostik und ebenfalls nur eine geringe Bedeutung für die Korruptionsprävention. Derzeit ehrenamtlich engagierte Testpersonen weisen eine geringere Affinität gegenüber Korruption auf als Testpersonen ohne derzeitiges ehrenamtliches Engagement. Relativiert werden diese Ergebnisse jedoch durch ihre Widersprüchlichkeit über die drei Befragungen hinweg und durch die durchgängig geringen Effekthöhen. Wegen der geringen Effekthöhen ist die praktische Bedeutung eines ehrenamtlichen Engagements sowohl für die Personaldiagnostik als auch für die Korruptionsprävention als gering einzustufen.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Die Einführung von Discovery-Systemen in wissenschaftlichen Bibliotheken ist aktuell ein viel diskutiertes Thema in der deutschen Bibliothekslandschaft. In dieser Bachelorarbeit wird die konkrete Implementierung des Discovery-Systems in der Herzog August Bibliothek (HAB) in Wolfenbüttel betrachtet. Hierfür wird zunächst ein generelles Verständnis für Bibliothekskatalogsysteme geschaffen. Eine vergleichende Studie der Recherchequalität zwischen dem Discovery-System und dem bestehenden OPAC (Online Public Access Catalogue) wird durchgeführt, um zum einen Empfehlungen für notwendige Anpassungen an dem Discovery-System auszusprechen und zum anderen letztendlich eine Aussage über die Möglichkeit einer Abschaltung des OPACs zu treffen. Eine Abschaltung des OPACs ist aufgrund der Ergebnisse nur dann erfolgreich möglich, wenn die HAB ihre Viel- und Intensivnutzer in den Implementierungsprozess mit einbezieht und deren Anforderungen und Wünsche an das Discovery-System umsetzt. Die Studie zeigt, dass die Benutzer der HAB an den OPAC gewohnt sind und für die HAB daher die Herausforderung in der Akzeptanzschaffung für das neue System liegt.
Informationskompetenz ist eine Schlüsselkompetenz für gesellschaftliche Teilhabe. Unter dem Eindruck des „Framework for Information Literacy for Higher Education“ der ACRL verändert sich das Verständnis von Informationskompetenz. Die Angebote zur Förderung von Informationskompetenz von Universitäts- und Hochschulbibliotheken müssen besser in die Lehre in den Disziplinen integriert werden. E-Learning-Formate eigenen sich hierfür besonders gut. Für die gelungene Gestaltung von E-Learning-Angeboten sind Kenntnisse über Lerntheorien und Mediendidaktik notwendig. Auf eine breite theoretische Betrachtung folgt der Entwurf mediendidaktischer Konzepte für ein E-Learning-Angebot zur Förderung von Informationskompetenz an der Universitätsbibliothek der Freien Universität Berlin.
In der vorliegenden Masterarbeit geht es um die automatische Annotation von Bildern mithilfe der Kategoriesystematik der Wikipedia. Die Annotation soll anhand der Bildbeschriftungen und ihren Textreferenzen erfolgen. Hierbei wird für vorhandene Bilder eine passende Kategorie vorgeschlagen. Es handelt sich bei den Bildern um Abbildungen aus naturwissenschaftlichen Artikeln, die in Open Access Journals veröffentlicht wurden. Ziel der Arbeit ist es, ein konzeptionelles Verfahren zu erarbeiten, dieses anhand einer ausgewählten Anzahl von Bildern durchzuführen und zu evaluieren. Die Abbildungen sollen für weitere Forschungsarbeiten und für die Projekte der Wikimedia Foundation zur Verfügung stehen. Das Annotationsverfahren findet im Projekt NOA - Nachnutzung von Open Access Abbildungen Verwendung.