Refine
Year of publication
Document Type
- Article (525)
- Conference Proceeding (162)
- Bachelor Thesis (149)
- Report (102)
- Working Paper (85)
- Book (73)
- Master's Thesis (66)
- Part of a Book (40)
- Periodical Part (38)
- Study Thesis (25)
Is part of the Bibliography
- no (1322)
Keywords
- Bibliothek (44)
- Digitalisierung (38)
- Milchwirtschaft (36)
- E-Learning (27)
- Molkerei (27)
- Ausbildung (23)
- Euterentzündung (23)
- Informationsmanagement (22)
- Computersicherheit (21)
- Herbarium (20)
Klebverbindungen werden häufig dem Zugscherversuch nach DIN 53 238, dem wohl wichtigsten Versuch der Klebtechnik, unterzogen. Die Belastung jedoch entspricht nicht den in der Praxis verkommenden Bedingungen. Es stellt sich die Frage, ob die im Zugscherversuch ermittelten Kenndaten zur Dimensionierung von Klebverbindungen überhaupt geeignet sind.
Für eine Dimensionierung flexibler Klebverbindungen sind mehr und andere Kenndaten als die im Kurzeitversuch ermittelte Klebfestigkeiten notwendig. Das wirkt abschreckend, da ein beträchtlicher Aufwand notwendig ist. Jedoch zeigt ein Blick auf andere Bereiche, zum Beispiel auf Berechnungsverfahren für Bauteilen aus Stahl, daß auch hier nicht mehr mit Ergebnissen des Zugversuches dimensioniert wird. Nur dank aufwendigerer Verfahren, beispielweise der Benutzung von Smith-Diagrammen, ist hier das exakte Dimensionieren möglich.
Am 12. und 13. Juni 1986 fand in Konstanz das Symposium Haftung von Verbundwerkstoffen und Werkstoffverbunden statt. Die Veranstaltung wird in vierjährigem Turnus von der Deutschen Gesellschaft für Metallkunde (DGM) in Zusammenarbeit mit dem Fraunhofer-Institut für angewandte Materialforschung (IFAM) in Bremen ausgerichtet. Als interdisziplinäres Thema stand die Haftung zwischen unterschiedlichen Stoffen auf dem Programm. In 18 Referaten sind Erkenntnisse und Probleme aus unterschiedlichen Arbeitsbereichen vorgetragen worden. Insgesamt nahmen etwas 100 Fachleute aus dem In- und Ausland teil.
Das Versagen von Klebungen kann durch ungenügende Adhäsion, Alterungsprozesse oder mechanische Spannungen erfolgen. In der SMD-Technologie werden Werkstoffe geklebt, die verschiedene Ausdehnungskoeffizienten besitzen. Bei SMD-Klebverbindungen gewährleistet die nachfolgende Lötung deren Langzeitfestigkeit. Wurde für eine gute Adhäsion reichlich Vorsorge getroffen und die Klebung versagt trotzdem, stellt sich die Frage: Spielen mechanische Eigenschaften für den Einsatz von SMD-Klebstoffen eine Rolle?
Der Zugscherversuch ist die am häufigsten angewandte Prüftechnik für Klebverbindungen. Die dabei ermittelte Klebfestigkeit ist jedoch eine wenig aussagefähige Größe. In keinem Fall kann sie als Werkstoffkennwert den Klebstoff charakterisieren. Als Ausgangsgröße für Berechnungen bei der Dimensionierung von Klebverbindungen ist das Ergebnis des Zugscherversuchs deshalb nicht geeignet.
Die Prüfung von Klebverbindungen erfolgt häufig im Zugscherversuch. Bei der Anwendung dieser Prüfmethode bei Polymer-Metall-Klebverbindungen tritt oft ein Bruch im Polymerteil auf. Dadurch wird die Aussagefähigkeit des Zugscherversuchs stark eingeschränkt. Das gilt vor allem für die Optimierung der Oberflächenvorbehandlung von Polymerteilen. Der vorliegende Beitrag untersucht die Beanspruchungsparameter von Polymer-Metall-klebverbindungen im Zugscherversuch und leitet daraus Forderungen an geeignete Prüfanordnungen ab.
Viele Kunststoffe besitzen nur schlechte Adhäsionseigenschaften. So lassen sich viele technisch wichtige Kunststoffe adhäsiv nur dann zufriedenstellend mit Adhäsionsklebstoffen kleben, wenn die Kunststoffteile vorbehandelt worden sind. Versuche mit einer Niederdruckplasmabehandlung führten zu brauchbaren Ergebnissen.
Kleben im Kraftfahrzeugbau
(1987)
Klebemöglichkeiten von PTFE
(1990)
Die hohe Beständigkeit und die antiadhäsiven Eigenschaften von Polytetrafluorethylen (PTFE) erschweren das Kleben dieses Kunststoffes beträchtlich. Da PTFE praktisch unlöslich ist, können Diffusionsklebverbindungen nicht hergestellt werden und Adhäsionsklebverbindungen haben nur eine geringe Festigkeit. Es ist jedoch durch entsprechende Behandlungen möglich, die Oberfläche so zu verändern, dass hochfeste Adhäsionsklebverbindungen möglich sind.
Metadaten für das digitale Archiv des Niedersächsischen Landesamts für Denkmalpflege : ein Konzept
(2013)
Das Niedersächsische Landesamt für Denkmalpflege (NLD) ist die zentrale Fachbehörde für den Denkmalschutz in Niedersachsen. Ihre Funktionen sind im Niedersächsischen Denkmalschutzgesetz festgelegt. Sie führt das Verzeichnis der Kulturdenkmale in Niedersachsen und ist zentrale Archivstelle. Die Archivbestände der beiden fachlichen Bereiche Archäologie und Bau- und Kunstdenkmalpflege sollen im Fachinformationssystem ADABweb digital erschlossen werden, so dass sie mit den Objektdaten verknüpft werden können. Das Metadatenschema für die Archivalien soll sich an relevanten Standards orientieren und mit diesen weitgehend interoperabel sein. Zugleich sind die besonderen Informationsbedürfnisse der Denkmalpflege zu berücksichtigen.
In der vorliegenden Mastererarbeit wird untersucht, wie implizites Wissen in Arbeitsteams optimal zwischen den Teammitgliedern ausgetauscht werden kann. Dazu werden Austauschmethoden für implizites Wissen und Movationstheorien analysiert. Anhand der Austauschmethoden und Motivationstheorien wird ein Modell entwickelt, das Teamleitern helfen soll, den Austausch von implizitem Wissen in Arbeitsteams am Besten zu nutzen.
With regard to climate change, increasing energy efficiency is still a significant issue in the industry. In order to acquire energy data at the field level, so-called energy profiles can be used. They are advantageous as they are integrated into existing industrial ethernet standards (e.g. PROFINET). Commonly used energy profiles such as PROFIenergy and sercos Energy have been established in industrial use. However, as the Industrial Internet of Things (IIoT) continues to develop, the question arises whether the established energy profiles are sufficient to fullfil the requirements of the upcoming IIoT communication technologies. To answer this question the paper compares and discusses the common energy profiles with the current and future challenges of energy data communication. Furthermore, this analysis examines the need for further research in this field.
Aufgrund der klimatischen Veränderungen und steigender Energiepreise hat das nachhaltige und umweltbewusste Handeln in den letzten Jahren an Bedeutung gewonnen. Um dieses Handeln zu unterstützen, können Unternehmen Energiemanagementsysteme nach dem ISO-Standard 50001 einführen. Diese Systeme ermöglichen es u. a. Energieverbräuche in einem Energie-Monitoring visuell aufzubereiten und auf Basis der Ergebnisse Analysen durchzuführen. Aus den Ergebnissen der Analyse können Energieeffizienzmaßnahmen abgeleitet werden. Nach einer Überprüfung der energetischen Optimierung kann der Zyklus erneut beginnen, sodass eine kontinuierliche Verbesserung der Energieeffizienz erfolgen kann. Im industriellen Umfeld bestehen jedoch noch Hindernisse in Bezug auf eine einheitliche Auswertung von Energiedaten für ein effektives Energiemanagement. Verschiedene semantische Interpretationen von Energiedaten und proprietäre Datenformate erschweren die Einrichtung und Erweiterung von Energiemanagementsystemen. Im Rahmen des IGF-Vorhabens "IoT_EnRG" wurde ein universelles Energieinformationsmodell entwickelt. Dieses Modell ermöglicht es, Energiedaten eine einheitliche Semantik zu geben, damit diese einfacher interpretierbar werden. Durch die Anwendung des Energieinformationsmodells können Energiedaten schneller und mit weniger Engineering-Aufwand in technische Energiemanagementsysteme integriert werden. Diese Integration war bisher erschwert, denn konventionelle Lösungen konnten für die Interpretation der Energiedaten aus unterschiedlichen Quellen der Feldebene verschiedene proprietäre Semantiken unterschiedlicher Kommunikationsprotokolle verwenden. Der Ansatz des universellen Energieinformationsmodells reduziert den Engineering-Aufwand technischer Energiemanagement-Systeme und unterstützt die Industrie bei der Installation von Energiemanagementsystemen für eine sparsame und klimaneutrale Produktion. Die Ergebnisse des Vorhabens wurden der Joint Working Group "Power Consumption Management" [1] übergeben, die sich das Ziel gesetzt hat, einen einheitlichen OPC UA-Standard für Energieinformationen auf Basis des entwickelten Modells in Form einer OPC UA Companion Spezifikation zu erarbeiten. Durch die Übergabe der Forschungsergebnisse in die Joint Working Group konnte eine nachhaltige Nutzung der Forschungsergebnisse sichergestellt werden, die deutlich über den Keis der Unternehmen im projektbegleitenden Ausschuss hinausgeht. Das Ziel des Vorhabens wurde erreicht.
Energy- and angle-resolved photofragment distributions for ground-state Cl (²P₃/₂) and spin–orbit excited Cl* (²P₁/₂) have been recorded using the velocity map imaging technique after photodissociation of chloroform at wavelengths of 193 and ∼235 nm. Translational energy distributions are rather broad and peak between 0.6 and 1.0 eV. The spin–orbit branching ratios [Cl*]/[Cl] are 1 and 0.3 at 193 and 235 nm, respectively, indicating the involvement of two or more excited state surfaces. Considering the anisotropy parameters and branching ratios collectively, we conclude that the reaction at 193 nm takes place predominantly on the ¹Q₁ surface, while the ³Q₁ surface gains importance at lower dissociation energies around 235 nm.
The Wnt signaling pathway has been associated with many essential cell processes. This study aims to examine the effects of Wnt signaling on proliferation of cultured HEK293T cells. Cells were incubated with Wnt3a, and the activation of the Wnt pathway was followed by analysis of the level of the β-catenin protein and of the expression levels of the target genes MYC and CCND1. The level of β-catenin protein increased up to fourfold. While the mRNA levels of c-Myc and cyclin D1 increased slightly, the protein levels increased up to a factor of 1.5. Remarkably, MTT and BrdU assays showed different results when measuring the proliferation rate of Wnt3a stimulated HEK293T cells. In the BrdU assays an increase of the proliferation rate could be detected, which correlated to the applied Wnt3a concentration. Oppositely, this correlation could not be shown in the MTT assays. The MTT results, which are based on the mitochondrial activity, were confirmed by analysis of the succinate dehydrogenase complex by immunofluorescence and by western blotting. Taken together, our study shows that Wnt3a activates proliferation of HEK293 cells. These effects can be detected by measuring DNA synthesis rather than by measuring changes of mitochondrial activity.
Diese Bachelorarbeit befasst sich mit der Entwicklung eines generischen XML-Editors für das ProFormA-Aufgabenformat. ProFormA ermöglicht einen Aufgabenaustausch zwischen Hochschulen, Lernmanagementsystemen und Gradern. Aufgaben werden von Lehrkräften genutzt und für ihren individuellen Lehrkontext angepasst. Weil das manuelle Editieren von ProFormA-Aufgaben durch XML, Erweiterbarkeit und Komplexität des Formats erschwert wird, muss ein XML-Editor entwickelt werden, der generische Mechanismen implementiert, die das Anzeigen, Editieren, Hinzufügen und Entfernen von ProFormA- und Fremdformatelementen ermöglichen.
In recent years, multiple efforts for reducing energy usage have been proposed. Especially buildings offer high potentials for energy savings. In this paper, we present a novel approach for intelligent energy control that combines a simple infrastructure using low cost sensors with the reasoning capabilities of Complex Event Processing. The key issues of the approach are a sophisticated semantic domain model and a multi-staged event processing architecture leading to an intelligent, situation-aware energy management system.
Internetpräsenzen von Bibliotheken müssen zunehmend mit kommerziellen oder frei zugänglichen Informationsangeboten konkurrieren. Um sich von diesen Angeboten abzuheben, müssen nicht nur, wie gehabt, qualitativ hochwertige Informationen bereitgestellt werden - der Zugang zu diesen Informationen muss nutzerfreundlich gestaltet werden und sich an Usability-Standards orientieren, um für den Nutzer attraktiv zu sein.
In der Bachelorarbeit wird eine Studie zur Usability der Website der Landesbibliothek Oldenburg durchgeführt. Nach einer Einführung in die Thematik der Usability und der Analyse des IST-Zustandes der Website erfolgt eine Evaluation anhand von vier Methoden. Basierend auf Evaluationen mittels Personas, Heuristiken, Thinking-Aloud-Tests und einer Logfile-Analyse werden Usability-Probleme der Website ermittelt und anschließend Empfehlungen zur Verbesserung der Usability gegeben.
Das Ziel dieser Arbeit ist es, ein Konzept für eine Darstellung der Personennamendatei(PND) in den Sprachen Resource Description Framework (RDF), Resource DescriptionFramework Schema Language (RDFS) und Web Ontology Language (OWL) zu entwickeln. Der Prämisse des Semantic Web folgend, Daten sowohl in menschenverständlicher als auch in maschinell verarbeitbarer Form darzustellen und abzulegen, wird eine Struktur für Personendaten geschaffen. Dabei wird von der bestehenden Daten- und Struktursituation im Pica-Format ausgegangen. Die Erweiterbarkeit und Anpassbarkeit des Modells im Hinblick auf zukünftige, im Moment gegebenenfalls noch nicht absehbare Anwendungen und Strukurveränderungen, muss aber darüber hinaus gewährleistet sein. Die Modellierung orientiert sich an bestehenden Standards wie Dublin Core, Friend Of A Friend (FOAF), Functional Requirements for Bibliographic Records (FRBR), Functional Requirements for Authority Data (FRAD) und Resource Description and Access (RDA).
Background: Continuity of care is associated with many benefits for patients and health care systems. Therefore measuring care coordination - the deliberate organization of patient care activities between two or more participants - is especially needed to identify entries for improvement. The aim of this study was the translation and cultural adaptation of the Medical Home Care Coordination Survey (MHCCS) into German, and the examination of the psychometric properties of the resulting German versions of the MHCCS-P (patient version) and MHCCS-H (healthcare team version).
Methods: We conducted a paper-based, cross-sectional survey in primary care practices in three German federal states (Schleswig-Holstein, Hamburg, Baden-Württemberg) with patients and health care team members from May 2018 to April 2019. Descriptive item analysis, factor analysis, internal consistency and convergent, discriminant and predictive validity of the German instrument versions were calculated by using SPSS 25.0 (Inc., IBM).
Results: Response rates were 43% (n = 350) for patients and 34% (n = 141) for healthcare team members. In total, 300 patient questionnaires and 140 team member questionnaires could be included into further analysis. Exploratory factor analyses resulted in three domains in the MHCCS-D-P and seven domains in the MHCCS-D-H: “link to community resources”, “communication”, “care transitions”, and additionally “self-management”, “accountability”, “information technology for quality assurance”, and “information technology supporting patient care” for the MHCCS-D-H. The domains showed acceptable and good internal consistency (α = 0.838 to α = 0.936 for the MHCCS-D-P and α = 0.680 to α = 0.819 for the MHCCS-D-H).
As 77% of patients (n = 232) and 63% of health care team members denied to have or make written care plans, items regarding the “plan of care” of the original MHCCS have been removed from the MHCCS-D.
Conclusions: The German versions of the Medical Home Care Coordination Survey for patients and healthcare team members are reliable instruments in measuring the care coordination in German primary care practices. Practicability is high since the total number of items is low (9 for patients and 27 for team members).
Die Gesellschaft ist geprägt von einem zunehmenden Bedürfnis nach Mitbestimmung und damit auch Beteiligung. In Zeiten mangelnder Wohnangebote ist das Interesse besonders groß, wenn bedeutsame Baumaßnahmen thematisiert werden und große Veränderungen mit sich bringen.
Die positive Resonanz auf innerstädtische Immobilienprojekte ist alles andere als selbstverständlich, dabei liegen die Interessen häufig eng beieinander. "Man wird natürlich nie alle zufriedenstellen können" aber häufig mangelt es an ausreichender Kommunikation und Aufklärungsarbeit.
Die Wissenschaftsarbeit beschäftigt sich mit der Frage, welche Ansprüche an Bürgerkommunikation bestehen und welche Chancen sich daraus für die Kommunikation von Bauprojekten ergeben. Daraus resultiert ein Lösungsansatz für die Immobilien-Public-Relations (PR).
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
An der Hochschule Hannover wird das Lern-Management-System Moodle eingesetzt. Für die dort verfügbare Quizfunktion wurde der neue Fragetyp MooPT (Moodle Programming Task) von der Abteilung Informatik der Fakultät IV entwickelt. Einem solchen Quiz muss immer ein Frageverhalten zugewiesen werden. Die Frageverhalten, welche Moodle standardmäßig anbietet, sind nicht mit dem MooPT-Fragetypen kompatibel. Aus diesem Grund müssen diese angepasst werden. Dies wurde bereits für zwei der acht Standard-Frageverhalten von der Abteilung Informatik durchgeführt.
Diese Arbeit beschäftigt sich mit der Entwicklung der restlichen Verhalten für den MooPT-Fragetypen. Dabei wird die Moodle-Quiz-Komponente und der MooPT-Fragetyp mit seinen Frageverhalten analysiert. Anschließen wird auf Basis dieser Analyse die Entwicklung der restlichen Frageverhalten erläutert.
Der Quellcode der Moodle-Plattform ist in PHP geschrieben und somit auch der des MooPT-Fragetypen und der der Frageverhalten. Auf GitHub stehen die Implementierungen der entwickelten Frageverhalten unter der GPL-Lizenz zur Verfügung:
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemoopt
https://github.com/LennartRolfes/moodle-qbehaviour_adaptivemooptnopenalty
https://github.com/LennartRolfes/moodle-qbehaviour_deferredmooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_immediatemooptcbm
https://github.com/LennartRolfes/moodle-qbehaviour_interactivemoopt
Gutes Arbeiten für Mitarbeiter ist je nach Arbeitskontext unterschiedlich zu bewerten, hängt jedoch von der Gestaltung bestimmter Kontextfaktoren ab. Die Kontextfaktoren guter Arbeit sind der zentrale Forschungsgegenstand dieser Arbeit. Dabei steht ein E‑Commerce-Team (EC-Team) von Otto im Fokus der Untersuchungen.
Das Ziel unseres Artikels ist es, die Kontextfaktoren zu analysieren, die dazu führen, dass gute Arbeit ermöglicht wird. Dabei ist eine auf Dauer funktionierende Arbeitsweise gesucht, welche eine hohe Arbeitsqualität und -quantität ermöglicht. Dazu sind die beiden primären Ziele zu definieren, was gutes Arbeiten ausmacht und zum anderen die Kontextfaktoren für gutes Arbeiten innerhalb des EC-Teams bei Otto zu identifizieren.
Unsere Forschungsfrage lautet: Welche Kontextfaktoren sind für gutes Arbeiten bei Otto im EC-Team in der derzeitigen Remote-Arbeit besonders relevant und entsprechend gestaltbar?
Um die Forschungsfrage beantworten zu können, wird zunächst eine Literaturrecherche zur Definition von guter Arbeit vorgenommen. Anschließend wird untersucht, welche Faktoren laut Literatur zu einer guten Arbeit beitragen, um aus den resultierenden Faktoren Cluster zu bilden.
Die Cluster werden dem Otto EC-Team zur Abstimmung mit der Mehrpunktabfrage über das virtuelle Kollaborations-Tool MiroFootnote 2 zur Verfügung gestellt. Aufbauend auf dem Ergebnis der Abstimmung, werden ein Gamification Board, Erinnerungsmails und ein Stimmungsbarometer erstellt, um die Auswirkungen des Clusters im Rahmen eines Experiments zu analysieren.
Diese Maßnahmen werden innerhalb von zwei Wochen durchgeführt. Um die Erfahrungen der Probanden zu sammeln, werden anschließend Interviews durchgeführt und ausgewertet. Die Ergebnisse der Interviews fließen in die anschließende Handlungsempfehlung ein.
In dieser Arbeit wird das Thema Flexwork im Kontext der Burnout-Forschung vorgestellt. Der Fokus liegt hierbei auf potentiell negativen Folgen des Flexwork. Ziel dieser Ausarbeitung ist es, das Konstrukt des Flexwork konkreter zu fassen und zu untersuchen, ob das Burnout-Syndrom eine spezifische Folge von Flexwork sein kann. Zunächst werden einschlägige theoretische Grundlagen erläutert. Nach einer Einführung in die methodische Vorgehensweise qualitativer und quantitativer Forschungsinstrumente werden die Interviewergebnisse dargestellt. Anschließend wird der Entwurf für einen Fragebogen vorgestellt, der das Ziel hat, zu erfassen, ob und inwiefern Flexwork einen Auslöser für das Burnout-Syndrom darstellt. Im Diskussionsteil dieser Projektarbeit erfolgen eine kritische Betrachtung der methodischen Vorgehensweise sowie eine zusammenfassende Bewertung der Thematik.
Prof. Joachim Romppel, Rebecca Hassan und ein Forschungsteam der Hochschule Hannover begleiteten die Sozialpädagogische Familienhilfe in der Landeshauptstadt Hannover von 2018-2021. Durch eine qualitative Studie überprüften sie die ambulante Form der Kinder- und Jugendhilfe (nach §31 Sozialgesetzbuch VIII) und deren Wirkungen für Eltern und Kinder. Interviews mit Eltern, sozialpädagogischen Fachkräften verschiedener Jugendhilfeträger und Sozialarbeiter*innen des Kommunalen Sozialdienstes der Stadt ergaben dabei ein positives Bild von den Hilfsmaßnahmen, deren Wirksamkeit auch in anderen Studien hervorgehoben wird. Der Forschungsbericht vermittelt ein tieferes Verständnis von Erziehungsproblemen in Familien und wirksamer Zusammenarbeit bei den Hilfen durch Sozialarbeiter*innen der Jugendhilfeträger und des Jugendamtes.
Die Sozialarbeiterin Yildiz Sahinde Demirer hat mit anderen Frauen das Projekt „Erzählcafés für geflüchtete Frauen“ in Trägerschaft der Landeshauptstadt Hannover (2018 bis 2021) konzipiert und umgesetzt. In fünf Stadtteilen konnten sich die Frauen regelmäßig treffen und austauschen, sich beteiligen und kamen zu Wort. Ihre Arbeit bezeichnet Demirer als Gemeinwesenarbeit mit politischen und feministischen Schwerpunkten. Die wissenschaftliche Begleitung durch Rebecca Hassan und Joachim Romppel von der Hochschule Hannover führte zur Dokumentation und Auswertung des Modellprojekts. Das Bundesamt für Migration und Flüchtlinge (BAMF) förderte das Projekt. Bemerkenswert sind die Erfolge dieser nonformalen Bildungsarbeit.
Die Sozialarbeiterin Yildiz Sahinde Demirer hat zusammen mit anderen Frauen das Praxisprojekt Erzählcafès in Trägerschaft der Landeshauptstadt Hannover (2018-2021) für fünf Stadtteile konzipiert. Ihre Arbeit bezeichnet sie als Gemeinwesenarbeit mit feministischen und politischen Schwerpunkten. Geflüchtete Frauen konnten sich dadurch regelmäßig treffen und austauschen, ihre Interessen an Bildung, Arbeit, sozialen Rechten und Beteiligung zur Sprache bringen und umsetzen. Durch die wissenschaftlichen Begleitung von Rebecca Hassan M.A. Social Work und Prof. Dr. Joachim Romppel von der Hochschule Hannover war es möglich, das dreijährige Modellprojekt zu dokumentieren und auszuwerten. Das Bundesamt für Migration und Flüchtlinge (BAMF) förderte das Projekt. Bemerkenswert sind die Erfolge dieses Projektes in der nonformalen Bildungsarbeit und die erweiterte Handlungsfähigkeit der Frauen.
Während des letzten Jahres haben wir als Forschungsteam eine Vielzahl an Informationen durch persönliche Gespräche, Eindrücke vor Ort und Auswertung von Materialien und Berichten erhalten. Der Umfang der Arbeiten führte weit über die ursprüngliche Planung hinaus. Die Vorbereitungsgespräche pendelten zwischen den Anliegen von Politik und Verwaltung einen Überblick einerseits und sehr detaillierte Einblicke andererseits zu erhalten. Dieser Spannbreite haben wir versucht durch Bezug auf die drei Jugendeinrichtungen und auf die Fachgespräche im Jugendforum gerecht zu werden. Mit diesem Bericht stellen wir die wichtigen Ergebnisse heraus, an denen eine Weiterarbeit und Vertiefung von Fachleuten und Aktiven der Stadt in den nächsten Jahren erfolgen kann. Der Bericht enthält Bestandsaufnahmen sowie Vorschläge und Empfehlungen mit weiterführenden Hinweisen. Eine Prioritätensetzung wurde nicht vorgenommen, sondern obliegt den Entscheidern vor Ort.
Die vorliegende Arbeit entstand im Rahmen der Diplomprüfung im Studiengang Allgemeine Dokumentation des Fachbereiches Informations- und Kommunikationswesen der Fachhochschule Hannover. Thema der Diplomarbeit sind die Konzeption und Planung der Reorganisation der Schülerbücherei und Lehrerbibliothek des Braunschweiger Gymnasiums Martino-Katharineum. Dabei wird schematisch die momentan vorherrschende Situation analysiert und nach Vergleich mit Empfehlungen aus der Literatur eine den Gegebenheiten der Schule angepasste Ideallösung entwickelt, in der die beiden Teilbibliotheken zu einem zentralen Informationszentrum zusammengelegt werden. Nach einer allgemeinen Einführung in das Thema „Schulbibliothek“ beschäftigen sich die in Form von Teilprojekten angelegten folgenden Kapitel mit den Anforderungen an Räumlichkeiten, Personal, Bestand sowie dessen Erschließung.
We present a novel long short-term memory (LSTM) approach for time-series prediction of the sand demand which arises from preparing the sand moulds for the iron casting process of a foundry. With our approach, we contribute to qualify LSTM and its combination with feedback-corrected optimal scheduling for industrial processes.
The sand is produced in an energy intensive mixing process which is controlled by optimal scheduling. The optimal scheduling is solved for a fixed prediction horizon. One major influencing factor is the sand demand, which is highly disturbed, for example due to production interruptions. The causes of production interruptions are in general physically unknown. We assume that information about the future behavior of the sand demand is included in current and past process data. Therefore, we choose LSTM networks for predicting the time-series of the sand demand.
The sand demand prediction is performed by our multi model approach. This approach outperforms the currently used naive estimation, even when predicting far into the future. Our LSTM based prediction approach can forecast the sand demand with a conformity up to 38 % and a mean value accuracy of approximately 99%. Simulating the optimal scheduling with sand demand prediction leads to an improvement in energy savings of approximately 1.1% compared to the naive estimation. The application of our novel approach at the real production plant of a foundry proves the simulation results and verifies the capability of our approach.
We present a feedback-corrected optimal scheduling approach to reduce the demand of electrical energy of batch processes, exemplified at the sand preparation in foundry. The main energy driver in the exemplary foundry is the idle time of the batch-wise working sand mixers. In this novel approach, we use linear integer programming to minimize the demand of energy of the sand mixers by scheduling the batches in real-time. For the optimization we use a physical model of the sand preparation, which takes dwell-times of the processes as dead-time systems into account. In this paper, we present the steps to make the optimal scheduling approach applicable for the production process. The application at the real production plant proves the performance of the suggested approach. Compared to the conventional control, the feedback-corrected optimal scheduling approach leads to an reduction in energy consumption of approximately 6.5 % without modifying the process or the aggregates.
This paper presents a novel approach for modelling the energy consumption of the coupled parallel moulding sand mixers of a foundry as an optimal control problem. The minimization of energy consumption is optimized by scheduling the mixing processes in a linear integer programming scheme. The sand flow through the foundry’s sand preparation is characterized by a physical model. This model considers the sand demand of the moulding machine as disturbance, the stored sand masses in the mixer hoppers and machine hoppers, respectively. The novel approach of handling dwell-times for dosing, mixing and transport processes using dead-time systems and constraint pushing allows the application of a linear model. The formulation of the optimal control problem aims at real-time application as model predictive control at the production plant. Initial application results indicate an improvement in energy consumption of approximately 8%.
This paper presents a databased approach for improving the precision of the moulding sand compressibility in the moulding sand mixer of a foundry. In this approach, the deviation between the measured and the target compressibility is reduced by controlling the water addition. The complex dynamic behaviour of the process variables and their influence on the water addition is modelled with a long short-term memory (LSTM) network. Another LSTM network as control path simulates the impact of the water addition on the compressibility. Simulation and experimental results with the applied model for water prediction in a feedforward control yield relevant improvements of the moulding sand compressibility.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
Wikidata and Wikibase as complementary research data management services for cultural heritage data
(2022)
The NFDI (German National Research Data Infrastructure) consortia are associations of various institutions within a specific research field, which work together to develop common data infrastructures, guidelines, best practices and tools that conform to the principles of FAIR data. Within the NFDI, a common question is: What is the potential of Wikidata to be used as an application for science and research? In this paper, we address this question by tracing current research usecases and applications for Wikidata, its relation to standalone Wikibase instances, and how the two can function as complementary services to meet a range of research needs. This paper builds on lessons learned through the development of open data projects and software services within the Open Science Lab at TIB, Hannover, in the context of NFDI4Culture – the consortium including participants across the broad spectrum of the digital libraries, archives, and museums field, and the digital humanities.
A new FOSS (free and open source software) toolchain and associated workflow is being developed in the context of NFDI4Culture, a German consortium of research- and cultural heritage institutions working towards a shared infrastructure for research data that meets the needs of 21st century data creators, maintainers and end users across the broad spectrum of the digital libraries and archives field, and the digital humanities. This short paper and demo present how the integrated toolchain connects: 1) OpenRefine - for data reconciliation and batch upload; 2) Wikibase - for linked open data (LOD) storage; and 3) Kompakkt - for rendering and annotating 3D models. The presentation is aimed at librarians, digital curators and data managers interested in learning how to manage research datasets containing 3D media, and how to make them available within an open data environment with 3D-rendering and collaborative annotation features.
In this poster we present the ongoing development of an integrated free and open source toolchain for semantic annotation of digitised cultural heritage. The toolchain development involves the specification of a common data model that aims to increase interoperability across diverse datasets and to enable new collaborative research approaches.
Social Scoring in China
(2023)
In den zurückliegenden Jahren hat eine Nachricht Schlagzeilen gemacht, die besonders in der westlichen Welt für Aufruhr gesorgt hat: Die Regierung der Volkrepublik China implementiere ein Sozialkreditsystem, das die Menschen in ihrem alltäglichen Verhalten bewerte und zu „Wohlverhalten" zwingen solle.
Diese Arbeit beschäftigt sich mit den Hintergründen des „Sozialkreditsystem", seiner Entstehung, Umsetzung und der Rezeption durch die chinesische Bevölkerung. Abschließend wird ein Vergleich mit ähnlichen Systemen in Deutschland versucht.
Das Thema Linked Open Data hat in den vergangenen Jahren im Bereich der Bibliotheken viel Aufmerksamkeit erfahren. Unterschiedlichste Projekte werden von Bibliotheken betrieben, um Linked Open Data für die Einrichtung und die Kunden nutzbringend einzusetzen. Ausgangspunkt für diese Arbeit ist die These, dass Linked Open Data im Bibliotheksbereich das größte Potenzial freisetzen kann. Es wird überprüft, inwiefern diese Aussage auch auf Öffentliche Bibliotheken zutrifft und aufgezeigt, welche Möglichkeiten sich daraus ergeben könnten.
Die Arbeit führt in die Grundlagen von Linked Open Data (LOD) ein und betrachtet die Entwicklungen im Bibliotheksbereich. Dabei werden besonders Initiativen
zur Behandlung bibliothekarischer Metadaten und der aktuelle Entwicklungsstand von LOD-fähigen Bibliothekssystemen behandelt. Danach wird eine Auswahl
an LOD-Datensets vorgestellt, die bibliothekarische Metadaten liefern oder deren Daten als Anreicherungsinformationen in Kataloganwendungen eingesetzt werden können.
Im Anschluss wird das Projekt OpenCat der Öffentlichen Bibliothek Fresnes (Frankreich) sowie das LOD-Projekt an der Deichmanske Bibliothek Oslo (Norwegen) vorgestellt. Darauf folgt ein Einblick in die Möglichkeiten, welche durch die Verwendung von LOD in Öffentlichen Bibliotheken verwirklicht werden könnten sowie erste Handlungsempfehlungen für Öffentliche Bibliotheken.
Background
To perform a systematic review about the effect of using clinical pathways on length of stay (LOS), hospital costs and patient outcomes. To provide a framework for local healthcare organisations considering the effectiveness of clinical pathways as a patient management strategy.
Methods
As participants, we considered hospitalized children and adults of every age and indication whose treatment involved the management strategy "clinical pathways". We include only randomised controlled trials (RCT) and controlled clinical trials (CCT), not restricted by language or country of publication. Single measures of continuous and dichotomous study outcomes were extracted from each study. Separate analyses were done in order to compare effects of clinical pathways on length of stay (LOS), hospital costs and patient outcomes. A random effects meta-analysis was performed with untransformed and log transformed outcomes.
Results
In total 17 trials met inclusion criteria, representing 4,070 patients. The quality of the included studies was moderate and studies reporting economic data can be described by a very limited scope of evaluation. In general, the majority of studies reporting economic data (LOS and hospital costs) showed a positive impact. Out of 16 reporting effects on LOS, 12 found significant shortening. Furthermore, in a subgroup-analysis, clinical pathways for invasive procedures showed a stronger LOS reduction (weighted mean difference (WMD) -2.5 days versus -0.8 days)).
There was no evidence of differences in readmission to hospitals or in-hospital complications. The overall Odds Ratio (OR) for re-admission was 1.1 (95% CI: 0.57 to 2.08) and for in-hospital complications, the overall OR was 0.7 (95% CI: 0.49 to 1.0). Six studies examined costs, and four showed significantly lower costs for the pathway group. However, heterogeneity between studies reporting on LOS and cost effects was substantial.
Conclusion
As a result of the relatively small number of studies meeting inclusion criteria, this evidence base is not conclusive enough to provide a replicable framework for all pathway strategies. Considering the clinical areas for implementation, clinical pathways seem to be effective especially for invasive care. When implementing clinical pathways, the decision makers need to consider the benefits and costs under different circumstances (e.g. market forces).
Subclinical mastitis in heifers during early lactation affects udder health, future milk production and, therefore, the risk of premature culling. The aim of this cross-sectional study was to identify pre- and post-partum risk factors associated with a high heifer mastitis rate (HMR), and to find out which period (either pre- or post-partum) contains more risk factors and consequently should be the focus of mastitis control in heifers. A total of 77 herds were included in this study and the potential animal- and farm-related risk factors were recorded during a one-time farm visit. The HMR was provided by the dairy herd improvement test (DHI) as the annual average of the past 11 DHIs. For this study, data were analyzed in two models using generalized linear models. Each model examined the association between possible risk factors and HMR, one including only prepartum risk factors and the other one only post-partum risk factors. One identified pre-partum risk factor was the proportion of udder-healthy cows in the herd. Post-partum risk factors were the type of teat cleaning procedure before milking, teat disinfection, treatment of mastitis in heifers, a body condition score (BCS) of >3.0 in fresh heifers, and the combination of a teat cleaning procedure with a teat disinfectant. The results show the importance of the period shortly after calving for udder health in heifers, as four of the five significant risk factors were identified in this period and three of them were related to the milking process. However, further research with a higher number of herds is needed to minimize individual herd effects.
Äußere Einflüsse wie beispielsweise die Digitalisierung oder der demografische Wandel durchziehen alle Bereiche des gesellschaftlichen Zusammenlebens. Der Konfrontation mit diesen Herausforderungen kann sich auch die öffentliche Verwaltung durch die Verzahnung mit Politik und Gesellschaft nicht entziehen. Eine Methode, um komplexen Herausforderungen zu begegnen, ist Design Thinking. Es stellt sich die Frage, welche Potenziale der Einsatz der Methodik im Kontext der öffentlichen Verwaltung bietet. Ziel dieser Arbeit ist es, die Design-Thinking-Methode in der öffentlichen Verwaltung zu untersuchen. Dazu wird im Rahmen einer Fallstudienanalyse ein Design-Thinking-Workshop durchgeführt. Durch Auswertung des Workshops sowie mithilfe einer SWOT-Analyse werden die Potenziale abgeleitet. Im Ergebnis können komplexe Herausforderungen mit Design Thinking bewältigt werden. Es zeigt sich eine grundsätzliche Offenheit gegenüber der neuen Methodik. Design Thinking wird als eine ganzheitliche Herangehensweise beschrieben. Der Einstieg in die Methodik ist dabei niederschwellig. Dabei gehen die Potenziale über die Abgeleiteten hinaus. Der Austausch von Wissen innerhalb des interdisziplinären Teams hat beispielsweise weitreichendere Effekte. Um die Potenziale bestmöglich nutzen zu können, bedarf es Übung und Erfahrung. Darüber hinaus sollte eine Betrachtung der Potenziale im Rahmen der vollen Potenzialentfaltung mit dem Feststellen von Schwächen und Risiken einhergehen. Die Anwendung von Design Thinking ist stets kontextabhängig.
Die gesetzlich vorgesehene Bereitstellung von Digitalisierungsangeboten stellt öffentliche Verwaltungen vor steigende Herausforderungen. Aufgrund der Heterogenität der Nutzerinnen und Nutzer ist es für öffentliche Verwaltungen häufig problematisch, klare Anforderungen zu erheben und zu erfüllen. Hinzukommen strukturelle und organisatorische Gegebenheiten wie beispielsweise ausgeprägte Entscheidungshierarchien, die eine nutzerzentrierte Vorgehensweise erschweren können. Darüber hinaus sieht sich die öffentliche Verwaltung zunehmend mit komplexer werdenden Problemen konfrontiert. Es stellt sich daher die Frage, wie in der öffentlichen Verwaltung ein moderner Ansatz zur Nutzerzentrierung und Problemlösung eingesetzt werden kann. Dieser Artikel präsentiert die Ergebnisse einer Einzelfallstudie bei der Niedersächsischen Landesbehörde für Straßenbau und Verkehr (NLStBV). Wir haben mit einer Fokusgruppe einen Design-Thinking-Workshop durchgeführt, um Potenziale und Anwendungsmöglichkeiten des Ansatzes in der öffentlichen Verwaltung zu identifizieren. Auf Basis einer SWOT-Analyse haben wir die Ergebnisse untersucht und geben vier konkrete Handlungsempfehlungen für die Einführung sowie Nutzung von Design Thinking.
Das Projekt SEC_PRO verfolgte die Möglichkeit der Erarbeitung einer neuartigen IT-Sicherheitslösung für Automatisierungssysteme. Die Ermittlung des Stands der Technik zeigte, dass die IT-Sicherheit in der Automatisierungstechnik von Lösungen der Standard-IT in Büronetzwerken geprägt ist, ohne auf spezielle Anforderungen der Automatisierungstechnik einzugehen. Eine Anforderungsanalyse erbrachte, dass IT-Sicherheitslösungen benötigt werden, die sich mit dem zunehmenden Vernetzungsgrad von Automatisierungssystemen in Einklang bringen lassen. Dazu ist eine IT-Sicherheitsschicht für das PROFINET-Protokoll konzipiert und implementiert worden, die einen integrierten Schutz der Kommunikation und der Komponenten selbst ermöglicht. Dabei kommen gezielt Security Token Technologien zum Einsatz. Eine Evaluierung der kryptografischen Funktionen zeigte, dass deren Verwendung unter gewissen Voraussetzungen möglich ist. Mit Hilfe eines Demonstrators ist konnte die Echtzeitfähigkeit der IT-Sicherheitsschicht validiert und dessen Schutzwirkung nachgewiesen werden. SEC_PRO kann als Ausgangspunkt für weitere Vorhaben bezüglich integrierter IT-Sicherheitsmaßnahmen gesehen werden, die auf eine Anwendung der Kryptografie in der Automatisierungstechnik abzielen.
Die vorliegende Ausführung bezieht sich ausschließlich auf die, im Rahmen des Forschungsprojekts „Großtagespflegestellen in Niedersachsen“ durchgeführte, Hauptuntersuchung zur pädagogischen Qualität in sieben Großtagespflegestellen. Die Ergebnisse der darüber hinaus stattgefundenen schriftlichen Befragungen der kommunalen Träger werden nur im Kontext zu den untersuchten Betreuungssettings berücksichtigt. Neben der Datenerhebung mittels der Tagespflegeskala-R wurde im Anschluss an die Beobachtungen ein leitfadengestütztes Interview mit den anwesenden Kindertagespflegepersonen geführt. Weitere Informationen wurden aus Dokumenten wie Satzungen, Konzeption, Flyer und Internetauftritt gewonnen.
Die Ergebnisse werden in diesem Bericht in Form von sieben Thesen dargestellt. Die Erste These bezieht sich ausschließlich auf die Daten der TAS-R Untersuchung. Die Thesen zwei bis sieben wurden aus dem o.g. gesamten empirischen Material abgeleitet.
Als Instrument zur Erfassung der pädagogischen Qualität in den ausgewählten Großtagespflegestellen (GTPS) wurde die Tagespflegeskala-R (Tietze, Knobeloch, Gerszonowiec, 2011, überarbeitete Version) eingesetzt. Die TAS-R basiert auf der Family Day Care Rating Scale (FDCRS) von Harms, Cryer und Clifford (2003). Sie wurde bereits in vielen wissenschaftlichen Untersuchungen bzw. Studien genutzt und ist als internationales Instrument zur Erfassung von pädagogischer Qualität in Kindertagespflegestellen anerkannt.
Mit der Anwendung der Norm ISO 50001 und der einhergehenden Einführung eines Energiemanagementsystems (kurz EnMS) kann eine sukzessive Erhöhung der Energieeffizienz erreicht werden. Zur Umsetzung von Energie-Monitoring- oder Standby-Management-Funktionalitäten müssen Energiedaten in der Feldebene bereitgestellt werden und auf Edge-Devices oder SPSen mittels eines Energiemanagement-Programms ggf. im Datenformat angepasst, skaliert und auf eine etablierte Kommunikationsschnittstelle (z.B. basierend auf OPC UA- oder MQTT) abgebildet werden. Die Erstellung dieser Energiemanagement-Programme geht mit einem hohen Engineering-Aufwand einher, denn die Feldgeräte aus der heterogenen Feldebene stellen die Energiedaten nicht in einer standardisierten Semantik bereit. Um diesem Engineering-Aufwand entgegenzuwirken, wird ein Konzept für ein universelles Energiedateninformationsmodell (kurz UEDIM) vorgestellt. Dieses Konzept sieht die Bereitstellung der Energiedaten an das EnMS in einer semantisch standardisierten Form vor. Zur weiteren Entwicklung des UEDIM wird im Beitrag näher untersucht, in welcher Form Energiedaten in der Feldebene bereitgestellt werden können und welche Anforderungen für das UEDIM aufzustellen sind.
With the use of an energy management system in an industrial company according to ISO 50001, a step-by-step increase in energy efficiency can be achieved. The realization of energy monitoring and load management functions requires programs on edge devices or PLCs to acquire the data, adapt the data type or scale the values of the energy information. In addition, the energy information must be mapped to communication interfaces (e.g. based on OPC UA) in order to convey this energy information to the energy management application. The development of these energy management programs is associated with a high engineering effort, because the field devices from the heterogeneous field level do not provide the energy information in standardized semantics. To mitigate this engineering effort, a universal energy data information model (UEIM) is developed and presented in this paper.
Requirements for an energy data information model for a communication-independent device description
(2021)
With the help of an energy management system according to ISO 50001, industrial companies obtain the opportunities to reduce energy consumption and to increase plant efficiencies. In such a system, the communication of energy data has an important function. With the help of so-called energy profiles (e.g. PROFIenergy), energy data can be communicated between the field level and the higher levels via proven communication protocols (e.g. PROFINET). Due to the fact that in most cases several industrial protocols are used in an automation system, the problem is how to transfer energy data from one protocol to another with as less effort as possible. An energy data information model could overcome this problem and describe energy data in a uniform and semantically unambiguous way. Requirements for a unified energy data information model are presented in this paper.
Durch die Globalisierung und den verschärften internationalen Wettbewerb sind innovative Unternehmen in zunehmendem Maße durch Industriespionage bedroht. Eine besondere Rolle kommt hierbei dem Faktor Mensch zu, der das größte Risiko für einen ungewollten Know-how-Abfluss darstellt. Hiervon ausgehend untersucht die vorliegende Arbeit, welche präventiven und repressiven Spionageabwehrmaßnahmen Unternehmen zur Verbesserung der personellen Sicherheit zur Verfügung stehen. Nach einer theoretischen Einführung in das Thema werden die Ergebnisse von acht Experteninterviews vorgestellt und in die bestehende Literatur integriert. Dabei zeigen die Ergebnisse, dass es keine Musterlösung gibt, sondern dass je nach Unternehmen, spezifischer Bedrohungslage und wirtschaftlichen Rahmenbedingungen ein individuelles und ganzheitliches Informationsschutzkonzept zu entwickeln ist.
Das Bedürfnis Daten in Echtzeit zu analysieren und auf Ereignisse zu reagieren, ist innerhalb aller Branchen in den letzten Jahren stark gestiegen. Als die Analysetechnik für Echtzeitdatenströme hat sich das Complex Event Processing (CEP) durchgesetzt. Mithilfe von Regeln lassen sich kausale, temporale und räumliche Zusammenhänge von Ereignissen definieren und durch eine CEP-Engine evaluieren. Die Konstruktion von Regeln hat sich dabei als einschränkende Faktor von CEP herausgestellt. Greedy4Cep ist ein algorithmischer Ansatz zur automatisierten Erstellung von CEP-Regeln anhand eines historischen Datenstromes.
Das Ziel der Arbeit bestand darin, eine für die klinische Praxis geeignete Testreihe zur psychologischen Untersuchung von zerebralen Erkrankungen zu erstellen und zu erproben. Dazu erschien es vorab notwendig, wichtige theoretische Konzepte und ausgewählte Themenschwerpunkte der neuropsychologischen Forschung zu erörtern. Aus der Zusammenschau klinischer und experimenteller Befunde wurde deutlich, mit welchen Fragestellungen eine neuropsychologische Diagnostik konfrontiert ist.
This research focuses on the fundamental ideas and underlying principles of E-Learning technology, as well as theoretical considerations for an optimal learning environment. This theoretical exploration was then used as a basis for the design and construction of a new, interactive Web-Based ESH-Training. The quality and effectiveness of this new course was then compared with that of the existing analog PDF-Training via a test with a diverse sample of employee learners. Learners were later surveyed to ascertain their views on both trainings in terms of the quality of the content, facilitator, resources, and length. Results clearly showed that regardless of demographic factors, most employee learners preferred the new, Web-Based ESH-Training to the analog PDF-Training.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.
Background: We sought to develop and test an objective scorecard-based system for assessing and categorizing available research sites in Lassa fever-affected countries based on their preparedness and capability to host Lassa fever vaccine clinical trials.
Methods: We mapped available clinical research sites through interrogation of online clinical trial registries and relevant disease-based consortia. A structured online questionnaire was used to assess the capability of clinical trial sites to conduct Lassa fever vaccine clinical trials. We developed a new scoring template by allocating scores to questionnaire parameters based on perceived importance to the conduct of clinical trials as described in the WHO/TDR Global Competency Framework for Clinical Research. Cutoff points of 75% and 50% were used to categorize sites into categories A, B, or C.
Results: This study identified 44 clinical trial sites in 8 Lassa fever-affected countries. Out of these, 35 sites were characterized based on their capacity to hold Lassa fever vaccine clinical trials. A total of 14 sites in 4 countries were identified as ready to host Lassa fever vaccine trials immediately or with little support.
Conclusion: It is feasible to hold Lassa fever vaccine trials in affected countries based on the outcome of the survey. However, the findings are to be validated through sites' visits. This experience with a standardized and objective method of the site assessment is encouraging, and the site selection method used can serve as an orientation to sponsors and researchers planning clinical trials in the region.
Durch die Covid-19-Pandemie und die damit einhergehenden Effekte auf die Arbeitswelt ist die Belastung der Mitarbeitenden in einen stärkeren Fokus gerückt worden. Dieser Umstand trifft unter anderem durch den umfassenden Wechsel in die Remote Work auch auf agile Software-Entwicklungsteams in vielen Unternehmen zu. Eine zu hohe Arbeitsbelastung kann zu diversen negativen Effekten, wie einem erhöhten Krankenstand, mangelndem Wohlbefinden der Mitarbeitenden oder reduzierter Produktivität führen. Es ist zudem bekannt, dass sich die Arbeitsbelastung in der Wissensarbeit auf die Qualität der Arbeitsergebnisse auswirkt. Dieser Forschungsbeitrag identifiziert potenzielle Faktoren der Arbeitsbelastung der Mitglieder eines agilen Software-Entwicklungsteams bei der Otto GmbH & Co KG. Auf der Grundlage der Faktoren präsentieren wir Maßnahmen zur Reduzierung von Arbeitsbelastung und erläutern unsere Erkenntnisse, die wir im Rahmen eines Experiments validiert haben. Unsere Ergebnisse zeigen, dass bereits kleinteilige Maßnahmen, wie das Einführen von Ruhearbeitsphasen während des Arbeitstages, zu positiven Effekten bspw. hinsichtlich einer gesteigerten Konzentrationsfähigkeit führen und wie sich diese auf die Qualität der Arbeitsergebnisse auswirken.
Hintergrund:
Feedback von Patienten über erlebte Versorgungsaspekte erfolgt auch in der Rehabilitation inzwischen zunehmend online, beispielsweise auf Bewertungsportalen. Daher soll untersucht werden, welche von Rehabilitanden auf der für Reha-Kliniken führenden Bewertungsplattform Klinikbewertungen.de veröffentlichten Versorgungsaspekte mit der Weiterempfehlung einer Rehaklinik und welche negativen Aspekte mit der Nicht-Weiterempfehlung assoziiert sind.
Methode:
Eingeschlossen wurden Reha-Kliniken der Rentenversicherung Bund und federführend von ihr belegte Kliniken. Mit einem Mixed-Methods-Ansatz wurden aus acht Reha-Indikationsgruppen nach Zufriedenheitsstufen stratifizierte freitextliche Erfahrungsberichte von Rehabilitanden inhaltsanalytisch ausgewertet. Der Zusammenhang zwischen positiven (negativen) Aussagen mit der (Nicht-)Weiterempfehlung wurde in der jeweiligen Reha-Indikationsgruppe untersucht.
Ergebnisse:
Die Inhaltsanalyse von 911 Erfahrungsberichten ergab 20 thematische Kategorien. Der von Rehabilitanden wahrgenommene "Reha-Erfolg" war am häufigsten mit der Weiterempfehlung bzw. Nicht-Weiterempfehlung signifikant assoziiert. In fünf QS-Vergleichsgruppen war das Thema "Verpflegung" assoziiert. In allen QS-Vergleichsgruppen war mindestens ein prozessorientiertes Rehabilitationsthema assoziiert: "Reha-Maßnahmen", "Reha-Plan und Reha-Ziele" und/oder "Diagnose bis Entlassung".
Diskussion und Schlussfolgerung:
Reha-Kliniken können auf Basis der vorgestellten Ergebnisse indikationsspezifisch die für die Klinik-Weiterempfehlung relevanten Versorgungsaspekte identifizieren. Die Einbeziehung von Online-Erfahrungsberichten schafft zusätzliche Erkenntnisse über die Gründe der (Un-)Zufriedenheit von Rehabilitanden. Potenziellen Rehabilitanden steht das Erfahrungswissen als niederschwellige Informationsquelle und Entscheidungshilfe zur Verfügung
Background: Improving the transparency of information about the quality of health care providers is one way to improve health care quality. It is assumed that Internet information steers patients toward better-performing health care providers and will motivate providers to improve quality. However, the effect of public reporting on hospital quality is still small. One of the reasons is that users find it difficult to understand the formats in which information is presented.
Objective: We analyzed the presentation of risk-adjusted mortality rate (RAMR) for coronary angiography in the 10 most commonly used German public report cards to analyze the impact of information presentation features on their comprehensibility. We wanted to determine which information presentation features were utilized, were preferred by users, led to better comprehension, and had similar effects to those reported in evidence-based recommendations described in the literature.
Methods: The study consisted of 5 steps: (1) identification of best-practice evidence about the presentation of information on hospital report cards; (2) selection of a single risk-adjusted quality indicator; (3) selection of a sample of designs adopted by German public report cards; (4) identification of the information presentation elements used in public reporting initiatives in Germany; and (5) an online panel completed an online questionnaire that was conducted to determine if respondents were able to identify the hospital with the lowest RAMR and if respondents’ hospital choices were associated with particular information design elements.
Results: Evidence-based recommendations were made relating to the following information presentation features relevant to report cards: evaluative table with symbols, tables without symbols, bar charts, bar charts without symbols, bar charts with symbols, symbols, evaluative word labels, highlighting, order of providers, high values to indicate good performance, explicit statements of whether high or low values indicate good performance, and incomplete data (“N/A” as a value). When investigating the RAMR in a sample of 10 hospitals’ report cards, 7 of these information presentation features were identified. Of these, 5 information presentation features improved comprehensibility in a manner reported previously in literature.
Conclusions: To our knowledge, this is the first study to systematically analyze the most commonly used public reporting card designs used in Germany. Best-practice evidence identified in international literature was in agreement with 5 findings about German report card designs: (1) avoid tables without symbols, (2) include bar charts with symbols, (3) state explicitly whether high or low values indicate good performance or provide a “good quality” range, (4) avoid incomplete data (N/A given as a value), and (5) rank hospitals by performance. However, these findings are preliminary and should be subject of further evaluation. The implementation of 4 of these recommendations should not present insurmountable obstacles. However, ranking hospitals by performance may present substantial difficulties.
The objective was to establish and standardise a broth microdilution susceptibility testing method for porcine Bordetella (B.) bronchiseptica. B. bronchiseptica isolates from different geographical regions and farms were genotyped by macrorestriction analysis and subsequent pulsed-field gel electrophoresis. One reference and one type strain plus two field isolates of B. bronchiseptica were chosen to analyse growth curves in four different media: cation-adjusted Mueller-Hinton broth (CAMHB) with and without 2% lysed horse blood, Brain-Heart-Infusion (BHI), and Caso broth. The growth rate of each test strain in each medium was determined by culture enumeration and the suitability of CAMHB was confirmed by comparative statistical analysis. Thereafter, reference and type strain and eight epidemiologically unrelated field isolates of B. bronchiseptica were used to test the suitability of a broth microdilution susceptibility testing method following CLSI-approved performance standards given in document VET01-A4. Susceptibility tests, using 20 antimicrobial agents, were performed in five replicates, and data were collected after 20 and 24 hours incubation and statistically analysed. Due to the low growth rate of B. bronchiseptica, an incubation time of 24 hours resulted in significantly more homogeneous minimum inhibitory concentrations after five replications compared to a 20-hour incubation. An interlaboratory comparison trial including susceptibility testing of 24 antimicrobial agents revealed a high mean level of reproducibility (97.9%) of the modified method. Hence, in a harmonization for broth microdilution susceptibility testing of B. bronchiseptica, an incubation time of 24 hours in CAMHB medium with an incubation temperature of 35°C and an inoculum concentration of approximately 5 x 105 cfu/ml was proposed.
Unternehmen befinden sich in einem Beziehungsgeflecht mit verschiedenen Stakeholdern, die differierende Ansprüche stellen und den Erfolg des Unternehmens stark beeinflussen. Unter diesen Gegebenheiten ist es von zentraler Bedeutung, gute Beziehungen zu den unterschiedlichen Gruppen und somit ein hohes Beziehungskapital aufzubauen. Eine Schlüsselfunktion kommt dabei der Kommunikation zu, da sie das Bindeglied zwischen Unternehmen und Stakeholdern darstellt.
Um mithilfe strategischen Kommunikationsmanagements die Beziehungen zu Stakeholdern zu stärken, müssen Unternehmen wissen, worauf überhaupt gute Beziehungen beruhen. Im Zentrum der Arbeit steht daher das soziale Kommunikations-Controlling von Unternehmen als Analyse- und Steuerungsfunktion und die Frage, aus welchen Faktoren sich das Beziehungskapital eines Unternehmens zusammensetzt. Im Gegensatz zum ökonomischen Kommunikations-Controlling fokussiert der soziale Ansatz nicht die ökonomische Ausrichtung der Kommunikation, sondern die Unternehmen-Stakeholder-Beziehungen.
Auf Basis des Beziehungskapital-Ansatzes von Szyszka und zentralen Reputationskonzepten wurden die Dimensionen und Indikatoren von Beziehungskapital hergeleitet. Eine quantitative Befragung einer breiten Öffentlichkeit diente anschließend der Prüfung des Entwurfs und der Identifikation möglicher weiterer Aspekte. Das Ergebnis stellt ein Modell dar, demnach Beziehungskapital aus folgenden acht Dimensionen besteht: die Produkte und Services, der unternehmerische Erfolg sowie die Kompetenz des Unternehmens als funktionale Komponenten, die soziale Verantwortung, die ökologische Verantwortung und die Verantwortung gegenüber den Mitarbeitern als soziale Komponenten sowie die Sympathie und Attraktivität des Unternehmens als affektive Komponenten. Die Dimensionen werden durch insgesamt 20 Indikatoren repräsentiert.
Das Modell lässt sich in den theoretischen Kontext des sozialen Kommunikations-Controllings einordnen und kann als Erweiterung des Beziehungskapital-Ansatzes hinzugezogen werden. In der Praxis liefert die Arbeit erste Hilfestellungen, um das Beziehungskapital eines Unternehmens bestimmen und darauf aufbauend ein strategisches Kommunikationsmanagement etablieren zu können.
Background: Epidemiological and experimental studies suggest that exposure to ultrafine particles (UFP) might aggravate the allergic inflammation of the lung in asthmatics.
Methods: We exposed 12 allergic asthmatics in two subgroups in a double-blinded randomized cross-over design, first to freshly generated ultrafine carbon particles (64 μg/m3; 6.1 ± 0.4 × 105 particles/cm3 for 2 h) and then to filtered air or vice versa with a 28-day recovery period in-between. Eighteen hours after each exposure, grass pollen was instilled into a lung lobe via bronchoscopy. Another 24 hours later, inflammatory cells were collected by means of bronchoalveolar lavage (BAL). (Trial registration: NCT00527462)
Results: For the entire study group, inhalation of UFP by itself had no significant effect on the allergen induced
inflammatory response measured with total cell count as compared to exposure with filtered air (p = 0.188). However, the subgroup of subjects, which inhaled UFP during the first exposure, exhibited a significant increase in total BAL cells (p = 0.021), eosinophils (p = 0.031) and monocytes (p = 0.013) after filtered air exposure and subsequent allergen challenge 28 days later. Additionally, the potential of BAL cells to generate oxidant radicals was
significantly elevated at that time point. The subgroup that was exposed first to filtered air and 28 days later to UFP did not reveal differences between sessions.
Conclusions: Our data demonstrate that pre-allergen exposure to UFP had no acute effect on the allergic inflammation. However, the subgroup analysis lead to the speculation that inhaled UFP particles might have a long-term effect on the inflammatory course in asthmatic patients. This should be reconfirmed in further studies with an appropriate study design and sufficient number of subjects.
During machine milking, pathogenic microorganisms can be transmitted from cow to cow through liners. Therefore, in Germany, a spray method for the intermediate disinfection of the milking cluster is often used for prevention. This method of cluster disinfection is easy to perform, requires little time and no extra materials, and the disinfection solution is safe from outside contamination in the spray bottle. Since no data on a systematic efficacy trial are available, the aim of this study was to determine the microbial reduction effect of intermediate disinfection. Therefore, laboratory and field trials were conducted. In both trials, two sprays of 0.85 mL per burst of different disinfectant solutions were sprayed into the contaminated liners. For sampling, a quantitative swabbing method using a modified wet–dry swab (WDS) technique based on DIN 10113-1: 1997-07 was applied. Thus, the effectiveness of disinfectants based on Peracetic Acid, Hydrogen Peroxide and Plasma-Activated Buffered Solution (PABS) was compared. In the laboratory trial, the inner surfaces of liners were contaminated with pure cultures of Escherichia (E.) coli, Staphylococcus (S.) aureus, Streptococcus (Sc.) uberis and Sc. agalactiae. The disinfection of the contaminated liners with the disinfectants resulted in a significant reduction in bacteria with values averaging 1 log for E. coli, 0.7 log for S. aureus, 0.7 log for Sc. uberis and 0.8 log for Sc. agalactiae. The highest reduction was obtained for contamination with E. coli (1.3 log) and Sc. uberis (0.8 log) when PABS was applied and for contamination with S. aureus (1.1 log) and Sc. agalactiae (1 log) when Peracetic Acid Solution (PAS) was used. Treatment with sterile water only led to an average reduction of 0.4 log. In the field trial, after the milking of 575 cows, the liners were disinfected and the total microorganism count from the liner surface was performed. The reduction was measured against an untreated liner within the cluster. Although a reduction in microorganisms was achieved in the field trial, it was not significant. When using PAS, a log reduction of 0.3 was achieved; when using PABS, a log reduction of 0.2 was obtained. The difference between the two disinfection methods was also not significant. Treatment with sterile water only led to a reduction of 0.1 log. The results show that spray disinfection under these circumstances does result in a reduction in the bacteria on the milking liner surface, but for effective disinfection a higher reduction would be preferred.
Seit 2013 ist die Erhebung der psychischen Belastung an deutschen Arbeitsplätzen verpflichtend, verankert ist dies im §4 ArbSchG. Studien wie die der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin belegen, dass dies nicht flächendeckend geschieht. Diese Arbeit beschäftigt sich zum einen mit der Frage, warum die psychische Belastung von Mitarbeitenden in kleinen wissenschaftlichen Bibliotheken in Baden-Württemberg nicht erhoben wird. Zum anderen mit der Frage nach dem Bewusstsein der Bibliotheksleitenden für das Thema psychische Belastung. Ziel ist dabei die Nennung von Gründen fehlender Erhebungen und eine Beschreibung des Bewusstseins der Leitungspersonen. Mithilfe von Leitfadeninterviews werden Daten erhoben und mit der inhaltlich strukturierenden Inhaltsanalyse nach Kuckartz ausgewertet. Im Theorieteil werden das Arbeitsschutzgesetz, die DIN EN ISO 10075-1:2017 und eine Leitlinie der Gemeinsamen deutschen Arbeitsschutzstrategie (GDA) vorgestellt. Thematisiert wird außerdem die Veränderung der Arbeitswelt von Bibliotheksmitarbeitenden und Studien zur Arbeitszufriedenheit dieser Personen. Ergebnisse dieser Arbeit sind Hindernisse, wie zum Beispiel unklare Zuständigkeiten und Mangel an Wissen. Das Bewusstsein wird in Bezug auf das Vorwissen über psychische Belastung und die Reflexion der eigenen Rolle und eigener Erhebungsmethoden ausgewertet. Ein übergreifendes Problem scheint die umgangssprachliche und damit negative Auffassung des Begriffs psychische Belastung zu sein.
Background:
The increase in food intolerances poses a burgeoning problem in our society. Food intolerances not only lead to physical impairment of the individual patient but also result in a high socio-economic burden due to factors such as the treatment required as well as absenteeism. The present study aimed to explore whether lactose intolerant (LI) patients exhibit more frequent comorbidities than non-LI patients.
Methods:
The study was conducted on a case-control basis and the results were determined using routine data analysis. Routine data from the IMS Disease Analyzer database were used for this purpose. A total of 6,758 data records were processed and analyzed.
Results:
There were significant correlations between LI and the incidence of osteoporosis, changes in mental status, and the presence of additional food intolerances. Comparing 3,379 LI vs. 3,379 non-LI patients, 34.5% vs. 17.7% (P<0.0001) suffered from abdominal pain; 30.6% vs. 17.2% (P<0.0001) from gastrointestinal infections; and 20.9% vs. 16.0% (P=0.0053) from depression. Adjusted odds ratios (OR) were the highest for fructose intolerance (n=229 LI vs. n=7 non-LI; OR 31.06; P<0.0001), irritable bowel syndrome (n=247 LI vs. n=44 non-LI; OR 5.23; P<0.0001), and bloating (n=351 LI vs. n=68 non-LI; OR 4.94; P<0.0001).
Conclusion:
The study confirms that LI should not be regarded as an isolated illness but considered a possible trigger for further diseases. Additional research is necessary to assert more precise statements.
This paper proposes an extended Petri net formalism as a suitable language for composing optimal scheduling problems of industrial production processes with real and binary decision variables. The proposed approach is modular and scalable, as the overall process dynamics and constraints can be collected by parsing of all atomic elements of the net graph. To conclude, we demonstrate the use of this framework for modeling the moulding sand preparation process of a real foundry plant.
Introduction
Atopic dermatitis (AD) is a common inflammatory skin disease. Many patients are initiating a systemic therapy, if the disease is not adequately controlled with topical treatment only. Currently, there is little real-world evidence on the AD-related medical care situation in Germany. This study analyzed patient characteristics, treatment patterns, healthcare resource utilization and costs associated with systemically treated AD for the German healthcare system.
Methods
In this descriptive, retrospective cohort study, aggregated anonymized German health claims data from the InGef research database were used. Within a representative sample of four million insured individuals, patients with AD and systemic drug therapy initiation (SDTI) in the index year 2017 were identified and included into the study cohort. Systemic drug therapy included dupilumab, systemic corticosteroids (SCS) and systemic immunosuppressants (SIS). Patients were observed for one year starting from the date of SDTI in 2017.
Results
9975 patients were included (57.8% female, mean age 39.6 years [SD 25.5]). In the one-year observation period, the most common systemic drug therapy was SCS (> 99.0%). Administrations of dupilumab (0.3%) or dispensations of SIS were rare (cyclosporine: 0.5%, azathioprine: 0.6%, methotrexate: 0.1%). Median treatment duration of SCS, cyclosporine and azathioprine was 27 days, 102 days, and 109 days, respectively. 2.8% of the patients received phototherapy; 41.6% used topical corticosteroids and/or topical calcineurin inhibitor. Average annual costs for medications amounted to € 1237 per patient. Outpatient services were used by 99.6% with associated mean annual costs of € 943; 25.4% had at least one hospitalization (mean annual costs: € 5836). 5.3% of adult patients received sickness benefits with associated mean annual costs of € 5026.
Conclusions
Despite unfavorable risk–benefit profile, this study demonstrated a common treatment with SCS, whereas other systemic drug therapy options were rarely used. Furthermore, the results suggest a substantial economic burden for patients with AD and SDTI.
Im Hinblick auf eine zunehmende Annäherung einzelner Fachlandschaften und der vermehrten Vernetzung von Informationssystemen befasst sich diese Arbeit mit der Fragestellung, ob ein Einsatz des Bibliotheksautomationssystems PICA (Project for Integrated Catalogue Automation) bei der Landesmedienstelle in Niedersachsen eine angemessene Lösung des Problems der unzureichenden Informationsvermittlung über verfügbare audiovisuelle Medien darstellen könnte. Dabei wird zur Verdeutlichung des Informationsbedarfs und des Informationsdefizits dem Abriss zur historischen Entwicklung des Bildstellenwesens und zum geschichtlichen Werdegang der Landesmedienstelle in Niedersachsen bewusst ein breiter Raum gegeben.
Beitrag zum Workshop "Informationskompetenz im Norden" am 01.02.2018 im Bibliotheks- und Informationssytem der Carl von Ossietzky Universität Oldenburg.
Es geht zunächst darum, welche Ansätze und Projekte die Schreibwerkstatt verfolgt, um Informations- & Schreibprozesse an der Hochschule Hannover zu fördern.
Da es gemeinsame Ziele und Zielgruppen von sowie inhaltliche Überschneidungen zwischen Bibliothek und Schreibwerkstatt gibt, werden Kooperationsbeispiele und Vorteile der Zusammenarbeit vorgestellt.
Die Auswahl geeigneter Bewerber/Innen nimmt aufgrund der demographischen Entwicklung und der damit verbundenen Verknappung der Ressource Personal einen immer höheren Stellenwert ein. Der Einsatz von Anforderungsprofilen soll dabei helfen das Risiko einer fehlerhaften Auswahlentscheidung zu verringern und somit den geeignetsten Bewerber auszuwählen. Ein Trend hin zu den Soft-Skills, wie beispielsweise Teamfähigkeit und Kommunikationsbereitschaft, ist klar zu erkennen. Gegenstand der nachfolgenden Diplomarbeit ist daher die Entwicklung eines Anforderungsprofils, welches sich auf diese Soft-Skills konzentriert. Die Erstel-lung des Anforderungsprofils erfolgt dabei auf Grundlage der von John C. Flanagan entwickelten „Critical Incident Technique“, die im deutschen Sprachgebrauch auch als Methode der kritischen Ereignisse bezeichnet wird. Infolgedessen werden zunächst die theoretischen Grundlagen eines Anforderungsprofils sowie die der „Critical Incident Technique“ detailliert erläutert. Im Anschluss daran erfolgt eine ausführliche Beschreibung der methodischen Vorgehensweise, die den kompletten Ablauf der praktischen Durchführung widerspiegelt. In diesem Zusammenhang werden getroffene Entscheidungen, die zu einer Anpassung der Vorgehensweise führten, näher erläutert und begründet. Die aus den Mitarbeiterbefragungen gewonnenen „Critical Incidents“ werden nachfolgend kategorisiert und zu Anforderungsbereichen zusammengefasst, die abschließend zum Anforderungsprofil verdichtet werden. Ferner wird die Möglichkeit einer praktischen Anwendung der Ergebnisse anhand von drei vom Autor begleiteten Projekten dargestellt.
Der zukünftig steigende Bedarf an Bereitstellung von Regelenergie aus regenerativen Kraftwerken sowie sinkende EEG-Tarifstrukturen im Bereich Biogas führen zur Notwendigkeit einer Entwicklung alternativer Betriebs- und Vergütungsmodelle. Der vorliegende Beitrag skizziert ein wirtschaftliches Ausgleichssystem für virtuelle Biogas-Verbundkraftwerke. Es beschreibt, welche Kosten und Erlöse in virtuellen Biogas-Verbünden generiert werden, sofern diese teilautomatisiert und auf die regionale Netzstabilität fokussiert betrieben werden. Das wirtschaftliche Ausgleichssystem ist ein Teil des im Forschungsvorhaben VKV Netz zu entwickelnden Steuerungssystems für virtuelle Biogas-Verbundkraftwerke (http://vkvnetz.de).
Electrospinning with consequent thermal treatment consists in a carbon fiber production method that spins a polymer solution to create fibers with diameters around a few hundred nanometers. The thermal treatments are used for the cyclization and then carbonization of the material at 1700 °C for one hour. The unique structure of micro- and nano-carbon fibers makes them a promising material for various applications ranging from future battery designs to filtration. This work investigated the possibility of using milled gasification biochar, derived from a 20 kW fixed-bed gasifier fueled with vine pruning pellets, as an addictive in the preparation of electrospinning solutions. This study outlined that solvent cleaning and the consequent wet-milling and 32 µm sifting are fundamental passages for biochar preparation. Four different polyacrylonitrile-biochar shares were tested ranging from pure polymer to 50–50% solutions. The resulting fibers were analyzed via scanning electron microscopy, and energy-dispersive X-ray and infrared spectroscopy. Results from the morphological analysis showed that biochar grains dispersed themselves well among the fiber mat in all the proposed shares. All the tested solutions, once carbonized, exceeded 97%wt. of carbon content. At higher carbonization temperatures, the inorganic compounds naturally showing in biochar such as potassium and calcium disappeared, resulting in an almost carbon-pure fiber matrix with biochar grains in between.
Diese Arbeit dokumentiert die Konzeption und den Aufbau des institutionellen Repositoriums DORIS des Bundesamtes für Strahlenschutz. Sie beschreibt neben der Entstehung des Projektes und der Auswahl der Repositoriumssoftware insbesondere die Vorgehensweise der Bibliothek des Amtes bei der Entwicklung des Systems und erläutert die dabei vorgenommenen Anpassungen sowie die getroffenen Entscheidungen. Darüber hinaus kombiniert die Arbeit Grundlagen zum Thema "institutionelle Repositorien" mit einer Übersicht von Open-Source-Softwarelösungen und einem detaillierten Einblick in das vom Amt verwendete Produkt DSpace. Weiterhin betrachtet sie das Portable-Document-Format unter den Aspekten Langzeitarchivierung und Barrierefreiheit und bietet einen kurzen Einblick in die Aufgaben und Organisation des Bundesamtes.
Das Stufenmodell „Komplexitätsstufen von aktivierenden Lernressourcen“ wurde von einem Projektteam der Fachhochschule Hannover für die Produktion von E-Learning Materialien entwickelt. Die Bachelorarbeit soll beantworten, ob das Modell in der Praxis anwendbar ist. Hierfür wird eine Analyse des Stufenmodells angestrebt.
Um die Anwendbarkeit zu überprüfen, wird das Stufenmodell mit Beispielen aus wissenschaftlichen Bibliotheken abgeglichen. Die Beispiele basieren auf Lernressourcen, die aus Bibliotheken entnommen werden, die mittels E-Learning Informationskompetenz vermitteln.
Für die Analyse werden die Angebote anhand der Parameter und der Lernziele des Stufenmodells kategorisiert. Um die Ergebnisse anwendbar zu machen, wird weiterhin ein Konzept für die Förderung von Informationskompetenz mit E-Learning Werkzeugen vorgeschlagen.
Die Analyse des Stufenmodells zeigt auf, dass das Modell eine gute Orientierung ist, um E-Learning Ressourcen zu kategorisieren. Der Parameter Komplexität eignet sich, um die Ressourcen umfassend abzubilden, da die meisten Beispiele in das Modell einsortiert werden
können. Der Schwachpunkt des Modells besteht jedoch darin, dass zu viele Parameter berücksichtigt werden, die sich gegenseitig ausschließen können.
Die Ergebnisse der Analyse werden abschließend zu einem Konzept für Bibliotheken zusammengefasst. Die Theorien der Didaktik, sowie das Schwellenkonzept der Association of College & Research Libraries dienen hierbei als Grundlage. Dies zeigt auf, dass Informationskompetenz mit E-Learning Werkzeugen vermittelt werden und das Stufenmodell als Instrument dienlich sein kann.
The control of clinical mastitis on dairy farms is an essential part of animal health management. Knowledge of the causative microorganisms, the cure rates achievable in the field and essential associated factors are crucial for proper control. The objectives of the present study were to characterize clinical mastitis cases in Germany and to analyze factors influencing cure rates and the recurrence rate. Milk samples of every clinical mastitis case occurring on 12 participating farms were examined cytomicrobiologically. Post-treatment quarter samples were taken after 14 and 21 days. Treatments were performed according to existing farm protocols. Of 2883 clinical mastitis cases, the most prevalent pathogens were Streptococcus (S.) uberis (20.2%) and coliforms (11.6%). In 35% of the milk samples, no bacteriological growth was detected. The overall bacteriological cure rate was 73.3%, while the cytological cure rate was 22.3%, the full cure rate 21.4% and the recurrence rate 18.8%. Regarding the pathogen distribution of severe mastitis, coliform bacteria were detected in 30.5% of the cases, whereas S. uberis was detected in 26.5% thereof. The results show that severe mastitis is caused almost as frequently by Gram-positive as by Gram-negative microorganisms. The low cytological cure rates show that the therapy needs to be further developed with regard to calming the inflammation. The obtained data can be very helpful in assessing internal mastitis scenarios and the effect of measures and therapies.
Die Problematik der aktuell batteriebetriebenen Elektrofahrzeuge liegt in der geringen Reichweite, einem geringen Fahrtgastkomfort, sowie den langen Ladezeiten und einer nicht ausreichenden Ladeinfrastruktur. Diese Tatsachen stellen für die Nutzer eine Hürde für den Umstieg zu batteriebetriebenen Fahrzeugen dar. Eine schon heute verfügbare Brückentechnologie ist der Range Extender. Diese, meist im Fahrzeug integrierten Einheiten, liefern zusätzliche Reichweite, bei einer elektrischen Leistung von meist über 15 kWel und einem durchschnittlichen Anlagenwirkungsgrad von Ƞ RE ≈ 29 %. In dieser Arbeit wird ein modulares Konzept eines erweiterten Range Extenders untersucht, welches die Funktion der Kraft-Wärme-Kopplung und Kraft-Kälte-Kopplung nutzt. Diese Hilfseinheit soll zum einen den Nachteil der geringen Reichweite aufgrund der eingeschränkten Batteriekapazitäten, zum anderen den geringen thermischen Innenraumkomfort von batteriebetriebenen Fahrzeugen ausgleichen. Das Konzept einer Kraftwärme/-kältekopplung zur Klimatisierung von BEV wird in der vorliegenden Arbeit mit Hilfe eines Versuchsaufbaus messtechnisch und theoretisch mittels Simulation untersucht, sowie anhand der ermittelten Kennfelder beurteilt. Die Simulation basiert dabei auf empirisch ermittelten Daten. In den gewählten Fahrzeugklassen Kleinstwagen, Kompakt- und Mittelklasse wird der mittlere Gesamtwirkungsgrad der Anlagenkomponenten in Abhängigkeit von Klimadaten (Wetterdaten) bestimmt. Dieser ermittelte Wirkungsgrad ist abhängig von äußeren thermischen Anforderungen und der Ausnutzung der Anlagenkomponenten. Der modulierbare Leistungsbereich des mikro Blockheizkraftwerks mit Kraft-Kälte-Kopplung hat zum Heizen einen thermischen Leistungsbereich von 5,7 – 13,0 kWthh. Der mechanische Leistungsbereich von 2,0 - 14,5 kWme wird in zwei Bereiche aufgeteilt. Zur Kühlung wird ein thermischer Bereich von 1,0 – 7,0 kWthk und zur elektrischen Stromerzeugung ein Leistungsbereich von 1,0 – 6,0 kWel verwendet. Basierend auf den in dieser Arbeit experimentell ermittelten Kennfeldern, die unter Berücksichtigung der lokalen klimatischen Bedingungen in Deutschland berechnet wurden, kann der Anlagenwirkungsgrad für Kleinstwagen mit Ƞ Kl = 58,9 ± 3,5 %, für die Kompaktklasse mit Ƞ Ko = 62,2 ± 5,5 % und für die Mittelklasse mit durchschnittlich Ƞ Mk = 65,2 ± 4,8 % ermittelt werden. Die zusätzlich gewonnenen Reichweiten, die durch Einsparung von batterieelektrischer Energie für die Klimatisierung und durch Einspeisung von erzeugter elektrischer Energie erreicht werden, liegen bei den Kleinstwagen bei 246 ± 31 km, in der Kompaktklasse bei 296 ± 103 km und in der Mittelklasse bei 314 ± 104 km. Eine Abtrennung des Klimakompressors von der Verbrennungskraftmaschine führt dabei zusätzlich zu einer teilweisen Verbesserung der ermittelten Werte. Im Vergleich dazu, lässt sich ein durchschnittlicher Reichweitenzuwachs von 103 km, ohne den Einsatz eines Kraftstoffes, nur durch Nutzung eines effizienteren Systems erreichen, wenn eine Wärmepumpe eingesetzt wird. Zusammenfassend kann festgehalten werden, dass der Einsatz der Kraftwärme -Kältekopplung zur Klimatisierung von Elektrofahrzeugen nachhaltig und sinnvoller erscheint, als der Einsatz eines konventionellen Range Extender, denn der Einsatz eines zusätzlichen Kraftstoffes sollte so effizient wie möglich genutzt werden.
Mit der Analyse des Kostenverlaufes in der Abteilung "Pasteurisierte Konsummilch" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. Gegenüber dem 1975 durchgeführten Kostenvergleich verschiedener Trinkmilchverfahren (1) basiert diese Abteilungskalkulation auf der modellhaften Kostenermittlung einer Einproduktsimulation anhand eines Abpackverfahrens im Tetra-Rex-System. Unter Berücksichtigung des methodisch weiterentwickelten Kostenrechnungsprinzips (2) wird der Produktionsprozeß zur Herstellung pasteurisierter Vollmilch mit 3,5 % Fett in 1-l-Kartonverpackung hinsichtlich der Kostenverursachung untersucht. Drei Modellvarianten mit Abfülleistungen von 5.400 bis 22.800 Packungen/Stunde, die einer maximalen Produktion von 30,3 bis 128,0 Packungen/Jahr entsprechen, bilden den Ausgangspunkt für die Analyse der Produktionskosten der Abteilung. In Abhängigkeit von der täglichen Abfüllmenge und dem Produktionsprogramm werden spezifische Modellausrüstungen bestimmt, von denen sich unmittelbar die variablen und fixen Einsatzmengen der Produktionsfaktoren ableiten. Der Einfluß unterschiedlicher Kapazitätsgrößen und -auslastungen auf die Herstellungskosten wird mit simulierten Beschäftigungssituationen zwischen 15 und 100 % verdeutlicht, die eine Bestimmung der Kosten für Milchmengen zwischen 4,5 und 128,0 Mio. Packungen im Jahr ermöglichen. Gemäß der Kapazitätsgröße und der technischen Auslegung der Modelle betragen die Investitionen 1,7 Mio. DM im Modell 1 und 4,7 Mio. DM im Modell 3. Bezogen auf die jeweilige Outputmenge der Abteilung ergeben sich spezifische Investitionen, die mit zunehmender Modellgröße von 56 auf 37 DM je 1.000 Packungen sinken. Die Gesamtkosten der Abteilung “Pasteurisierte Konsummilch”, die sich aus den Produkt- und Abteilungseinzelkosten zusammensetzen, betragen im größten Modell bei 100 % Beschäftigung 73,8 Pf/Pckg. Abteilungs-Output und steigen mit abnehmender Modellgröße und sinkendem Beschäftigungsgrad (15 %) auf 83,1 Pf/Pckg.. In der beschäftigungsabhängigen Gesamtkostenentwicklung tritt zwischen dem 3- und 1-Schichtbetrieb eine Kostensenkung im Modell 1 von 3,0 Pf/Pckg. ein, die im Modell 3 2,0 Pf/Pckg. ausmacht. Der kapazltsgrößenbedingte Degressionseffekt Ist vom größten zum kleinsten Modell mit 1,7 Pf/Pckg. im 3-Schichtbetrieb und mit 2,7 Pf/Pckg. im 1-Schichtbetrieb markiert. Aus der prozentualen Zusammensetzung der Gesamtkosten bei einem Beschäftigungsgrad von 64 % dominieren die Rohstoffkosten mit modellspezifischen Anteilen von 72 - 73 %, die Betriebskosten beanspruchen 25 - 26 %, und die Anlagekosten sind anteilig mit 2 - 3 % vertreten. Mit der Darstellung der prozentualen Verteilung der Gesamtkosten ohne Rohstoffkosten treten die Kostenarten der Betriebskosten in den Vordergrund. Bei gleicher Ausgangssituation entfallen 83 - 89 % auf die Verpackungsmaterialkosten, 3 - 6 % auf die Personalkosten sowie 1 - 2 % auf die Energie- und Betriebsstoffkosten; 7 - 9 % ergeben sich hier für die Anlagekosten. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad nennenswerte Kosteneinsparungen zu erreichen sind. Dagegen zeichnen sich Kostendegressionen in Abhängigkeit von der Zahl der Produktionstage aufgrund des geringen Anteils der tagesfixen Kosten an den Gesamtkosten nur im minimalen Umfang ab.
60 Jahre nach Ende des Zweiten Weltkrieges und der nationalsozialistischen Herrschaft befindet sich noch immer NS-Raubgut im Bestand deutscher Bibliotheken. In der vorliegenden Bachelorarbeit wird eine Übersicht zur Thematik „NS-Raubgut und Restitution in Bibliotheken“ erarbeitet. Dies geschieht mit dem Ziel, im weiteren Verlauf der Arbeit aufzuzeigen, wie diese Inhalte in die Ausbildung von Informationsfachleuten integriert werden können. Nach einer Einführung in den Themenkomplex erfolgt zunächst eine Statusermittlung des derzeitigen Umgangs mit der Thematik innerhalb der Ausbildung von Informationsfachleuten an deutschen Hochschulen. Darauf aufbauend werden Vorlesungsinhalte erarbeitet, die sich für die Vermittlung in der Ausbildung eignen. Die Betrachtung möglicher Vermittlungsformen ist ebenfalls enthalten.
Diese Arbeit thematisiert die unausgeschöpften Potentiale der von Designer*innen erzeugten Formen. Um zu klären, welche Wichtigkeit der Formfindung innerhalb des gestalterischen Prozesses zukommt, wird die Form mit anderen Parametern der Gestaltung verglichen. Es wird untersucht, welche Wirkungen die Formen auf Menschen haben können, die mit ihnen interagieren wollen oder müssen. Auf der Suche nach Möglichkeiten, die so ermittelten Potentiale freizuschalten, wird der bisher begrenzende Rahmen betrachtet. In einem phänomenologischen Versuch wird geprüft, welche Mannigfaltigkeit von dem generativen Prozess einer künstlichen Intelligenz vorgeschlagen werden kann. Das Ergebnis sind verschobene Grenzen, die zahlreiche Felder der Formausprägung zu einem Größeren erschließen. Eine absolute Entgrenzung des Formendenkens muss derweil scheitern.
Der digitale Wandel beschäftigt Hochschulen schon länger, doch verhalf die Corona-Pandemie zu einem Aufschwung in der Digitalisierung. Dies bringt Veränderungen in der Hochschullehre mit sich. Auch Hochschulbibliotheken sind für die digitale Bildung von Bedeutung. Es gilt herauszufinden, welche Anforderungen an die Lernraumgestaltung aufgrund der derzeitigen Hochschullehre entstehen. Ziel ist es, nachzuvollziehen, wie der Lernort Wissenschaftliche Bibliothek bei der Nutzung von neuen Technologien und dem Erwerb der dafür benötigten Kompetenzen helfen, und um welche Angebote und Dienstleistungen er ergänzt werden kann. Diese literaturbasierte Theoriearbeit beantwortet die Frage, wie Lernräume in Wissenschaftlichen Bibliotheken digital und hybrid gestaltet werden können, um die heutige Lehre an Hochschulen kompetenzorientiert zu unterstützen. Zentral ist die praxisorientierte Betrachtung von lehr- und lernunterstützenden Diensten wie Makerspaces, Learning Labs sowie Beratung und Schulung. Ein weiterer Schwerpunkt liegt auf dem Einsatz von digitalen und hybriden Elementen im physischen Lernraum wie interaktiven Whiteboards, Multitouch-Tables sowie Augmented und Virtual Reality. Die soziale Interaktion, Kooperationen, Supportstrukturen und die Kompetenzvermittlung bilden eine wichtige Basis. Zur Veranschaulichung von unterstützenden Angeboten für Lernen und Lehren werden Good-Practice-Beispiele herangezogen. Die erarbeitete Vielfalt an Handlungsmöglichkeiten zeigt, wie klassische Lernraumsettings durch organisatorische, didaktische und technische Ausstattungen erweitert, weiterentwickelt und verbessert werden können.
Das Gesundheitsdatennutzungsgesetz – Potenzial für eine bessere Forschung und Gesundheitsversorgung
(2023)
Im Koalitionsvertrag der Ampel-Koalition wird für die laufende Legislaturperiode ein Gesundheitsdatennutzungsgesetz (GDNG) angekündigt. Dieses Gesetz soll „zu einer besseren wissenschaftlichen Nutzung in Einklang mit der DSGVO“ führen. Bekanntermaßen steht unser Gesundheitssystem vor großen Herausforderungen (Demografie, Digitalisierung, Fachkräftemangel, Klimakrise, regionale Unterschiede, etc.) und ist jetzt schon das teuerste in Europa bei mittelmäßiger Leistung. Diese Herausforderungen können effizienter und evidenzgeleitet bewältigt werden, wenn wie im geplanten GDNG angedacht, die Datenressourcen für die Evaluierung und Weiterentwicklung des Gesundheitssystems und der Gesundheitsversorgung optimal genutzt werden. In den folgenden Ausführungen werden aus Sicht von Versorgungsforscher*innen Voraussetzungen und Desiderata für eine optimale Ausgestaltung des Gesetzes formuliert. Das Papier wurde durch das Deutsche Netzwerk Versorgungsforschung (DNVF) und die Arbeitsgruppe Erhebung und Nutzung von Sekundärdaten (AGENS) der Deutschen Gesellschaft für Sozialmedizin und Prävention (DGSMP) und der Deutschen Gesellschaft für Epidemiologie (DGEpi) erstellt und wird von den unterzeichnenden Fachgesellschaften getragen. Das vorliegende Positionspapier und die hier aufgestellten Forderungen sind vor der Veröffentlichung und damit in Unkenntnis des Referentenentwurfs zum GDNG formuliert worden.
In this paper, we present a novel approach for real-time rendering of soft eclipse shadows cast by spherical, atmosphereless bodies. While this problem may seem simple at first, it is complicated by several factors. First, the extreme scale differences and huge mutual distances of the involved celestial bodies cause rendering artifacts in practice. Second, the surface of the Sun does not emit light evenly in all directions (an effect which is known as limb darkening). This makes it impossible to model the Sun as a uniform spherical light source. Finally, our intended applications include real-time rendering of solar eclipses in virtual reality, which require very high frame rates. As a solution to these problems, we precompute the amount of shadowing into an eclipse shadow map, which is parametrized so that it is independent of the position and size of the occluder. Hence, a single shadow map can be used for all spherical occluders in the Solar System. We assess the errors introduced by various simplifications and compare multiple approaches in terms of performance and precision. Last but not least, we compare our approaches to the state-of-the-art and to reference images. The implementation has been published under the MIT license.
Apps und digitale Inhalte sind aus unserem Alltag nicht mehr wegzudenken. Auch Bibliotheken versuchen zunehmend, den Gewohnheiten ihrer Leser gerecht zu werden. Bekanntestes Beispiel im deutschsprachigen Raum ist der Onleihe-Service der divibib GmbH, über den Bibliotheksnutzer seit 2007 elektronische Medien entleihen können. Ein Großteil der öffentlichen Bibliotheken in Deutschland nutzt die Onleihe bereits. Das bringt jedoch hohe Anforderungen und Erwartungen seitens der Nutzer mit sich.
Aus diesem Grund beschäftigt sich die vorliegende Arbeit mit einer Evaluation der Onleihe-App hinsichtlich ihrer Usability. Zu Beginn wird ein Überblick über das Untersuchungsobjekt gegeben und die Bedeutung der Onleihe herausgestellt. Anhand von Fachliteratur werden anschließend Grundlagen und angewandte Methoden der Usability beschrieben. Im Anschluss erfolgt die Evaluation der App durch eine Auswertung von Online-Kundenbewertungen der letzten drei Monate, unter den Betriebssystemen Android und iOS. Anschließend werden weitere Usability-Probleme anhand einer Umfrage untersucht. Abschließend ermöglicht ein System Usability Scale die Bewertung der allgemeinen Nutzerfreundlichkeit der App. Mit der Untersuchung sollen Probleme und Schwachstellen der App aufgedeckt werden, um die schlechten Kundenbewertungen der App zu erörtern und um eventuelle Verbesserungsvorschläge einzubringen.
Die Arbeit richtet sich an App-Designer und Usability-Experten, die an der Entwicklung von Apps und Websites im bibliothekarischen Bereich beteiligt sind.
The paper sheds light on the change in the concept of obedience within the Society of Jesus since the 1960s. In the aftermath of the Second Vatican Council, a so-called crisis of authority and obedience took place in the Catholic Church and the religious orders. As a consequence, the notions of responsibility and conscience came to the fore in the Jesuit definition of obedience. The religious concept of obedience, that is the obedience towards God, was reassessed as a service to humanity. The paper analyzes how the change in the concept of obedience gave rise to the promotion of social justice, which the Society of Jesus proclaimed at General Congregation 32 in 1974/75. By including the promotion of social justice into their central mission, Jesuits not only fundamentally transformed their self-conception, but also their ethical values. The paper argues that the pursuit of social justice became a form of religious obedience.
In der medizinischen Forschung nimmt die Bedeutung, langfristigen Zugriff auf hochqualitative medizinische Daten zu erhalten, stetig zu. Aus wissenschaftlicher, ethischer und besonders auch aus rechtlicher Sicht darf die Privatheit betroffener Individuen dabei nicht verletzt werden.
In dieser Masterarbeit wurde ein synthetischer Datensatz erzeugt, der sowohl auf die Kriterien einer guten Datenqualität als auch das Offenlegungsrisiko geprüft wurde. Im Rahmen einer Literaturrecherche wurden zunächst Methoden zur Erzeugung synthetischer Daten, Evaluierungstechniken zur Prüfung der Datenqualität synthetischer Daten und Anonymisierungstechniken ermittelt und zusammengetragen. Mit einem Teildatensatz des MIMIC-III-Datensatzes wurde anschließend mit dem Tool DataSynthesizer ein neuer Datensatz synthetisiert.
Die beiden Datensätze wurden mittels Kolmogorov-Smirnow-Test, Kullback-Leibler-Divergenz und der Paarweisen-Korrelations-Differenz verglichen. Für die kategorischen Attribute konnte eine deutliche Übereinstimmung in der Werteverteilung nachgewiesen werden. Für die numerischen Attribute waren in den Verteilungen Unterschiede, welche mit Fehlwerten im ursprünglichen Datensatz assoziiert wurden.
Für die Prüfung der Privatheit der Daten wurde für unterschiedliche Szenarien für den ursprunggebenden Datensatz eine höhere k-Anonymität und für den synthetischen Datensatz eine höhere l-Diversity ermittelt.
Zudem wurden in beiden Datensätzen übereinstimmende Objekte ermittelt. Für eine vorab aus dem realen Datensatz erstellte Kontrollgruppe wurde ein mehr als zwei Mal höheres Relatives Risiko und eine 2,9-fach höhere Chance (Odds-Ratio) ermittelt, ein identisches Objekt zu identifizieren, als für den synthetischen Datensatz.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Niemals bis zum Mond
(1994)
Die binäre Putzfrau
(1993)