Refine
Year of publication
Document Type
- Master's Thesis (66) (remove)
Has Fulltext
- yes (66)
Is part of the Bibliography
- no (66)
Keywords
- E-Learning (4)
- Betriebliches Gesundheitsmanagement (3)
- Gesundheitsförderung (3)
- Machine Learning (3)
- Maschinelles Lernen (3)
- Spezialbibliothek (3)
- App <Programm> (2)
- Bibliothek (2)
- Clean Architecture (2)
- Corporate Social Responsibility (2)
In der medizinischen Forschung nimmt die Bedeutung, langfristigen Zugriff auf hochqualitative medizinische Daten zu erhalten, stetig zu. Aus wissenschaftlicher, ethischer und besonders auch aus rechtlicher Sicht darf die Privatheit betroffener Individuen dabei nicht verletzt werden.
In dieser Masterarbeit wurde ein synthetischer Datensatz erzeugt, der sowohl auf die Kriterien einer guten Datenqualität als auch das Offenlegungsrisiko geprüft wurde. Im Rahmen einer Literaturrecherche wurden zunächst Methoden zur Erzeugung synthetischer Daten, Evaluierungstechniken zur Prüfung der Datenqualität synthetischer Daten und Anonymisierungstechniken ermittelt und zusammengetragen. Mit einem Teildatensatz des MIMIC-III-Datensatzes wurde anschließend mit dem Tool DataSynthesizer ein neuer Datensatz synthetisiert.
Die beiden Datensätze wurden mittels Kolmogorov-Smirnow-Test, Kullback-Leibler-Divergenz und der Paarweisen-Korrelations-Differenz verglichen. Für die kategorischen Attribute konnte eine deutliche Übereinstimmung in der Werteverteilung nachgewiesen werden. Für die numerischen Attribute waren in den Verteilungen Unterschiede, welche mit Fehlwerten im ursprünglichen Datensatz assoziiert wurden.
Für die Prüfung der Privatheit der Daten wurde für unterschiedliche Szenarien für den ursprunggebenden Datensatz eine höhere k-Anonymität und für den synthetischen Datensatz eine höhere l-Diversity ermittelt.
Zudem wurden in beiden Datensätzen übereinstimmende Objekte ermittelt. Für eine vorab aus dem realen Datensatz erstellte Kontrollgruppe wurde ein mehr als zwei Mal höheres Relatives Risiko und eine 2,9-fach höhere Chance (Odds-Ratio) ermittelt, ein identisches Objekt zu identifizieren, als für den synthetischen Datensatz.
Der Einzug der rechtspopulistischen und teilweise rechtsextremistischen Alternative für Deutschland in den Deutschen Bundestag, hat das politische Klima verändert und stellt auch den Journalismus vor neue Herausforderungen. Die vorliegende Arbeit untersucht, wie Politikjournalist*innen Fernsehinterviews mit AfD-Politiker*innen führen. Hierfür wurden leitfaden-basierte Experteninterviews mit neun Experten aus den Bereichen der politischen Interviewführung vor und hinter der Kamera sowie Seminaren zur Interviewführung mit Rechtspopulist*innen geführt.
Die Untersuchungsergebnisse werden mit Hilfe einer qualitativen Inhaltsanalyse in Anlehnung an Mayring ermittelt. Zentrale Ergebnisse dieser Arbeit sind, dass es zwar keiner grundsätzlich ‚spezifischen‘ Interviewführung bei AfD-Politiker*innen bedarf, die Vorbereitung darauf allerdings weitaus umfangreicher sein muss. Politikjournalist*innen müssen sich in Bereichen des Rechtsextremismus, der Rhetorik der Rechten und rechtspopulistischem Framing weiterbilden und auf Anfeindungen und Verleumdung von Fakten von AfD-Politiker*innen vorbereitet sein. Außerdem wird aus der Untersuchung deutlich, dass es beispielsweise einen großen Unterschied macht, ob Politikjournalist*innen AfD-Interviews vor oder hinter der
Kamera führen. Die Untersuchungsteilnehmer sind sich darin einig, dass durch die exorbitante, mediale Beobachtung und die gegensätzlichen Erwartungshaltungen der Öffentlichkeit, Politikjournalist*innen unter einem erhöhten Druck bei Interviews mit AfD-Politiker*innen stehen. Dadurch wird einem Fernsehinterview mit AfD-Politiker*innen eine Art Sonderstatus zugeschrieben und es hebt sich somit auch immer von Fernsehinterviews mit Politiker*innen anderer Parteien ab.
Die vergleichende Fallstudie untersucht die Auswirkungen des Einsatzes von Videokonferenzsoftware (VKS) in einer kooperativen Lernumgebung in einem Masterseminar der Hochschule Hannover im Studiengang Unternehmensentwicklung. Es wurden 13 problemzentrierte Interviews mit Teilnehmenden eines Online- und eines Präsenzkurses geführt. Die gewonnenen Daten aus den Interviewaussagen wurden unter Anwendung des an der Hochschule eingesetzten Evaluationsfragebogens auf Plausibilität geprüft. Es wurden acht Probanden aus dem Onlinekurs und fünf Probanden aus dem vorherigen Präsenzkurs befragt. Die Interviews wurden über eine qualitative Inhaltsanalyse ausgewertet. Die zentralen
Ergebnisse waren, dass das Teleteaching zwar funktioniert, die Onlinestudierenden aber eine niedrigere Aufmerksamkeit, eine gehemmte aktive Beteiligung, eine geringere Interaktion zwischen den Studierenden und eine erschwerte Interaktion in den Gruppenarbeiten wahrnehmen. Als größte Nachteile wurden die fehlenden persönlichen Kontakte und die niedrige Aufmerksamkeit identifiziert. Als größter Vorteil erwies sich die erhöhte Flexibilität durch den ersparten Anfahrtsweg. Ein für Teleteaching zentraler Erfolgsfaktor ist, dass die Kameras auch bei den Teilnehmenden angeschaltet sein sollten, damit die Aufmerksamkeit und die aktive Beteiligung gefördert werden. Zwölf der Probanden stuften den VKS-Einsatz als sinnvolle Ergänzung für Seminare ein. Präsenzseminare sind aber keinesfalls durch Onlineseminare zu ersetzen.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
Ausgangslage: Vor dem Hintergrund der vielfältigen Möglichkeiten des Settings Hochschule, die gesundheitlichen Belange von derzeit 719.203 Beschäftigten und 2,9 Millionen Studierenden zu gestalten und auf diese einzuwirken, bauen immer mehr Hochschulen interne Strukturen zur Gestaltung einer gesundheitsförderlichen Lehr-/ Lernumgebung auf. Besonders die Gesundheit von Studierenden ist in den vergangenen Jahren stärker in den Fokus gerückt, sodass Projekte des Studentischen Gesundheitsmanagements, die die Vermittlung von Gesundheitsförderung an alle Studierende als Aufgabe für den zukünftigen beruflichen Wirkungsbereich beabsichtigen, zunehmend vorangetrieben werden. Bislang gibt es jedoch keine empirischen Untersuchungen, die die MultiplikatorInnenrolle von AbsolventInnen in beruflichen Handlungsfeldern bestätigen.
Ziel der Studie: Ziel der Studie war es herauszufinden, ob und zu welchem Anteil die hochschulisch erworbenen Kompetenzen zum BGM bzw. zur BGF in den beruflichen Handlungsfeldern Anwendung finden und ob sich die AbsolventInnen als MultiplikatorInnen eigeninitiativ an der Gestaltung eines gesundheitsförderlichen Settings beteiligen.
Methoden: Im Rahmen einer als Querschnittsstudie angelegten AbsolventInnen-Befragung zum beruflichen Verbleib beteiligten sich n = 125 AbsolventInnen aus Studiengängen für Pflege- und Gesundheitsberufe. Die Auswertung und Diskussion der Ergebnisse fokussierte sich auf den Befragungsteil zum Betrieblichen Gesundheitsmanagement.
Ergebnisse: Die AbsolventInnen setzen insbesondere verhaltens- und verhältnisbezogene Maßnahmen in ihrem Berufsalltag um und fühlen sich durch ihr Studium gut darauf vorbereitet, Aufgaben zur Ausgangsbestimmung, Maßnahmenentwicklung sowie Evaluationen und Wirksamkeitsnachweise in Bereichen des Betrieblichen Gesundheitsmanagements bzw. der Betrieblichen Gesundheitsförderung zu übernehmen. Der Transfer des gesundheitsförderlichen Wissens und Handelns im Sinne der MultiplikatorInnenrolle zeigt jedoch Handlungsbedarf.
Schlussfolgerungen: Es bedarf einer vertiefenden Reflexion und Stärkung des persönlichen Selbstverständnisses und der professionellen Identität der Gesundheits- und Pflegeberufe mit Blick auf die Betriebliche Gesundheitsförderung unter Einbezug der kontextspezifischen Rahmenbedingungen der Hochschulen und des Gesundheitswesens.
Das Bedürfnis Daten in Echtzeit zu analysieren und auf Ereignisse zu reagieren, ist innerhalb aller Branchen in den letzten Jahren stark gestiegen. Als die Analysetechnik für Echtzeitdatenströme hat sich das Complex Event Processing (CEP) durchgesetzt. Mithilfe von Regeln lassen sich kausale, temporale und räumliche Zusammenhänge von Ereignissen definieren und durch eine CEP-Engine evaluieren. Die Konstruktion von Regeln hat sich dabei als einschränkende Faktor von CEP herausgestellt. Greedy4Cep ist ein algorithmischer Ansatz zur automatisierten Erstellung von CEP-Regeln anhand eines historischen Datenstromes.
Fortgeschrittene Konzepte der logischen Programmierung - für Kinder einfach zugänglich via NLP
(2019)
In dieser Arbeit wurde an der über Google Dialogflow gesteuerten Entwicklungsumgebung für logische Programmierung "Speech and Logic IDE" (SLIDE) geforscht. Die Anwendung wurde von Dialogflow zu der Bibliothek Snips NLU überführt, damit ohne Internetanbindung gearbeitet werden kann.
Als Hauptteil der Arbeit wurden die logischen Konzepte Variablen, Rekursion und Listen in die Anwendung implementiert. Es wurde eine Benennungsvorschrift eingeführt, die die Anwendung von starren Strukturen löst und es durch rekursive Verarbeitung erlaubt, beliebig komplexe Strukturen zu modellieren. Die Anwendung wurde anschließend im Rahmen der Sekundarstufe I betrachtet. Die behandelten Fragen waren:
"Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Fakten und Regeln zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Variablen, Rekursion und Listen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen außerhalb der mathematischen Domäne zu vermitteln?"
Dazu wurden zwei Unterrichtsbeispiele konzipiert, die sich im Deutschunterricht mit Grammatik und Lyrik auseinandersetzen, zwei Themen des niedersächsischen Kerncurriculums aus der Sekundarstufe I. Bei der Unterrichtsgestaltung wurde besonderes Augenmerk auf die neu eingeführten Konzepte gesetzt. Das zweite Unterrichtsbeispiel wurde im Rahmen einer Zusammenarbeit mit dem Projekthaus Zukunft MINT der Hochschule Hannover zweimalig mit unterschiedlichen 10. Klassen (IGS und Gymnasium) durchgeführt. Die theoretischen Ergebnisse der Arbeit zeigen, dass alle Fragen mit "Ja" beantwortet werden können. In der neuen Version von SLIDE ist es möglich die neuen Konzepte zu modellieren und es ist möglich Unterrichtsbeispiele zu konzipieren, die dieses Wissen vermitteln und sich auf Inhalte des Kerncurriculums beziehen. Die Ergebnisse der Feldexperimente in Form von Fragebögen fallen weniger aussagekräftig aus, da sich die SuS bereits am Ende der Sekundarstufe I befanden und die konzipierten Inhalte somit eine Wiederholung darstellten. Weiter muss anerkannt werden, dass viele Faktoren bei der Befragung nicht berücksichtigt werden konnten. Deswegen können aus den praktischen Versuchen keine umfassenden Schlüsse gezogen werden, eine optimistische Betrachtung zeigt ein generelles Interesse der Anwendung seitens der SuS. Die Erfahrungen legen nahe die Unterrichtsinhalte auf mehrere Unterrichtseinheiten aufzuteilen, damit die Teilnehmer mit Vorwissen an die neuen Konzepte herantreten und sich auf sie konzentrieren können.
Die Masterarbeit analysiert in einer empirischen Experimentalstudie die Wirkung von CSR-Kommunikation auf Konsumenten in der Lebensmittelbranche. Dazu wurde eine quantitative Online-Befragung durchgeführt, in der mithilfe eines fiktiven Unternehmens untersucht wurde, inwiefern CSR-Kommunikation, die Glaubwürdigkeit der CSR-Kommunikation und die Reputation des Unternehmens das CSR-Image beeinflussen.
In der vorliegenden Masterarbeit geht es um die automatische Annotation von Bildern mithilfe der Kategoriesystematik der Wikipedia. Die Annotation soll anhand der Bildbeschriftungen und ihren Textreferenzen erfolgen. Hierbei wird für vorhandene Bilder eine passende Kategorie vorgeschlagen. Es handelt sich bei den Bildern um Abbildungen aus naturwissenschaftlichen Artikeln, die in Open Access Journals veröffentlicht wurden. Ziel der Arbeit ist es, ein konzeptionelles Verfahren zu erarbeiten, dieses anhand einer ausgewählten Anzahl von Bildern durchzuführen und zu evaluieren. Die Abbildungen sollen für weitere Forschungsarbeiten und für die Projekte der Wikimedia Foundation zur Verfügung stehen. Das Annotationsverfahren findet im Projekt NOA - Nachnutzung von Open Access Abbildungen Verwendung.