Refine
Year of publication
Document Type
- Master's Thesis (66) (remove)
Has Fulltext
- yes (66)
Is part of the Bibliography
- no (66)
Keywords
- E-Learning (4)
- Betriebliches Gesundheitsmanagement (3)
- Gesundheitsförderung (3)
- Machine Learning (3)
- Maschinelles Lernen (3)
- Spezialbibliothek (3)
- App <Programm> (2)
- Bibliothek (2)
- Clean Architecture (2)
- Corporate Social Responsibility (2)
Der Einzug der rechtspopulistischen und teilweise rechtsextremistischen Alternative für Deutschland in den Deutschen Bundestag, hat das politische Klima verändert und stellt auch den Journalismus vor neue Herausforderungen. Die vorliegende Arbeit untersucht, wie Politikjournalist*innen Fernsehinterviews mit AfD-Politiker*innen führen. Hierfür wurden leitfaden-basierte Experteninterviews mit neun Experten aus den Bereichen der politischen Interviewführung vor und hinter der Kamera sowie Seminaren zur Interviewführung mit Rechtspopulist*innen geführt.
Die Untersuchungsergebnisse werden mit Hilfe einer qualitativen Inhaltsanalyse in Anlehnung an Mayring ermittelt. Zentrale Ergebnisse dieser Arbeit sind, dass es zwar keiner grundsätzlich ‚spezifischen‘ Interviewführung bei AfD-Politiker*innen bedarf, die Vorbereitung darauf allerdings weitaus umfangreicher sein muss. Politikjournalist*innen müssen sich in Bereichen des Rechtsextremismus, der Rhetorik der Rechten und rechtspopulistischem Framing weiterbilden und auf Anfeindungen und Verleumdung von Fakten von AfD-Politiker*innen vorbereitet sein. Außerdem wird aus der Untersuchung deutlich, dass es beispielsweise einen großen Unterschied macht, ob Politikjournalist*innen AfD-Interviews vor oder hinter der
Kamera führen. Die Untersuchungsteilnehmer sind sich darin einig, dass durch die exorbitante, mediale Beobachtung und die gegensätzlichen Erwartungshaltungen der Öffentlichkeit, Politikjournalist*innen unter einem erhöhten Druck bei Interviews mit AfD-Politiker*innen stehen. Dadurch wird einem Fernsehinterview mit AfD-Politiker*innen eine Art Sonderstatus zugeschrieben und es hebt sich somit auch immer von Fernsehinterviews mit Politiker*innen anderer Parteien ab.
Die verpflichtende Nachhaltigkeitsberichterstattung ist auf dem Weg das Nachhaltigkeitsreporting von Unternehmen zu verändern. Eine wachsende Zahl an Unternehmen muss immer häufiger Informationen offenlegen, die sie vormals bewusst nicht publizierten. Einige Unternehmen könnten dies als ein Hindernis sehen, andere erkennen darin womöglich eine Chance für die Unternehmenskommunikation. Indem sie über gesetzlichen Mindestanforderungen hinaus publizieren und sich damit für eine umfassendere und transparentere Berichterstattung entscheiden, könnten Unternehmen von Profilierungsmöglichkeiten und Wettbewerbsvorteile profitieren. Das Ziel dieser Arbeit ist die Frage zu beantworten, welche Determinanten die freiwillige Offenlegung von Informationen, die über die gesetzlichen Mindestanforderungen der nichtfinanziellen Erklärung (NfE) hinausgehen, beeinflussen. Um die Forschungsfrage zu beantworten, wurde eine quantitative Inhaltsanalyse von 200 nach dem § 289b Handelsgesetzbuch (HGB) berichtspflichtigen Unternehmen durchgeführt. Hierzu wurden die nichtfinanziellen Erklärungen und weitere nachhaltigkeitsbezogene Informationen auf ihrer Unternehmenswebsite analysiert. Zudem wurde ein Offenlegungsscore konzipiert, um den Grad der zusätzlichen freiwilligen Offenlegung zu messen. Anschließend wurde untersucht, inwieweit Einflussfaktoren eine über die gesetzlichen Mindestanforderungen hinausgehende Offenlegung erklären können. Die Ergebnisse zeigen einen signifikanten Zusammenhang zwischen den Determinanten Unternehmensgröße, Berichtshistorie, Vorstandsgröße sowie dem Anteil ausländischer Vorstandsmitglieder und dem Offenlegungsgrad von freiwilligen zusätzlichen nichtfinanziellen Informationen. Hingegen konnte kein signifikanter Zusammenhang zwischen dem Offenlegungsgrad und den Determinanten Branchenzugehörigkeit, Kapitalmarktorientierung und Frauenanteil im Vorstand beobachtet werden.
Die vorliegende Arbeit gibt anhand statistischer Untersuchungen einen Einblick in die derzeitige Arbeitsmarktsituation für Spezialbibliothekare in Deutschland. Es wird untersucht, in welchem Umfang Spezialbibliotheken in deutschen Statistiken erfasst sind. Dabei werden auch Auswertungen hinsichtlich ihrer Bestandsgröße und Personalstellenzahl durchgeführt. Den Schwerpunkt der Arbeit bildet die Analyse von Stellenanzeigen, die Positionen in internen Informationseinrichtungen ausschreiben, im Hinblick auf verschiedene Aspekte. Diese statistischen Untersuchungen geben Aufschluss darüber, wie sich die Arbeitsmarktsituation für Beschäftigte in Spezialbibliotheken derzeit darstellt. Dabei werden einerseits quantitative Aussagen getroffen, die Rückschlüsse auf den Umfang des spezialbibliothekarischen Arbeitsmarktes zulassen. Andererseits erfolgt eine qualitative Analyse, indem die von Arbeitgebern gebotenen Beschäftigungsverhältnisse sowie die an zukünftige Stelleninhaber gestellten spezifischen Anforderungen hinsichtlich ihrer Qualifikation näher betrachtet werden.
Der demografische Wandel wird in den nächsten Jahren große Auswirkungen auf die Gesellschaft und auch Unternehmen haben. Die vorliegende Arbeit untersucht, wie Unternehmen davon betroffen sein werden und wie den negativen Auswirkungen mit Hilfe von Wissens- und Demografiemanagement begegnet werden kann. Zunächst wird die Prognose der Bevölkerungsentwicklung der Bundesrepublik Deutschland bis zum Jahr 2060 vorgestellt. Anschließend folgt eine Skizzierung der Herausforderungen, denen sich Unternehmen stellen müssen. Dieses sind die Alterung der Belegschaft, der voraussichtliche Fachkräftemangel und das massive Ausscheiden von Mitarbeitern in den nächsten zehn bis fünfzehn Jahren. Die Arbeit beschreibt, welche Bedeutung Kompetenzmanagement, lebenslanges Lernen und Wissensmanagement bei der Bewältigung dieser Herausforderungen haben. Eine Befragung einiger Unternehmen rundet die gewonnenen Erkenntnisse ab. Den Abschluss bilden Handlungsempfehlungen in Hinsicht auf die Unternehmenskultur, das Personal- und Wissensmanagements und die Arbeitsgestaltung.
Die vorliegende Arbeit bietet eine Einführung in die am weitesten verbreiteten Methoden der Usability Evaluation, die heuristische Evaluation und den Usability Test. Beide Methoden werden vorgestellt und anhand von vier Bibliothekskatalogen angewendet. Untersuchungsgegenstand sind die Bibliothekskataloge der Stadtbücherei Bamberg, der Stadtbücherei Würzburg, der Stadtbücherei Augsburg und der Stadtbücherei Osnabrück.
Eine wertorientierte Unternehmensführung hat in den letzten Jahren in den Unternehmen zunehmend an Bedeutung gewonnen. Wertorientierung stellt dabei ein Führungsverhalten dar, welches sich mit der Gestaltung und Realisierung von wertorientierten Zielen auf Managementebene beschäftigt. Heutzutage lebt Wertorientierung vom Einklang aus ökonomischen, ökologischen und gesellschaftlichen Gesichtspunkten. Die vorliegende Masterarbeit befasst sich mit der Geschäftsberichtsanalyse der DAX-30-Unternehmen hinsichtlich wertorientierter Steuerung. Dabei werden Unternehmen hinsichtlich ihres Bekenntnisses zur Wertorientierung, Veröffentlichung wertorientierter Kennzahlen und Höhe der Kapitalkostensätze untersucht.Hierbei kommt der Vergleichbarkeit und Transparenz eine entscheidende Rolle zu. Die Untersuchung ergibt ein hohes Bekenntnis zur Wertorientierung in nahezu allen betrachteten DAX-Unternehmen. Die Unternehmen führen viele Spitzenkennzahlen an, die vorwiegend auf dem Economic Value Added basieren. Zusätzlich werden eine Reihe weiterer, in der betrieblichen Praxis als wertorientierte Kennzahlen genutzte Messgrößen, herausgegeben. Eine Vergleichbarkeit untereinander gestaltet sich sehr schwierig, da Berechnung und Bezeichnung gleicher Kennzahlen sehr unterschiedlich sind. Daran wird sich ohne einheitlichen Standard in naher bis mittelfristiger Zukunft nichts ändern.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Die Angriffserkennung ist ein wesentlicher Bestandteil, Cyberangriffe zu verhindern und abzumildern. Dazu werden Daten aus verschiedenen Quellen gesammelt und auf Einbruchsspuren durchsucht. Die heutzutage produzierten Datenmengen sind ein wesentliches Problem für die Angriffserkennung. Besonders bei komplexen Cyberangriffen, die über einen längeren Zeitraum stattfinden, wächst die zu durchsuchende Datenmenge stark an und erschwert das Finden und Kombinieren der einzelnen Angriffsschritte.
Eine mögliche Lösung, um dem Problem entgegenzuwirken, ist die Reduktion der Datenmenge. Die Datenreduktion versucht, Daten herauszufiltern, die aus Sicht der Angriffserkennung irrelevant sind. Diese Ansätze werden unter dem Begriff Reduktionstechniken zusammengefasst. In dieser Arbeit werden Reduktionstechniken aus der Wissenschaft untersucht und auf Benchmark Datensätzen angewendet, um ihre Nutzbarkeit zu evaluieren. Dabei wird der Frage nachgegangen, ob die Reduktionstechniken in der Lage sind, irrelevante Daten ausfindig zu machen und zu reduzieren, ohne dass eine Beeinträchtigung der Angriffserkennung stattfindet. Die Evaluation der Angriffserkennung erfolgt durch ThreaTrace, welches eine Graph Neural Network basierte Methode ist.
Die Evaluierung zeigt, dass mehrere Reduktionstechniken die Datenmenge wesentlich reduzieren können, ohne die Angriffserkennung zu beeinträchtigen. Bei drei Techniken führt der Einsatz zu keinen nennenswerten Veränderungen der Erkennungsraten. Dabei wurden Reduktionsraten von bis zu 30 % erreicht. Bei der Anwendung einer Reduktionstechnik stieg die Erkennungsleistung sogar um 8 %. Lediglich bei zwei Techniken führt der Einsatz zum drastischen Absinken der Erkennungsrate.
Insgesamt zeigt die Arbeit, dass eine Datenreduktion angewandt werden kann, ohne die Angriffserkennung zu beeinträchtigen. In besonderen Fällen kann eine Datenreduktion, die Erkennungsleistung sogar verbessern. Allerdings ist der erfolgreiche Einsatz der Reduktionstechniken abhängig vom verwendeten Datensatz und der verwendeten Methode der Angriffserkennung.
Unterrichtsmodell zur Entwicklung von Informationskompetenz bei Schülern der gymnasialen Oberstufe
(2011)
Die vorliegende Arbeit untersucht, welche Rolle Schulen bei der Entwicklung von Informationskompetenz spielen können. Ergebnis ist ein Unterrichtsmodell für Schüler der gymnasialen Oberstufe. Ausgehend von der Definition der Informationskompetenz werden zunächst die Angebote von Schulbibliotheken, Öffentlichen und Wissenschaftlichen Bibliotheken zur Vermittlung von Informationskompetenz an Schüler untersucht. Erfolgversprechende Konzepte, die diesen Schulungen zugrunde liegen, werden genauer betrachtet. Die dokumentierte Durchführung einer Rechercheeinführung für Schüler in Vorbereitung auf die Facharbeit liefert weitere, praxisbezogene Anhaltspunkte. Der zweite Teil der Arbeit umfasst das eigentliche Unterrichtsmodell zur Vermittlung von Informationskompetenz. Nach ausführlichen Vorüberlegungen zu materiellen und didaktischen Fragen folgen schließlich konkrete Vorschläge für einzelne Unterrichtseinheiten. Die Arbeitsblätter im Anhang der Arbeit geben Anregungen zur Gestaltung von Unterrichtsmaterialien.