Refine
Year of publication
Document Type
- Master's Thesis (66) (remove)
Has Fulltext
- yes (66)
Is part of the Bibliography
- no (66)
Keywords
- E-Learning (4)
- Betriebliches Gesundheitsmanagement (3)
- Gesundheitsförderung (3)
- Machine Learning (3)
- Maschinelles Lernen (3)
- Spezialbibliothek (3)
- App <Programm> (2)
- Bibliothek (2)
- Clean Architecture (2)
- Corporate Social Responsibility (2)
Der Einzug der rechtspopulistischen und teilweise rechtsextremistischen Alternative für Deutschland in den Deutschen Bundestag, hat das politische Klima verändert und stellt auch den Journalismus vor neue Herausforderungen. Die vorliegende Arbeit untersucht, wie Politikjournalist*innen Fernsehinterviews mit AfD-Politiker*innen führen. Hierfür wurden leitfaden-basierte Experteninterviews mit neun Experten aus den Bereichen der politischen Interviewführung vor und hinter der Kamera sowie Seminaren zur Interviewführung mit Rechtspopulist*innen geführt.
Die Untersuchungsergebnisse werden mit Hilfe einer qualitativen Inhaltsanalyse in Anlehnung an Mayring ermittelt. Zentrale Ergebnisse dieser Arbeit sind, dass es zwar keiner grundsätzlich ‚spezifischen‘ Interviewführung bei AfD-Politiker*innen bedarf, die Vorbereitung darauf allerdings weitaus umfangreicher sein muss. Politikjournalist*innen müssen sich in Bereichen des Rechtsextremismus, der Rhetorik der Rechten und rechtspopulistischem Framing weiterbilden und auf Anfeindungen und Verleumdung von Fakten von AfD-Politiker*innen vorbereitet sein. Außerdem wird aus der Untersuchung deutlich, dass es beispielsweise einen großen Unterschied macht, ob Politikjournalist*innen AfD-Interviews vor oder hinter der
Kamera führen. Die Untersuchungsteilnehmer sind sich darin einig, dass durch die exorbitante, mediale Beobachtung und die gegensätzlichen Erwartungshaltungen der Öffentlichkeit, Politikjournalist*innen unter einem erhöhten Druck bei Interviews mit AfD-Politiker*innen stehen. Dadurch wird einem Fernsehinterview mit AfD-Politiker*innen eine Art Sonderstatus zugeschrieben und es hebt sich somit auch immer von Fernsehinterviews mit Politiker*innen anderer Parteien ab.
Die verpflichtende Nachhaltigkeitsberichterstattung ist auf dem Weg das Nachhaltigkeitsreporting von Unternehmen zu verändern. Eine wachsende Zahl an Unternehmen muss immer häufiger Informationen offenlegen, die sie vormals bewusst nicht publizierten. Einige Unternehmen könnten dies als ein Hindernis sehen, andere erkennen darin womöglich eine Chance für die Unternehmenskommunikation. Indem sie über gesetzlichen Mindestanforderungen hinaus publizieren und sich damit für eine umfassendere und transparentere Berichterstattung entscheiden, könnten Unternehmen von Profilierungsmöglichkeiten und Wettbewerbsvorteile profitieren. Das Ziel dieser Arbeit ist die Frage zu beantworten, welche Determinanten die freiwillige Offenlegung von Informationen, die über die gesetzlichen Mindestanforderungen der nichtfinanziellen Erklärung (NfE) hinausgehen, beeinflussen. Um die Forschungsfrage zu beantworten, wurde eine quantitative Inhaltsanalyse von 200 nach dem § 289b Handelsgesetzbuch (HGB) berichtspflichtigen Unternehmen durchgeführt. Hierzu wurden die nichtfinanziellen Erklärungen und weitere nachhaltigkeitsbezogene Informationen auf ihrer Unternehmenswebsite analysiert. Zudem wurde ein Offenlegungsscore konzipiert, um den Grad der zusätzlichen freiwilligen Offenlegung zu messen. Anschließend wurde untersucht, inwieweit Einflussfaktoren eine über die gesetzlichen Mindestanforderungen hinausgehende Offenlegung erklären können. Die Ergebnisse zeigen einen signifikanten Zusammenhang zwischen den Determinanten Unternehmensgröße, Berichtshistorie, Vorstandsgröße sowie dem Anteil ausländischer Vorstandsmitglieder und dem Offenlegungsgrad von freiwilligen zusätzlichen nichtfinanziellen Informationen. Hingegen konnte kein signifikanter Zusammenhang zwischen dem Offenlegungsgrad und den Determinanten Branchenzugehörigkeit, Kapitalmarktorientierung und Frauenanteil im Vorstand beobachtet werden.
Die vorliegende Arbeit gibt anhand statistischer Untersuchungen einen Einblick in die derzeitige Arbeitsmarktsituation für Spezialbibliothekare in Deutschland. Es wird untersucht, in welchem Umfang Spezialbibliotheken in deutschen Statistiken erfasst sind. Dabei werden auch Auswertungen hinsichtlich ihrer Bestandsgröße und Personalstellenzahl durchgeführt. Den Schwerpunkt der Arbeit bildet die Analyse von Stellenanzeigen, die Positionen in internen Informationseinrichtungen ausschreiben, im Hinblick auf verschiedene Aspekte. Diese statistischen Untersuchungen geben Aufschluss darüber, wie sich die Arbeitsmarktsituation für Beschäftigte in Spezialbibliotheken derzeit darstellt. Dabei werden einerseits quantitative Aussagen getroffen, die Rückschlüsse auf den Umfang des spezialbibliothekarischen Arbeitsmarktes zulassen. Andererseits erfolgt eine qualitative Analyse, indem die von Arbeitgebern gebotenen Beschäftigungsverhältnisse sowie die an zukünftige Stelleninhaber gestellten spezifischen Anforderungen hinsichtlich ihrer Qualifikation näher betrachtet werden.
Der demografische Wandel wird in den nächsten Jahren große Auswirkungen auf die Gesellschaft und auch Unternehmen haben. Die vorliegende Arbeit untersucht, wie Unternehmen davon betroffen sein werden und wie den negativen Auswirkungen mit Hilfe von Wissens- und Demografiemanagement begegnet werden kann. Zunächst wird die Prognose der Bevölkerungsentwicklung der Bundesrepublik Deutschland bis zum Jahr 2060 vorgestellt. Anschließend folgt eine Skizzierung der Herausforderungen, denen sich Unternehmen stellen müssen. Dieses sind die Alterung der Belegschaft, der voraussichtliche Fachkräftemangel und das massive Ausscheiden von Mitarbeitern in den nächsten zehn bis fünfzehn Jahren. Die Arbeit beschreibt, welche Bedeutung Kompetenzmanagement, lebenslanges Lernen und Wissensmanagement bei der Bewältigung dieser Herausforderungen haben. Eine Befragung einiger Unternehmen rundet die gewonnenen Erkenntnisse ab. Den Abschluss bilden Handlungsempfehlungen in Hinsicht auf die Unternehmenskultur, das Personal- und Wissensmanagements und die Arbeitsgestaltung.
Die vorliegende Arbeit bietet eine Einführung in die am weitesten verbreiteten Methoden der Usability Evaluation, die heuristische Evaluation und den Usability Test. Beide Methoden werden vorgestellt und anhand von vier Bibliothekskatalogen angewendet. Untersuchungsgegenstand sind die Bibliothekskataloge der Stadtbücherei Bamberg, der Stadtbücherei Würzburg, der Stadtbücherei Augsburg und der Stadtbücherei Osnabrück.
Eine wertorientierte Unternehmensführung hat in den letzten Jahren in den Unternehmen zunehmend an Bedeutung gewonnen. Wertorientierung stellt dabei ein Führungsverhalten dar, welches sich mit der Gestaltung und Realisierung von wertorientierten Zielen auf Managementebene beschäftigt. Heutzutage lebt Wertorientierung vom Einklang aus ökonomischen, ökologischen und gesellschaftlichen Gesichtspunkten. Die vorliegende Masterarbeit befasst sich mit der Geschäftsberichtsanalyse der DAX-30-Unternehmen hinsichtlich wertorientierter Steuerung. Dabei werden Unternehmen hinsichtlich ihres Bekenntnisses zur Wertorientierung, Veröffentlichung wertorientierter Kennzahlen und Höhe der Kapitalkostensätze untersucht.Hierbei kommt der Vergleichbarkeit und Transparenz eine entscheidende Rolle zu. Die Untersuchung ergibt ein hohes Bekenntnis zur Wertorientierung in nahezu allen betrachteten DAX-Unternehmen. Die Unternehmen führen viele Spitzenkennzahlen an, die vorwiegend auf dem Economic Value Added basieren. Zusätzlich werden eine Reihe weiterer, in der betrieblichen Praxis als wertorientierte Kennzahlen genutzte Messgrößen, herausgegeben. Eine Vergleichbarkeit untereinander gestaltet sich sehr schwierig, da Berechnung und Bezeichnung gleicher Kennzahlen sehr unterschiedlich sind. Daran wird sich ohne einheitlichen Standard in naher bis mittelfristiger Zukunft nichts ändern.
Insbesondere aufgrund der Zugehörigkeit zum sehr aktuellen und viel betrachteten Thema Machine Learning ist die genetische Programmierung mit ihren vielseitigen Anwendungsmöglichkeiten ein sehr interessantes Gebiet. Wie in allen Forschungsschwerpunkten gibt es auch hier viele Ansätze die standardmäßige Vorgehensweise weiter zu verbessern – einer dieser Ansätze ist die Verwendung von Subroutinen. Diese könnten in diesem Kontext auch als Methoden, Funktionen oder ähnliches bezeichnet werden und bedeuten, dass vom Algorithmus neben dem eigentlichen Programm auch wiederverwendbare Folgen von Anweisungen entwickelt werden, die über einen Bezeichner an beliebigen Stellen verwendet werden können. Hierfür gibt es bereits diverse Konzepte, die in Tests sehr gute Ergebnisse erzielt haben und eine Verbesserung gegenüber der standardmäßigen genetischen Programmierung ohne Subroutinen erreichen konnten. Diese Tests fanden allerdings immer in sehr spezialisierten Testumgebungen statt. Besonders interessant sind allerdings solche Systeme zur genetischen Programmierung, die (theoretisch) beliebige Probleme lösen kann, da sie für eine Vielzahl von Problemstellungen verwendet werden können.
Das Ziel dieser Arbeit ist es, zu untersuchen, ob und inwiefern die Verwendung von Subroutinen auch in einem solchen allgemeinen System zur genetischen Programmierung, das theoretisch dazu in der Lage ist, beliebige Probleme zu lösen, möglich und sinnvoll ist.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Die Angriffserkennung ist ein wesentlicher Bestandteil, Cyberangriffe zu verhindern und abzumildern. Dazu werden Daten aus verschiedenen Quellen gesammelt und auf Einbruchsspuren durchsucht. Die heutzutage produzierten Datenmengen sind ein wesentliches Problem für die Angriffserkennung. Besonders bei komplexen Cyberangriffen, die über einen längeren Zeitraum stattfinden, wächst die zu durchsuchende Datenmenge stark an und erschwert das Finden und Kombinieren der einzelnen Angriffsschritte.
Eine mögliche Lösung, um dem Problem entgegenzuwirken, ist die Reduktion der Datenmenge. Die Datenreduktion versucht, Daten herauszufiltern, die aus Sicht der Angriffserkennung irrelevant sind. Diese Ansätze werden unter dem Begriff Reduktionstechniken zusammengefasst. In dieser Arbeit werden Reduktionstechniken aus der Wissenschaft untersucht und auf Benchmark Datensätzen angewendet, um ihre Nutzbarkeit zu evaluieren. Dabei wird der Frage nachgegangen, ob die Reduktionstechniken in der Lage sind, irrelevante Daten ausfindig zu machen und zu reduzieren, ohne dass eine Beeinträchtigung der Angriffserkennung stattfindet. Die Evaluation der Angriffserkennung erfolgt durch ThreaTrace, welches eine Graph Neural Network basierte Methode ist.
Die Evaluierung zeigt, dass mehrere Reduktionstechniken die Datenmenge wesentlich reduzieren können, ohne die Angriffserkennung zu beeinträchtigen. Bei drei Techniken führt der Einsatz zu keinen nennenswerten Veränderungen der Erkennungsraten. Dabei wurden Reduktionsraten von bis zu 30 % erreicht. Bei der Anwendung einer Reduktionstechnik stieg die Erkennungsleistung sogar um 8 %. Lediglich bei zwei Techniken führt der Einsatz zum drastischen Absinken der Erkennungsrate.
Insgesamt zeigt die Arbeit, dass eine Datenreduktion angewandt werden kann, ohne die Angriffserkennung zu beeinträchtigen. In besonderen Fällen kann eine Datenreduktion, die Erkennungsleistung sogar verbessern. Allerdings ist der erfolgreiche Einsatz der Reduktionstechniken abhängig vom verwendeten Datensatz und der verwendeten Methode der Angriffserkennung.
Unterrichtsmodell zur Entwicklung von Informationskompetenz bei Schülern der gymnasialen Oberstufe
(2011)
Die vorliegende Arbeit untersucht, welche Rolle Schulen bei der Entwicklung von Informationskompetenz spielen können. Ergebnis ist ein Unterrichtsmodell für Schüler der gymnasialen Oberstufe. Ausgehend von der Definition der Informationskompetenz werden zunächst die Angebote von Schulbibliotheken, Öffentlichen und Wissenschaftlichen Bibliotheken zur Vermittlung von Informationskompetenz an Schüler untersucht. Erfolgversprechende Konzepte, die diesen Schulungen zugrunde liegen, werden genauer betrachtet. Die dokumentierte Durchführung einer Rechercheeinführung für Schüler in Vorbereitung auf die Facharbeit liefert weitere, praxisbezogene Anhaltspunkte. Der zweite Teil der Arbeit umfasst das eigentliche Unterrichtsmodell zur Vermittlung von Informationskompetenz. Nach ausführlichen Vorüberlegungen zu materiellen und didaktischen Fragen folgen schließlich konkrete Vorschläge für einzelne Unterrichtseinheiten. Die Arbeitsblätter im Anhang der Arbeit geben Anregungen zur Gestaltung von Unterrichtsmaterialien.
Seit einigen Jahren ist die Diskussion über das Lernfeldkonzept in der Pflegedidaktik angekommen und es gibt mannigfaltige Veröffentlichungen von diversen Autorinnen und Autoren. Daneben entwickeln immer mehr Bundesländer verbindliche lernfeldorientierte Rahmenlehrpläne für Gesundheits- und Krankenpflegeschulen. Andernorts sind Schulteams vom Lernfeldkonzept überzeugt und denken an eine eigenständige curriculare Neuentwicklung im Sinne des Lernfeldkonzepts. Unter dieser Ausgangslage erscheint es hilfreich, einen Blick auf publizierte Umsetzungserfahrungen zu werfen. Diese können sowohl als Inspiration als auch als "Problemdetektor" dienlich sein. Grundlage hierfür ist eine Literaturanalyse, die auf Publikationen aus dem Bereich der Berufs- und Wirtschaftspädagogik sowie der Pflegedidaktik der letzten zehn Jahre zum Lernfeldkonzept beruht. Daraus ergeben sich folgende zu bearbeitende Fragestellungen: 1.Wie wird das Lernfeldkonzept in der berufs- und wirtschaftspädagogischen Fachwelt bewertet?<br /> 2.Welche Erfahrungen sind bezüglich der Einführung des Lernfeldkonzepts im Bereich der Berufs- und Wirtschaftpädagogik gemacht worden?<br /> 3.Können die Erfahrungen nutzbringend auf die Pflegeausbildung übertragen werden?<br /> 4.Gibt es schon Umsetzungserfahrungen innerhalb der Pflegdidaktik?<br /> 5.Wie können die verschiedenen Erfahrungen sinnvoll miteinander verknüpft werden?<br /> Als Ergebnis dieser Fragestellungen wird dann ein Leitfaden zur Umsetzung des Lernfeldkonzepts in der Gesundheits- und Krankenpflegeausbildung entwickelt.
In der vorliegenden Masterarbeit geht es um die automatische Annotation von Bildern mithilfe der Kategoriesystematik der Wikipedia. Die Annotation soll anhand der Bildbeschriftungen und ihren Textreferenzen erfolgen. Hierbei wird für vorhandene Bilder eine passende Kategorie vorgeschlagen. Es handelt sich bei den Bildern um Abbildungen aus naturwissenschaftlichen Artikeln, die in Open Access Journals veröffentlicht wurden. Ziel der Arbeit ist es, ein konzeptionelles Verfahren zu erarbeiten, dieses anhand einer ausgewählten Anzahl von Bildern durchzuführen und zu evaluieren. Die Abbildungen sollen für weitere Forschungsarbeiten und für die Projekte der Wikimedia Foundation zur Verfügung stehen. Das Annotationsverfahren findet im Projekt NOA - Nachnutzung von Open Access Abbildungen Verwendung.
Die vergleichende Fallstudie untersucht die Auswirkungen des Einsatzes von Videokonferenzsoftware (VKS) in einer kooperativen Lernumgebung in einem Masterseminar der Hochschule Hannover im Studiengang Unternehmensentwicklung. Es wurden 13 problemzentrierte Interviews mit Teilnehmenden eines Online- und eines Präsenzkurses geführt. Die gewonnenen Daten aus den Interviewaussagen wurden unter Anwendung des an der Hochschule eingesetzten Evaluationsfragebogens auf Plausibilität geprüft. Es wurden acht Probanden aus dem Onlinekurs und fünf Probanden aus dem vorherigen Präsenzkurs befragt. Die Interviews wurden über eine qualitative Inhaltsanalyse ausgewertet. Die zentralen
Ergebnisse waren, dass das Teleteaching zwar funktioniert, die Onlinestudierenden aber eine niedrigere Aufmerksamkeit, eine gehemmte aktive Beteiligung, eine geringere Interaktion zwischen den Studierenden und eine erschwerte Interaktion in den Gruppenarbeiten wahrnehmen. Als größte Nachteile wurden die fehlenden persönlichen Kontakte und die niedrige Aufmerksamkeit identifiziert. Als größter Vorteil erwies sich die erhöhte Flexibilität durch den ersparten Anfahrtsweg. Ein für Teleteaching zentraler Erfolgsfaktor ist, dass die Kameras auch bei den Teilnehmenden angeschaltet sein sollten, damit die Aufmerksamkeit und die aktive Beteiligung gefördert werden. Zwölf der Probanden stuften den VKS-Einsatz als sinnvolle Ergänzung für Seminare ein. Präsenzseminare sind aber keinesfalls durch Onlineseminare zu ersetzen.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.
Die vorliegende Diplomarbeit beschäftigt sich mit dem Qualitätsmanagementverfahren der Arbeitsgemeinschaft der Kunst- und Museumsbibliotheken (AKMB). Dargestellt werden Hintergrund, Entwicklung und Praxis des Qualitätsmanagementverfahrens. Im Fokus stehen dabei die 83 Standards der AKMB. Die Arbeit verfolgt einen sehr praxisorientierten Ansatz, beleuchtet die Standards aus mehreren Perspektiven und liefert zahlreiche Empfehlungen, Erläuterungen, Checklisten und Hintergrundinformationen. Wer sich mit Qualitätsmanagement in Bibliotheken beschäftigen, auf ein Audit vorbereiten oder einen Einblick in die Entwicklung eines QM-Verfahrens erhalten möchte, findet in der vorliegenden Arbeit entsprechende Informationen.
Unternehmen befinden sich in einem Beziehungsgeflecht mit verschiedenen Stakeholdern, die differierende Ansprüche stellen und den Erfolg des Unternehmens stark beeinflussen. Unter diesen Gegebenheiten ist es von zentraler Bedeutung, gute Beziehungen zu den unterschiedlichen Gruppen und somit ein hohes Beziehungskapital aufzubauen. Eine Schlüsselfunktion kommt dabei der Kommunikation zu, da sie das Bindeglied zwischen Unternehmen und Stakeholdern darstellt.
Um mithilfe strategischen Kommunikationsmanagements die Beziehungen zu Stakeholdern zu stärken, müssen Unternehmen wissen, worauf überhaupt gute Beziehungen beruhen. Im Zentrum der Arbeit steht daher das soziale Kommunikations-Controlling von Unternehmen als Analyse- und Steuerungsfunktion und die Frage, aus welchen Faktoren sich das Beziehungskapital eines Unternehmens zusammensetzt. Im Gegensatz zum ökonomischen Kommunikations-Controlling fokussiert der soziale Ansatz nicht die ökonomische Ausrichtung der Kommunikation, sondern die Unternehmen-Stakeholder-Beziehungen.
Auf Basis des Beziehungskapital-Ansatzes von Szyszka und zentralen Reputationskonzepten wurden die Dimensionen und Indikatoren von Beziehungskapital hergeleitet. Eine quantitative Befragung einer breiten Öffentlichkeit diente anschließend der Prüfung des Entwurfs und der Identifikation möglicher weiterer Aspekte. Das Ergebnis stellt ein Modell dar, demnach Beziehungskapital aus folgenden acht Dimensionen besteht: die Produkte und Services, der unternehmerische Erfolg sowie die Kompetenz des Unternehmens als funktionale Komponenten, die soziale Verantwortung, die ökologische Verantwortung und die Verantwortung gegenüber den Mitarbeitern als soziale Komponenten sowie die Sympathie und Attraktivität des Unternehmens als affektive Komponenten. Die Dimensionen werden durch insgesamt 20 Indikatoren repräsentiert.
Das Modell lässt sich in den theoretischen Kontext des sozialen Kommunikations-Controllings einordnen und kann als Erweiterung des Beziehungskapital-Ansatzes hinzugezogen werden. In der Praxis liefert die Arbeit erste Hilfestellungen, um das Beziehungskapital eines Unternehmens bestimmen und darauf aufbauend ein strategisches Kommunikationsmanagement etablieren zu können.
Der Befund zum demografischen Wandel ist eindeutig: Die Bevölkerung in Deutschland altert und schrumpft. Dieser Prozess wird sich zunehmend auf den Arbeitsmarkt auswirken. Altersstrukturen in Unternehmen verschieben sich. Mit den absehbaren Verrentungswellen droht ein Verlust an Erfahrungswissen und Know-how, wenn Unternehmen diesem nicht mit Maßnahmen zum Wissenstransfer entgegentreten. Parallel verändert sich das Verhältnis von Alter, Ruhestand und Arbeit. Menschen im Rentenalter leben heute länger und gesünder, sie sind leistungsfähig und ihre Motivation zur nachberuflichen Aktivität steigt. Insbesondere ehemalige Fach- und Führungskräfte beteiligen sich trotz eines durch den Rentenbezug gesicherten Lebensunterhalts zunehmend als sogenannte Senior-Experten am Arbeitsmarkt oder engagieren sich freiwillig.
Vor dem Hintergrund dieser Entwicklung geht diese Masterarbeit der Frage nach, welche Bedeutung der Wissenstransfer beim Einsatz von Senior-Experten hat und untersucht Faktoren, die ihn beeinflussen. Die Arbeit stützt sich methodisch auf eine umfassende Literaturanalyse, einen typenbildenden Vergleich von Senior-Experten-Organisationen sowie auf eine qualitative Erhebung in Form von Leitfadeninterviews. Der theoretische Teil befasst sich mit drei Themenkomplexen: Alter und Arbeit, Wissensmanagement sowie Expertiseforschung. Im Mittelpunkt der Arbeit stehen relevante individuelle Einflussfaktoren, Begriffe, Institutionen und Methoden. Der empirische Teil steuert Erfahrungswerte aus der organisationalen Praxis bei.
Die Auswertung ergibt, dass Senior-Experten aufgrund ihrer Leistungsfähigkeit und Leistungsbereitschaft prädestiniert dafür sind, ihre Ressourcen zu nutzen, um ihr in vielen Berufsjahren erworbenes Wissen an die nächste Generation weiterzugeben. Der Wissenstransfer stellt das vorrangige Ziel beim Einsatz von Senior-Experten dar und nimmt folglich einen hohen Stellenwert ein. Das Bewusstsein für Faktoren, die den Wissenstransfer beeinflussen, kann hingegen noch geschärft werden. Wissenstransfermethoden mit einer personalisierten Herangehensweise können den Austausch von komplexem, schwer artikulierbarem Erfahrungs- und Expertenwissen fördern.
Die Arbeit thematisiert nach Erläuterungen zu den Begriffen Rechtsinformation und E-Government die heterogene Informationslandschaft der frei zugänglichen Rechtsinformation in Deutschland. Normgeber, Gerichte und Parlamente auf Ebene des Bundes und der Länder gestalten auf vielfache Weise die Internetpräsentation der Gesetze, Entscheidungen und parlamentarischen Materialien. Das Gegenmodell zu dieser auf viele Internetadressen und Webseiten verteilten Rechtsinformation stellt das österreichische Rechtsinformationssystem des Bundes (RIS) dar, das als nationale E-Government-Anwendung über eine einzige Oberfläche den Zugriff auf die Gesetze, Entscheidungen und parlamentarischen Materialien ermöglicht. Das RIS als Blaupause und unter Beachtung der Anforderungen an E-Government-Anwendungen umreißt die Arbeit Rahmenbedingungen und Ausgestaltungsmöglichkeiten für einen Portalentwurf, der als Single Point of Entry für die staatliche Rechtsinformation Deutschlands konzeptioniert ist.
Hintergrund: Im Zeitalter der Digitalisierung kann der Einsatz von mobilen Apps helfen, Prozesse zu digitalisieren und bietet neue Möglichkeiten der Prozessgestaltung. Auch im Rahmen der Gesundheitsversorgung werden Apps mit dem Ziel eingesetzt Prozesse effizienter zu gestalten. Die Versorgung akuter Schlaganfälle ist ein besonders zeitkritischer Prozess, indem sich jede Minute, um die der Behandlungsprozess verkürzt wird, positiv auf das Behandlungsergebnis auswirken kann. Durch die Aktivitäten innerhalb des Versorgungsprozesses, die durch unterschiedliche Berufsgruppen verschiedener Fachabteilungen erfolgen, kann insbesondere die Kommunikation und Dokumentation während der Versorgung Herausforderungen mit sich bringen. Daher ist es wichtig den Gesamtprozess der Schlaganfallversorgung regelmäßig zu evaluieren um Optimierungspotenziale im Versorgungsprozess aufzudecken und zu nutzen.
Methoden: In dieser Masterarbeit wurde der Schlaganfallversorgungsprozess in der Medizinischen Hochschule Hannover (MHH) analysiert und ein Migrationsplan für die Implementierung der App Join der Firma Allm Inc. entwickelt, um dadurch eine Prozesstransformation zu erreichen, welche es ermöglichen soll Zeit in der Schlaganfallakutversorgung einzusparen. Übergeordnet soll die Prozesstransformation zu einem Zeitgewinn führen und dadurch die Versorgungsqualität gesteigert werden. Die App Join ermöglicht unter anderem die Kommunikation über einen Messenger-Dienst in Gruppenchats, wodurch ein Informationsaustausch mit allen am Behandlungsprozess Beteiligten gleichzeitig möglich ist. Zusätzlich können in Join qualitätsrelevante Merkmale der Schlaganfallversorgung elektronisch erfasst werden.
Ergebnisse: Mit der Einführung von Join konnte eine Prozesstransformation der Schlaganfallakutversorgung in der MHH geschaffen werden. Mit dem Instrument der Kommunikation in Gruppen-Chats in Join wurde eine Kommunikationsplattform geschaffen, die es ermöglicht, dass alle am Behandlungsprozess Beteiligten zu jedem Zeitpunkt gleichermaßen informiert werden können. Zusätzlich konnte die papierbasierte neurologisch-neuroradiologische Dokumentation in der MHH mit dem Join-Einsatz vollständig digitalisiert werden, sodass eine unmittelbare elektronische Verfügbarkeit der Daten für alle am Behandlungsprozess Beteiligten gegeben ist. Über die Entwicklung von Schnittstellen zwischen dem Krankenhausinformationssystem (KIS) der MHH und Join konnte Funktions- und Datenintegration zwischen den Systemen erreicht werden und dadurch der Join-Einsatz MHH-individuell optimiert werden.
Schlussfolgerung: Die Einführung der Join-App stellt eine mobile Kommunikations- und Dokumentationsunterstützung während der Krankenversorgung dar, welche im Pilotprojekt „Die Innere Uhr“ exemplarisch für den Einsatz weiterer unterstützender Apps im Klinikalltag angesehen werden kann.
Automatische Spracherkennungssysteme (Automatic Speech Recognition - ASR) können derzeit nicht alle Wörter korrekt erkennen und daher noch keine guten Transkriptionen erstellen. Die Qualität der automatischen Spracherkennung wird von vielen Faktoren beeinflusst. Einer davon ist das Vokabular. Je vielfältiger und komplexer die Themen, desto größer die Anzahl der fachspezifischen Wörter ist, die erkannt werden müssen, desto schwieriger ist die Erkennungsaufgabe und desto schlechter sind die Transkriptionsergebnisse. Die Sprachmodelle von automatischen Spracherkennungssystemen müssen durch Training angepasst werden, damit sie auch bei Gebieten mit speziellem Vokabular gute Resultate erzielen können. In dieser Arbeit wird untersucht, ob der prozentuale Anteil der korrekt erkannten Wörter durch Training des Sprachmodells der automatischen Spracherkennung mit fachspezifischer Terminologie wirksam gesteigert werden kann. Anhand von Ergebnissen der durchgeführten Experimente wird dargelegt, welche Anzahl und Art von Daten benötigt wird, um den Prozentsatz der falsch erkannten Wörter zu senken. Die Ergebnisse der Domänen-Adaption bilden die Basis für den anschließenden Vergleich des fachspezifischen Vokabulars in Vorlesungsvideos und wissenschaftlichen Publikationen, um die Unterschiede hinsichtlich der verwendeten Fachsprache aufzuzeigen. Grundlage und Ausgangspunkt für die gesamte Untersuchung stellt die Erkennung der Fachterminologie und ihre Unterscheidung von der Allgemeinsprache dar.