Refine
Year of publication
- 2024 (8)
- 2023 (51)
- 2022 (63)
- 2021 (62)
- 2020 (35)
- 2019 (39)
- 2018 (40)
- 2017 (32)
- 2016 (34)
- 2015 (18)
- 2014 (28)
- 2013 (26)
- 2012 (25)
- 2011 (36)
- 2010 (36)
- 2009 (30)
- 2008 (25)
- 2007 (15)
- 2006 (10)
- 2005 (11)
- 2004 (6)
- 2003 (14)
- 2002 (10)
- 2001 (7)
- 2000 (7)
- 1999 (5)
- 1998 (4)
- 1997 (2)
- 1996 (3)
- 1995 (4)
- 1994 (12)
- 1993 (19)
- 1992 (15)
- 1991 (12)
- 1990 (20)
- 1989 (13)
- 1988 (12)
- 1987 (9)
- 1986 (12)
- 1985 (10)
- 1984 (5)
- 1983 (3)
- 1981 (5)
- 1980 (5)
- 1979 (3)
- 1978 (1)
- 1977 (3)
- 1976 (5)
- 1975 (8)
Document Type
- Article (225)
- Bachelor Thesis (140)
- Report (96)
- Working Paper (81)
- Book (71)
- Master's Thesis (62)
- Conference Proceeding (42)
- Part of a Book (37)
- Periodical Part (29)
- Study Thesis (25)
- Course Material (18)
- Preprint (11)
- Doctoral Thesis (10)
- Review (7)
- Lecture (4)
- Other (3)
Language
- German (861) (remove)
Has Fulltext
- yes (861)
Is part of the Bibliography
- no (861)
Keywords
- Bibliothek (40)
- Milchwirtschaft (35)
- Digitalisierung (33)
- Molkerei (27)
- Ausbildung (22)
- Logistik (20)
- E-Learning (19)
- Informationsmanagement (19)
- Sozialarbeit (19)
- Herbarium (16)
Die nachhaltige Verschiebung der Wachstumsmärkte in Richtung Emerging Markets (und hier insbesondere in die BRIC-Staaten) infolge der Wirtschaftskrise 2008/2009 hat die bereits weit reichend konsolidierte Nutzfahrzeugindustrie der Triadenmärkte in Nordamerika, Europa und Japan vor eine Vielzahl von Herausforderungen gestellt. Strategische Ziele wie die Festigung und Steigerung von Absatzvolumina sowie eine bessere Ausbalancierung von zyklischen Marktentwicklungen, die die Ertragssicherung und eine weitestgehend kontinuierliche Auslastung existenter Kapazitäten sicherstellen soll, sind in Zukunft ohne eine Marktbearbeitung in den ex-Triade Wachstumsmärkten kaum noch erreichbar. Dies verlangt eine Auseinandersetzung der betroffenen Unternehmen mit dem veränderten unternehmerischen Umfeld. Es gilt neue, bisher größtenteils unbekannte Märkte zu erobern und sich dabei neuen – teilweise ebenfalls wenig bekannten - Wettbewerbern und deren teilweise durchaus unkonventionellen Strategien zu stellen. Die Triade-Unternehmen sehen sich dabei Informationsdefiziten und einer zunehmenden Gesamtkomplexität ausgesetzt, die zu für sie zu nachteiligen und ungünstigen nformationsasymmetrien führen können. Die Auswirkungen, dieser Situation unangepasst gegenüberzutreten wären deutlich unsicherheits- und risikobehaftetere Marktbearbeitungsstrategien bzw. im Extremfall die Absenz von Internationalisierungsaktivitäten in den betroffenen Unternehmen. Die Competitive Intelligence als Instrument zur unternehmerischen Umfeldanalyse kann unterstützen diese negativen Informationsasymmetrien zu beseitigen aber auch für das Unternehmen günstige Informationsasymmetrien in Form von Informationsvorsprüngen generieren, aus denen sich Wettbewerbsvorteile ableiten lassen. Dieser Kontext Competitive Intelligence zur Beseitigung von Informationsdefiziten bzw. Schaffung von bewussten, opportunistischen Informationsasymmetrien zur erfolgreichen Expansion durch Internationalisierungsstrategien in den Emerging Markets wird im Rahmen dieses Arbeitspapieres durch die Verbindung von wissenschaftstheoretischen und praktischen Implikationen näher beleuchtet. Die sich aus dem beschriebenen praktischen Anwendungsbeispiel Competitive intelligence für afrikanische Marktbearbeitung ergebenden Erkenntnisse der erfolgreichen Anwendung von Competitive Intelligence als Entscheidungshilfe für Internationalisierungsstrategien sind wie folgt angelegt: - Erweiterung der Status-quo, häufig Stammmarkt-zentristisch angelegten Betrachtungsweisen von Märkten und Wettbewerbern in Hinblick auf das reale Marktgeschehen oder Potentialmärkte - bias-freie Clusterung von Märkten bzw. Wettbewerbern, oder Verzicht auf den Versuch der Simplifizierung durch Clusterbildung - differenzierte Datenerhebungsverfahren wie lokale vs. zentrale / primäre vs. sekundäre Datenerhebung für inhomogene, unterentwickelte oder sich entwickelnde Märkte - Identifizierung und Hinzuziehung von Experten mit dem entscheidenden Wissensvorsprung für den zu bearbeitenden Informationsbedarf - Überprüfung der Informationen durch Datentriangulation
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Schriftliche Nachlässe werden in deutschen Bibliotheken in einer langen Tradition ge-sammelt und verwaltet. In der vorliegenden Bachelorarbeit werden die Besonderheit von schriftlichen Nachlässen und die Entwicklung der Nachlassbearbeitung erläutert. Zunächst werden zur Einführung in die Thematik Begriffsdefinitionen, die Bedeutung sowie die Entwicklungen in der Bearbeitung von Nachlässen dargelegt. An die Einführungen werden die Frage nach der Zuständigkeit zur Übernahme eines Nachlasses und der damit zusammenhängende Kompetenzstreitfall angeknüpft. Im Folgenden wird die Erwerbung thematisiert. Dazu werden die verschiedenen Erwerbungsarten vorgestellt und die möglichen rechtlichen Probleme in der Erwerbung aufgezeigt. Die Bearbeitung von Nachlässen wird anhand von Kassation, Ordnung, Erschließung und Maßnahmen zur Bestandserhaltung dargestellt. Die Thematik der schriftlichen Nachlässe wird mit Aspekten und Fragen der Nutzung abgeschlossen. Der theoretischen Abhandlung folgt die Dokumentation der Ordnung und Erschließung der Fotografien-Sammlung aus dem Nachlass von Robert Michel und Ella Bergmann-Michel, die mit der Vorstellung des Künstlerpaares und dessen Nachlass beginnt. Danach folgt die Erläuterung der praktischen Aufgabe im Hinblick auf Zielsetzung, Ausgangssituation, Vorbereitung und Durchführung. Abgeschlossen wird die Dokumentation mit Empfehlungen für die zukünftige Bearbeitung der Fotografien und des gesamten Nachlasses.
Die empfindliche Verteuerung des Rohöls im Laufe der letzten Jahre und die in ihrem Sog erfolgten Preissteigerungen auch für die anderen Energieträger haben Energie zu einem besonders kostbaren Wirtschaftsgut werden lassen. Es ist ganz deutlich geworden, dass Energie in allen Lebens- und Produktionsbereichen äußerst sparsam verwendet und optimal genutzt werden muss. Mittel- und langfristig gesehen sind daher gezielt Anstrengungen zu unternehmen, nicht einen Brennstoff durch einen anderen zu ersetzen, sondern - wo immer auch möglich - die natürlcihen Energiequellen zu nutzem.
Fenster versorgen die Innenräume mit Tageslicht, dienen der Lufterneuerung in den Räumen und schützen vor Umwelteinflüssen wie Kälte, Wärme, Lärm, Wind und Niederschlägen. Entsprechend weitgefächert ist das Spektrum deer planungsrelevanten Aspekte. Sowohl licht-, lüftungs-, wärme-, schall und wohntechnische als auch hygienische, psychologische und nicht zuletzt wirtschaftliche Gesichtspunkte sind bei edr täglichen Arbeit zu beachten.
Die Funktion eines Gebäudes, seine flächenmäßige Ausdehnung und seine Gliederung sowie seine Einbettung in die Umgebung bestimmen letztendlich die Dachkonstruktion. Der Planer steht hierbei vor der Aufgabe, unter Beachtung aller bauphysikalischen wie bautechnischen Gegebenheiten ein Optimum an gestalterischer Qualität bei Respektierung wirtschaftlicher und baupraktischer Belange zu realisieren, wobei zu beachten ist, dass gerade das Dach von den die Gebäudehülle bildenden Bauteilen der größten und unmittelbarsten Beanspruchung unterliegt.
Bei der Integration technischer Energiemanagementsysteme (tEnMS) in Automatisierungsanlagen fällt ein hoher Engineering-Aufwand an, besonders für die Steuerungsprogrammierung. Dieser Engineering-Aufwand ist für industrielle Anwender der Hauptgrund, integrierte tEnMS nicht einzusetzen. Im Rahmen des Forschungsprojektes „Integriertes Anlagenengineering zur Erhöhung der Energieeffizienz (IAE4)“ (Förderkennzeichen: ZN2948; Forschungsprofessur des Landes Niedersachsen/Volkswagenstiftung) wurde untersucht, wie sich dieser Engineering-Aufwand reduzieren lässt. Hierzu wurde ein Software-Werkzeug entwickelt, das die benötigten Steuerungsprogramme automatisch aus Engineering-Daten und Gerätebeschreibungsdateien generiert. Dieser Beitrag stellt die Ergebnisse des IAE4-Projektes vor.
Einfluss von Industrie 4.0 auf die Anwendbarkeit von Lastmanagement in der industriellen Produktion
(2018)
Technische Energiemanagementsysteme (kurz und im Folgenden tEnMS) in der produzierenden Industrie dienen heute meinst dem Messen, Speichern und Auswerten von Energieverbrauchsdaten. Allerdings besteht auch die Möglichkeit der Vorhersage und aktiven Einflussnahme auf die Energieaufnahme von Produktionsumgebungen durch das tEnMS. Derartige Funktionen werden als Prognose- und Lastmanagementfunktionen bezeichnet. Industrielle Produktionsumgebungen erfahren im Rahmen von Industrie 4.0 einen Wandel. Dieser Beitrag soll aufzeigen, wie tEnMS durch den beschriebenen Wandel beeinflusst werden und welche Chancen sich daraus für zukünftige tEnMS ergeben.
In dieser Studie wurden Unternehmen, die Produktionsanlagen betreiben oder betreuen, zu ihrem Sicherheitsaufwand bei der Abfrage von Security Advisories für Automatisierungskomponenten befragt. Die befragten Unternehmen (vorwiegend KMU) machten Angaben zum zeitlichen, technischen und personellen Aufwand für die Auswertung von Security Advisories im Produktionsumfeld. Es wurde festgestellt, dass in vielen Unternehmen Defizite in Bezug auf diese Fragestellung bestehen. Dieses resultiert im Wesentlichen aus Mangel an Zeit und Mangel an qualifiziertem Personal. Eine in der Studie vorgeschlagene automatisierte Abfrage von Asset Inventories und eine automatisierte Zuordnung von Security Advisories zu den Assets wird von den befragten Unternehmen durchgehend als sinnvoll erachtet.
Open Access zu Textpublikationen und Forschungsdaten: Positionen politischer Parteien in Deutschland
(2016)
Die Arbeit beginnt mit einem Blick auf die Entstehung der Open-Access-Bewegung und erklärt die zentralen Begriffe Open Access zu Textpublikationen und Forschungsdaten und stellt das Zweitveröffentlichungsrecht vor. Die Vorstellung der beschlossenen Open-Access-Strategien, zusammen mit der Untersuchung von Wahlprogrammen und Koalitionsverträgen vermittelt einen Gesamteindruck zum aktuellen Open-Access-Stand in den Ländern. Bereits seit zehn Jahren ist die Forderung nach Open Access, dem freien Zugang zu wissenschaftlichen Informationen, Bestandteil der Wahlprogramme politischer Parteien. Trotzdem beschlossen erst in den Jahren 2014 und 2015 die Länder Baden-Württemberg, Berlin und Schleswig-Holstein landesweite Konzepte zur Open-Access-Förderung. Im Sommer 2016 wird unter den politischen Parteien in Deutschland eine schriftliche Befragung durchgeführt. Ziel der Befragung ist die Ermittlung der Positionen der Parteien, um Rückschlüsse auf die weitere Open-Access-Entwicklung in Deutschland zu ziehen.
Der Aufsatz erläutert anschaulich, wie der Transport der elektrischen Energie vom Erzeuger zum Verbraucher im Detail erfolgt. Die Rechnung mit Hilfe grundlegender Beziehungen aus den Grundlagen der Elektrotechnik und dem Poynting-Vektor ermöglicht es, den physikalisch realen Transport der Energie räumlich quantitativ nachzuvollziehen und zu verstehen. An vereinfachten Beispielen wird gezeigt, wie die Energie über zwei Sammelschienen zu den Verbrauchern und insbesondere in die Verbraucher hinein gelangt. Bei den Verbrauchern handelt es sich exemplarisch um einen Widerstand, einen Kondensator, eine Spule und schließlich einen bewegten Leiter im magnetischen Feld als einfachste Form eines Gleichstrommotors. Es wird dargestellt, dass die Energie keinesfalls in den Zuleitungen transportiert wird, sondern durch den umgebenden Raum.
Zum Abschluss des dreijährigen Forschungsprojektes "Flexible Plattform für Energiesammelsysteme für die Gebäudeautomation – MEH", gefördert durch das BMBF, wurde ein nachhaltiges Energiekonzept realisiert. Durch Nutzung unterschiedlicher energetischer Quellen, u.a. Rundfunkwellen (RF) und Solarstrahlung, können Aktoren und Sensoren der Gebäudeautomation autonom ohne zusätzliche Batterien umweltfreundlich und wartungsfrei betrieben werden.
Für Fachangestellte für Medien- und Informationsdienste (FaMIs) ist berufsbegleitendes Studieren eine erfolgreiche Maßnahme zur Höherqualifizierung. Bibliotheken können ihrerseits im Rahmen der Personalentwicklung mit der Unterstützung von studierenden Mitarbeitenden dem Fachkräftemangel entgegenwirken. Der Beitrag stellt die Personalentwicklungsmaßnahme am Beispiel des Bachelor-Studiengangs „Informationsmanagement – berufsbegleitend“ der Hochschule Hannover vor. Es werden Informationen aus der Beratungspraxis dargelegt und die mögliche Unterstützung durch die entsendenden Bibliotheken aufgezeigt.
Der zielorientierte Umgang mit Wissen bildet eine zentrale Herausforderung für Unternehmen und deren Mitarbeiter. Deren Kompetenzentwicklung ist für die Unternehmen unter dem Aspekt der Wettbewerbsfähigkeit ein lohnendes Ziel. Diese Arbeit stellt ein Werkzeug zur Messung von Kompetenzen im Persönlichen Wissensmanagement vor. Auf einer Literaturstudie basierend wurde ein Kompetenzkatalog erstellt und mit Hilfe einer Befragung von Fachleuten aus dem Bereichen Informations- und Wissensmanagement validiert. Dieser Kompetenzkatalog findet Eingang in einen Referenzrahmen für Kompetenzen für Persönliches Wissensmanagement. Zur Bestimmung der Niveaustufen Experte, Könner und Kenner im Persönlichen Wissensmanagement wurde ein Messwerkzeug erarbeitet und anhand von zwei Gruppen auf Gültigkeit überprüft. Die eine Gruppe bestand aus Mitarbeitern Exzellenter Wissensorganisationen, die andere aus interessierten Mitarbeitern aus nicht-explizit wissensorientierten Unternehmen. Es konnte nachgewiesen werden, dass beide Gruppen in acht Einzelkompetenzen signifikante Unterschiede besaßen. Auch für weitere Kompetenzen konnten Messdimensionen aus den Rückmeldungen der Umfrage hergeleitet werden. In einigen Fällen allerdings konnten die Niveaustufen Könner und Kenner nicht unterschieden werden.
Gemeinwesendiakonie und Digitalisierung: Ein kirchlicher Megatrend und ein gesellschaftlicher Megatrend. Zu beiden Themen einzeln wurde in den vergangenen Jahren viel publiziert. Zu beiden Themen gemeinsam jedoch kaum etwas. Isabelle Willemsen füllt diese Lücke mit dem vorliegenden Band fachkundig und differenziert und liefert zahlreiche Anregungen zum Weiterdenken.
Dieses Buch richtet sich an alle, die sich wissenschaftlich oder praktisch mit dem Thema Gemeinwesendiakonie beschäftigen.
Das Verhalten von Fußgängern wird seit einigen Jahrzehnten mit dem Ziel erforscht, Empfehlungen zur Reduzierung von Verletzten und Toten im Straßenverkehr auszusprechen. Diese Studie befasst sich mit ausgewählten Ergebnissen nationaler und internationaler Studien zum Fußgängerverhalten und verfolgt das Ziel, die bisherigen Forschungsergebnisse anhand einer verdeckten Beobachtung von Fußgängern im Straßenverkehr zu überprüfen. Hierzu wurde das Verhalten an einer Fußgängerampel in Hannover an zwei Wochentagen mehrere Stunden lang beobachtet. Bei der Auswertung der Ergebnisse konnten signifikante Zusammenhänge zwischen den untersuchten Einflussgrößen und dem Verhalten der beobachteten Personen festgestellt werden. Insbesondere deren Alter, die Anwesenheit weiterer Personen und das Fehlverhalten weiterer Personen erwiesen sich als die wichtige Prädiktoren für die Entscheidung, selbst bei Rot zu gehen.
In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.
Die Milchwirtschaft will höhere Preise für Speisequark erlösen. Begründet wird dies mit der in der Bundesrepublik Deutschland gesetzlich verordneten Trockenmasseanhebung des Speisequarks von 17% auf 18%. Da diese Änderung zum 1. Januar 1987 bereits in Kraft trat und den Molkereiunternehmen lange vorher bekannt war, ist die Frage zu stellen, warum eine Änderung der variablen Kosten, von der alle Hersteller gleichermaßen betroffen sind, so schwer am Markt in entsprechende Preisanhebungen umzusetzen ist.
Methodische Weiterentwicklungen der Modellabteilungsrechnung für milchwirtschaftliche Betriebe
(1990)
Vor 15 Jahren wurde der erste Beitrag einer Serie von Modellabteilungsrechnungen mit dem Ziel veröffentlicht, der Praxis und Wissenschaft nachvollziehbare Planungshilfen
für die Gestaltung optimaler Produktionsstrukturen in der Milchwirtschaft an die Hand zu geben. Dieses Ziel gilt auch heute noch, jedoch hat sich im Laufe der Zeit immer
deutlicher herauskristallisiert, daß eine Fortschreibung der Faktorpreise sowie eine gelegentliche Aktualisierung der Faktormengenverbräuche in Anpassung an neue technologische Entwicklungen allein nicht ausreichen, die selbstgesetzen Ansprüche an die Modellabteilungsrechnung zu erfüllen.
In der Bundesrepublik Deutschland gibt es rund 200000 Lieferstellen für Molkereiprodukte vom industriellen Großverbraucher bis zum Facheinzelhändler mit Milchproduktenangebot. Gut die Hälfte der gesamten Nachfrage schöpfen die Zentralläger sowie die Geschäfte des Lebensmitteleinzelhandels ab, wobei die Belieferung des LEH weitestgehend auf Strecke erfolgt. - Dipl.-Wirtsch.-Ing. Heinrich Wietbrauk von der Bundesanstalt für Milchforschung in Kiel analysiert für „dynamik im handel" die milchwirtschaftlichen Warenströme in Deutschland.
Durch den demographischen Wandel und den damit verbundenen Fachkräftemangel stehen für Unternehmen immer weniger qualifizierte Fachkräfte zur Verfügung. Um in diesem sogenannten "War for Talents" wettbewerbsfähig zu bleiben, müssen Arbeitgebende für ihre Zielgruppe als attraktiv wahrgenommen werden. Dafür setzen immer mehr Unternehmen darauf, ihre Werte deutlich zu kommunizieren, um so eine starke, emotionalisierte Marke als Arbeitgebende aufzubauen. Denn: Nach der Theorie des "Person-Organization-Fit" bevorzugen Mitarbeitende Unternehmen als Arbeitgebende, die ähnliche Werteidentitäten aufweisen.
Neben diesen Entwicklungen fordern immer mehr Konsument:innen, aber auch Mitarbeitende, dass Unternehmen und Arbeitgebende Haltung zeigen und Verantwortung für Gesellschaft und Umwelt übernehmen, zum Beispiel in Form von Corporate Social Responsibility (CSR). Insbesondere Angehörige der Generationen Y und Z (zwischen 1980 und 2010 Geborene) wünschen sich eine emotionale Bindung und übereinstimmende Werte zu bzw. mit ihren Arbeitgebenden. Als informierte Generationen erwarten sie mehr als andere eine deutliche Positionierung von Unternehmen zu aktuellen Missständen: Ethisches Verhalten ist wichtiger als Gehalt und Glück schlägt Geld.
Ein Lösungsansatz, dem Fachkräftemangel und dieser Forderung zu begegnen, könnte dabei die Anwendung und Integration von Brand Activism sein, indem es der Steigerung der Arbeitgebendenattraktivität dient und Arbeitgebende die Rolle als "Agents of Change" einnehmen. Mit den Unternehmenswerten als Treiber umfasst Brand Activism sowohl die Kommunikation als auch spezifische aktivistische Handlungen, meist in Form von Kampagnen, die die eigene Haltung verdeutlichen.
In diesem Zusammenhang untersucht die vorliegende Experimentalstudie, inwiefern Brand Activism die wahrgenommene Arbeitgebendenattraktivität bei den Generationen Y und Z, insbesondere im Vergleich zu CSR, beeinflusst. Zudem wurde der moderierende Einfluss von bestimmten Persönlichkeitseigenschaften und Wertvorstellungen auf den Effekt von Brand Activism auf die Attraktivität von Arbeitgebenden untersucht. Die Ergebnisse der quantitativen Online-Befragung mit drei Experimentalgruppen zeigten, dass Brand Activism einen signifikant positiven Einfluss auf die wahrgenommene Arbeitgebendenattraktivität bei den Generationen Y und Z hat; im Detail auf den Innovations-, Entwicklungs- und Transferwert sowie auf einen Teil des ökonomischen Wertes und die Absichten gegenüber dem Unternehmen. Die untersuchten Persönlichkeitsmerkmale (Ausprägung der prosozialen Persönlichkeit und Communion) sowie Wertevorstellungen (Selbst-Überwindung) verstärken diesen Effekt von Brand Activism dabei nicht. Hierbei wurde lediglich in Zusammenhang mit dem sozialen Wert der Marke eine disordinale Wechselwirkung zwischen der Manipulation von Brand Activism und der Ausprägung der prosozialen Persönlichkeit aufgedeckt, die sich jedoch ausschließlich auf Personen mit geringer prosozialer Persönlichkeit in Verbindung mit der Beurteilung des sozialen Wertes der CSR-Marke bezieht und nicht pauschalisiert werden kann.
Die Serie von Modellabteilungsrechnungen wird mit der Untersuchung des Kostenverlaufs in der Abteilung Weichkäse fortgefuhrt, um einen weiteren Baustein zur Bestimmung optimaler Produktionsstrukturen zu erhalten. Als Ausgangsposition dieser Themenstellung soll im folgenden die Modellabteilung Weichkäse Gestalt annehmen. Dazu sind drei Arbeitsschritte notwendig: die Festlegung des zu untersuchenden Produktes, die inhaltliche Abgrenzung der zu bildenden Modellabteilung und die Auswahl des Fertigungsverfahrens.
In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.
In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.
Im zweiten Teil dieser Arbeit bilden gemäß den allgemeinen technischen Prozeßbedingungen die maschinellen und baulichen Ausrüstungen der vier Modelle, deren Investitionsbeträge, Nutzungsdauer und Instandhaltungsquote unterabteilungsweise dargestellt sind, den Ausgangspunkt dieses Themenbereiches. Eine Anpassung der technischen Auslegung an eine verringerte Auslastung erfolgte bei einer 65%igen und 33%igen Beschäftigung. Die zu tätigenden Investitionen für die Grundversion (100 % Beschäftigung) betragen im Modell 1 25,0 Mio. DM und im Modell 4 54,5 Mio. DM. Die Mengenverbräuche der Produktionsfaktoren Rohstoff, Personal, Energie, Betriebs- und Hilfsstoffe sowie Reparaturen sind von den spezifischen Modellausstattungen abgeleitet. Es ergeben sich Faktoreinsatzmengen, die mengenproportional auftreten und den Produkten zugeordnet sind, sowie periodenabhängige fixe Verbrauche, die der Abteilung angelastet werden. Anhand einer ausgewählten Beschäftigungssituation, die einem 2-Schichtbetrieb bei 250 Produktionstagen entspricht, wird aufgezeigt, wie sich die auf Abteilungsebene aggregierten Faktoreinsatzmengen in Abhängigkeit von der Modellgröße gestalten. So ergibt sich z.B. im Bereich des Produktionsfaktors Personal, daß für das Modell 1 eine Beschäftigungszahl an Arbeitskräften von 25 und im Modell 4 von 40 vorgesehen ist.
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Mit der vorliegenden Arbeit wird die im Jahr 1975 durchgeführte Modellkalkulation in der H-Milch-Abteilung aktualisiert, indem die Funktionsinhalte der Abteilung erweitert werden und der neueste Stand der Technik entsprechend bestehender Produktionsstrukturen zur Anwendung kommt. Darüber hinaus werden die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen In den Kalkulationen berücksichtigt. Unterteilt in drei Unterabteilungen - Ultrahocherhitzung, Aseptische Abpackung und Lager - wird der Produktionsprozeß zur Herstellung der ausgewählten Produkte H-Vollmilch und teilentrahmte H-Milch hinsichtlich ihrer Kostenverursachung untersucht. Die Bestimmung der Abteilungs- und Stückkosten für H-Milch erfolgt in vier Modellen, deren Kapazitäten entsprechend der Abfülleistung zwischen 5.700 Packungen/Stunde und 34.200 Packungen/Stunde liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, können so die Kosten für Produktionsmengen zwischen 4,6 und 183,4 Mio. Packungen/Jahr ermittelt werden. Die zu tätigenden Investitionen für die Grundversion betragen im Modeln 5,1 Mio. DM, die sich im Modell 4 auf 18,0 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge, die sich zu 40 % aus H-Vollmilch und zu 60 % aus teilentrahmter H-Milch zusammensetzt, ergeben sich aus den Investitionssummen spezifische Investitionen, die sich mit zunehmender Modellgröße von 168 auf 98 DM/1.000 Packungen erheblich senken. Die modellspezifischen Gesamtkosten der Abteilung „H-Milch“, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 75,7 Pf/Packung, die sich im kleinsten Modell auf 78,4 Pf/Packung erhöhen. Die outputbezogenen Einzelkosten der Produkte differieren infolge des unterschiedlichen Fettgehaltes nur in den Rohstoffkosten; in den übrigen Kostenarten wird von den gleichen Produktionsverbräuchen ausgegangen, da für die Herstellung beider Produkte dieselbe Technologie verwendet wird. Bei einem Beschäftigungsgrad von 63 % entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 58-61 % auf die Rohstoffkosten, 3 - 5 % auf die Anlagekosten und 30 % auf die Verpackungskosten. Die übrigen Kostenarten wie Energiekosten mit 3 - 4 % und Personalkosten mit 0,8 -1,5 % sind von geringerer Bedeutung. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind. So empfehlen sich beispielsweise bei verminderten Produktionsmengen Anpassungen in der Ausstattung der Abteilung, die zu sprunghaften Kostensenkungen führen können. Kostendegressionseffekte ergeben sich auch bei der Verringerung der Produktionstage in Beschäftigungssituationen eines 2- und 1-Schichtbetriebes. Wird z.B. in einer Abteilung mit zwei Abfüllanlagen (Modell 2) die Produktion eines 2-Schichtbetriebes von 250 Produktionstagen auf 200 Produktionstage/Jahr konzentriert, lassen sich die Abteilungskosten um 70.000 DM/Jahr verringern
Ziel der nachfolgenden Arbeit ist die Erhebung des aktuellen Stands der Digitalisierung in der Landwirtschaft. Es gilt herauszufinden, wie weit landwirtschaftliche Betriebe in Deutschland heute bereits digitalisiert sind. Parallel dazu soll erörtert werden, welche Gründe eine weitergehende Digitalisierung gegenwärtig verhindern. Dabei ist zu berücksichtigen, welche Bedeutung Digitalisierung in der Landwirtschaft hat. Zur Beantwortung der Forschungsfrage werden sowohl qualitative (Systematische Literaturanalyse) als auch quantitative Forschungsmethoden (Online-Umfrage mit anschließender statistischer Auswertung) angewendet. Wesentliche Erkenntnisse dieser Arbeit sind, dass die Messung von Digitalisierungsgraden landwirtschaftlicher Betriebe mittels eines Reifegradmodells signifikante Unterschiede in der deutschen Landwirtschaft widerspiegeln und dass der Kostenfaktor einen erheblichen Druck auf den digitalen Wandel im Agrarsektor ausübt. Generationenwechsel, sowie herstellerübergreifende Lösungen stellen neben der Forderung von mehr Unterstützung seitens der Politik und öffentlicher Institutionen Diskussionspunkte dieser Abschlussarbeit dar.
Die vorliegende Arbeit befasst sich mit dem Trend "Gamification" und untersucht an Hand einer Szenario-Analyse, wie sich der Trend auf die Standgestaltung der B2B-Messen im Jahr 2030 auswirken wird.
Hierfür wurde intensive Literaturrecherche betrieben zu den Kernthemen: Gamification, Design, B2B-Messe und Trends im Messewesen.
Nach einer Auswertung dieser Themen in Bezug auf deren Kernelemente und Schlüsselkombinationen wurden 15 Zukunftsprojektionen erstellt, welche anschließend in 3 Szenarien zu Zukunftsbildern ausformuliert wurden.
Fazit der Arbeit ist, dass der Trend Gamification zwar an Bedeutung gewinnt, das Standdesign jedoch nur geringfügig beeinflussen wird. Andere Trendthemen wie Nachhaltigkeit, Sicherheit und die generelle Digitalisierung sowie ein Drang zu Kommunikation werden stärkeren Einfluss auf die Zukunft des Messewesens, und dadurch auch die Standgestaltung bei B2B-Messen, nehmen.
Hintergrund: Das System der pflegerischen Versorgung in Deutschland befindet sich in einer Umbruchphase. Seit Jahren wird über eine Weiterentwicklung der Kooperation im Gesundheitswesen und damit über eine Veränderung der Aufgabenverteilung zwischen den Gesundheitsberufen diskutiert. Im Jahr 2008 hat der Gesetzgeber die Einführung von Modellvorhaben zur Übertragung von Heilkunde auf Pflegende gem. § 63 Abs. 3c SGB V ermöglicht. Die Umsetzung verläuft sehr schleppend. Das Ziel der Untersuchung war, die Gründe für diese schleppende Umsetzung aus Sicht der gesetzlichen Krankenkassen zu analysieren.
Methode: Quantitative Befragung aller gesetzlichen Krankenkassen (n=124) in Deutschland.
Ergebnisse: Zur Sicherstellung der Versorgung halten 94 % der Krankenkassen die Übertragung von Heilkunde auf nichtärztliche Leistungserbringer für einen sinnvollen Ansatz. Sie wird von 96 % der Krankenkassen als sehr wichtig empfunden. Zwar befürworten 96 % der Krankenkassen grundsätzlich die Durchführung von Modellvorhaben, tatsächlich sind aber nur 8 % an derartigen Verträgen beteiligt; 71 % der Krankenkassen planen auch keine eigenen Modellvorhaben für die Zukunft.
Als mögliche Ursachen für die bislang schleppende Umsetzung werden aus Sicht der GKV insbesondere rechtliche Hürden (90 %), Widerstand durch ärztliche Standesvertreter (84 %), ungeklärte Finanzierungs- (74 %) und Haftungsfragen (70 %) sowie nicht-praxistaugliche Regelungen in der G-BA-Richtlinie (79 %) und im Gesetz (85 %) angeführt. Weniger als die Hälfte (46 %) der Krankenkassen vermutet hohe Kosten als Ursache für die schleppende Umsetzung.
Diskussion: Die vom Gesetzgeber im aktuellen Pflegeberufereformgesetz (PflBRefG) vorgenommenen Änderungen, insbesondere die Tatsache, dass Krankenkassen entsprechende Modellvorhaben bis zum 31. Dezember 2020 vereinbaren und durchführen sollen, sind vor dem Hintergrund der geäußerten Kritik als zielführend und adäquat zu bezeichnen.
Wie kann man den empfundenen Alltagsstress bewältigen und eigene, sinnvolle Ziele erreichen? Woher kommt die Zeitnot und was kann man tun? Gibt es Faktoren, die Glück und Erfolg fördern? Was kann man in seinem Studien- und Arbeitsalltag tun, um sich wohl zu fühlen und erfolgreich zu sein? Welche Zeitmanagement-Tools helfen bei der Organisation von Studium und Arbeitsalltag?
Diese und weitere Fragen werden im Workbook beantwortet. Der Selbstmanagement-Prozesskreis wird vorgestellt, verschiedene Modelle, Prinzipien und Techniken werden vermittelt. Mit vielen Reflexionsfragen und Übungen.
Gender und Diversity spielen in der Wirtschaft und Verwaltung eine große Rolle. Der Begriff Gender beschreibt das soziale Geschlecht. In unserer Wahrnehmung unterscheiden wir zwischen männlich und weiblich und ordnen entsprechende Attribute zu. Die Differenzierung geschieht auf individueller, interaktionaler und institutionaler Ebene und ist immer mit Wertungen versehen (Gender Orders). Dadurch kommt es zu Ungleichheiten und Ungerechtigkeiten. Der Begriff „Diversity“ (Vielfalt) beschreibt die Vielfalt der Mitglieder (z.B. die Mitarbeitenden), der Bezugsgruppen (z.B. Geldgeber) und der Kunden einer Organisation bzw. eines Betriebes. Unterschieden werden Geschlecht, Kultur, Alter, Behinderung, familiäre Situation und sexuelle Orientierung. Ziel von Gender Mainstreaming und Diversity Management ist es, Chancengleichheit im Unternehmen bzw. in der Verwaltung zu schaffen. Chancengleichheit als personalpolitisches Ziel beinhaltet den Abbau von Diskriminierungen, gleiche Rechte und Chancen und Möglichkeiten sowie die sinnvolle Berücksichtigung und Einbeziehung der verschiedenen Mitarbeiter- und Kundengruppen. In dem folgenden Artikel werden Gender Mainstreaming und Diversity Management und deren Instrumente beschrieben. Eine Checkliste, Praxis und Fallbeispiele ermöglichen das Bearbeiten des Themas und die Umsetzung in die Praxis.
Gender und Kommunikation
(2010)
In diesem Artikel werden die Zusammenhänge zwischen Gender und Kommunikation erörtert, an Fallbeispielen und Untersuchungen erläutert und reflektiert. Der Begriff Gender beschreibt das soziale Geschlecht. Der Prozess der Kommunikation besteht aus Encodieren und Decodieren auf der nonverbalen, paraverbalen und verbalen Ebene. Dies wird unter anderem von Gender beeinflusst. Durch das Konzept des Doing Gender werden Wahrnehmungen, Kommunikationsverhalten sowie die statistischen Gegebenheiten und Rahmenbedingungen, in denen sich die Kommunikation abspielt, analysiert. Geschlechtstypische kommunikative Muster werden beschrieben und deren Grenzen durch Rahmenbedingungen reflektiert.
In diesem Beitrag wird zunächst geklärt, was der Begriff Authentizität beinhaltet und was entsprechend authentische Führung bedeutet. Im dritten Kapitel geht es ausführlich um den Begriff der Persönlichkeit und ausgewählte Theorien der Persönlichkeitspsychologie. Das vierte Kapitel beschäftigt sich mit Professionalität und professioneller Führung. Anschließend werden die Ausführungen stärker auf die berufliche Praxis bezogen. Im fünften Kapitel werden zwei ausgewählte Persönlichkeitstests vorgestellt, die auch in Unternehmen im Recruitment von Führungskräften eingesetzt werden. Das sechste Kapitel befasst sich mit Konzepten und Techniken zur Persönlichkeitsentwicklung. Im siebten Kapitel wird noch einmal ein Fazit gezogen. Die in der Einleitung aufgeworfenen Fragen werden zusammenfassend beantwortet.
Zunächst werden ausgewählte Theorien und Modelle zu Persönlichkeit dargestellt, der Bezug zu Führungseigenschaften und Führungsverhalten wird gezogen. Im dritten Kapitel wird Führung definiert und vertiefend erläutert. Nach einem Modell von Schulz von Thun werden in den nachfolgenden Kapiteln Wesensgemäße Führung, Situationsgerechte Führung sowie Metakommunikative Führung anhand ausgewählter Modelle erörtert. Danach wird spezifisch auf die Führungsbeziehung eingegangen (wobei natürlich auch Kommunikation sich bereits mit der Beziehung von Führungskraft und Mitarbeiter befasst). Abschließend werden die eingangs aufgeworfenen Fragen beantwortet.
In diesem Text werden Moderationsmethode und Moderationszyklus erläutert. Die einzelnen Phasen und deren Bausteine werden beschrieben. Durch viele Beispiele soll die Anwendung der Bausteine erleichtert werden. Durch die Anwendungsbeispiele der Bausteine sowie die Erläuterungen zu Moderationsvorbereitung und Moderatorenrolle (Haltung und Fragetechnik) sollen die Lesenden in die Lage versetzt werden, die Moderationsmethode nach der Teilnahme an der Beispielmoderation und deren Reflexion selbst anzuwenden.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership".
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership". Checklisten, Übungen, Arbeitsblätter, Links und Foliensätze.
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Checklisten, Übungen, Arbeitsblätter, Links und Foliensätze. Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Die vorliegende Bachelorarbeit stellt den Einsatz von Social Software beim Regionalfernsehsender „h1 – Fernsehen aus Hannover“ dar. Nach einem kurzen Einblick in die Grundlagen von Social Software folgt die Vorstellung des Senders. Hierbei wird vor allem der organisatorische Aufbau und die Kommunikation im Sender näher betrachtet. Anschließend wird dargestellt, welche Informationsmittel bei h1 durch den Einsatz von Social Software ersetzt wurden und wie sich dadurch die Kommunikation und das Informationsmanagement innerhalb des Unternehmens verbessert hat.
Angebote Kultureller Bildung im Kontext von Prävention arbeiten vor allem mit Jugendlichen, die im Sinne des Empowerment-Ansatzes gestärkt werden sollen, um gegen Rechtsextremismus einzutreten. Selten gibt es Projekte, die mit Jugendlichen arbeiten, die rechtsextreme Orientierungen aufweisen. Ausgehend von unterschiedlichen Dimensionen der Präventionsarbeit mit Jugendlichen in Radikalisierungsprozessen stellt der Beitrag mehrere Handlungsfelder der Kulturellen Bildung dar, in denen sich sowohl besondere Potenziale als auch Ambivalenzen der Jugendkulturarbeit mit rechtsorientierten Jugendlichen ergeben. Dabei zeigt sich, dass es für eine erfolgversprechende künstlerisch-pädagogische Arbeit mit rechtsorientierten Jugendlichen nicht nur eines besonderen milieuspezifischen Wissens über die Lebenswelt der rechtsextremen Szene bedarf. Diese Arbeit erfordert auch eine pädagogische sowie politische Haltung, die rechtsorientierte Jugendliche als Personen und Menschen mit Bedürfnissen, Träumen, Lebenszielen usw. anerkennt und mit einer milieuübergreifenden, diversitätsbewussten Perspektive die unterschiedlichen Wege und Faktoren, die zu einer „rechten Karriere“ führen können, in der jugendkulturellen Arbeit berücksichtigt, ohne die menschenverachtenden Weltbilder zu akzeptieren.
Die Bachelorarbeit "Content-Strategien im Luxusmodemarketing" befasst sich mit den jeweiligen Besonderheiten von Content-Strategie und Luxusmodemarketing. Diese Ansatzpunkte werden zur Hilfe genommen, um die jeweiligen Disziplinen aufeinander zu beziehen. Dabei spielen bei der Content-Strategie die Faktoren Zielgruppe, Zeitpunkt, Inhalt, Kanäle und Formate eine übergeordnete Rolle, während im Luxusmodemarketing die Symbolkraft der Marke, die Saisonalität der Mode, die Visualität sowie die Akzeptanz seitens des Konsumenten von Bedeutung sind. Mithilfe dieser Kernaspekte, die in dieser Arbeit anhand von Theorien und Modellen untersucht werden, können Bezugspunkte zu den beiden Disziplinen hergestellt werden.
Der Theorieteil erläutert diese Facetten und arbeitet heraus, welche genauen Muster innerhalb der Content-Strategie sowie des Luxusmodemarketings vorliegen. Schließlich beschreibt der Anwendungsteil, wie die relevanten Zielgruppen, die passenden Inhalte, der richtige Zeitpunkt, die erforderlichen Kanäle und die angemessenen Formate auszusehen haben, um eine Content-Strategie erfolgreich im Luxusmodemarketing zu implementieren. Diese Arbeit versucht dies anhand der gewonnenen theoretischen Erkenntnisse sowie entsprechenden Praxisbeispielen näher zu betrachten.
Das Metavorhaben „Partizipation, Praxisbezug, Ethik und Monitoring in der Förderlinie ‚sexualisierte Gewalt in pädagogischen Kontexten‘ (ParPEM)“, zielt auf die inhaltliche Begleitung der vom BMBF am 7.11.2016 ausgeschriebenen Anschlussförderlinie ab, durch die fünf Einzelvorhaben und elf Verbundvorhaben gefördert werden. Dieser Schlussbericht fasst die Forschungsergebisse des Teilprojekts „Münster“ zusammen.
Diese Studie untersucht Gruppen von Ortsnamen in Deutschland (in den Postleitregionen) nach vorhandenen Ähnlichkeiten. Als Messgröße wird ein Häufigkeitsvektor von Trigrammen in jeder Gruppe herangezogen. Mit der Anwendung des Average Linkage-Algorithmus auf die Messgröße werden Cluster aus räumlich zusammenhängenden Gebieten gebildet, obwohl das Verfahren keine Kenntnis über die Lage der Cluster zueinander besitzt. In den Clustern werden die zehn häufigsten n-Gramme ermittelt, um charakteristische Wortpartikel darzustellen. Die von den Clustern umschriebenen Gebiete lassen sich zwanglos durch historische oder linguistische Entwicklungen erklären. Das hier verwendete Verfahren setzt jedoch kein linguistisches, geographisches oder historisches Wissen voraus, ermöglicht aber die Gruppierung von Namen in eindeutiger Weise unter Berücksichtigung einer Vielzahl von Wortpartikeln in einem Schritt. Die Vorgehensweise ohne Vorwissen unterscheidet diese Studie von den meisten bisher angewendeten Untersuchungen.
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
»Digital(isiert)e« Beratung verspricht neben Innovation auch Flexibilität, Ubiquität, Globalität, Geschwindigkeit und Legitimität durch evidenzbasierte Wirksamkeit. Für eine sozialwissenschaftlich fundierte arbeitsweltliche Beratung wie Coaching und Supervision ist danach zu fragen, welches Menschen- und Weltbild sich hinter der Digitalisierung verbirgt und welche Anliegen sie transportiert. Dazu wird mit den Theorien Michel Foucaults der gegenwärtige Diskurs auf Steuerungslogiken und Machtverhältnisse hin kritisch analysiert. Dabei zeigt sich, dass die Digitalisierung das »Zeitalter der Gouvernementalität« (Foucault) festigt: Humanistisch geprägte Werte und Ziele wie Reflexion, Anerkennung und Selbsterkenntnis treten in den Hintergrund, während die Nutzbarmachung und Optimierung des Selbst sowie des Beratungsprozesses wichtiger werden: Beratung will und muss effizienzgetrieben ihre Wirksamkeit evidenzbasiert legitimieren, und Digitalisierung erleichtert dies.
Mobile Kommunikationsgeräte wie Smartphones revolutionieren unseren (Arbeits-)Alltag. Realität und Virtualität verschmelzen, und das Begriffspaar drückt keinen Gegensatz mehr aus. Sogenannte virtuelle Teams sind weit verbreitet und bisher überwiegend in Hinblick auf Führungsthematiken bearbeitet. Gruppen, die computergestützt kommunizieren, existieren aber inzwischen in allen Lebensbereichen. Damit überträgt sich das „Hier und Jetzt“-Prinzip der Gruppendynamik in die computervermittelte Kommunikationswelt. Diese Verlagerung ist auch
unter gruppendynamischen Aspekten weiter zu erforschen.
Mobile Kommunikationsgeräte wie Smartphones spielen eine wichtige Rolle für die Effizienzsteigerung, Verdichtung und Subjektivierung von Arbeit. Sie entgrenzen vielfach und haben Einfluss auf die Arbeitsorganisation wie auf Erschöpfung und Erholung. Gesetzliche Regelungen werden in Organisationen nicht umgesetzt oder passen nicht. Organisationen fällt es schwer, selbst Regelungen zu finden, weil zahlreiche Widersprüche bestehen. Dennoch ist es für Organisationen sowohl unter Wettbewerbsaspekten wie in Fragen der Betrieblichen Gesundheitsförderung ratsam, Klärungsprozesse zu Erreichbarkeitszeiten durchzuführen. Beratung kann Aushandlungsprozesse unterstützen.
Cora Baltussen in den USA : Lernerfahrungen für die Supervision in den Niederlanden und Deutschland
(2021)
Cora Baltussen unternahm - wie zahlreiche europäische Sozialarbeitende - Anfang der 1950er Jahre eine 18-monatige Studienreise in die USA, um Casework und Supervision zu erlernen. Dieser Beitrag wertet ihren Summerreport von 1953 aus, der als Archivalie erhalten ist. So können ihre Lernerfahrungen in der historisch-kritischen Rekonstruktion kontextualisiert und in den Diskurs eingeordnet werden. Dabei werden erste Differenzierungen der frühen Supervisionsgeschichte ebenso sichtbar wie prägende Begegnungen und entstehende Netzwerke, die die Supervisionsentwicklung in Deutschland maßgeblich beeinflussten.
Die Mitgliederversammlung der Deutschen Gesellschaft für Supervision und Coaching e. V. (DGSv) stand 2020 äußerlich im Zeichen von Covid-19 und damit Social Distancing, inhaltlich im Zeichen der konsequenten Fortführung begonnener Strategie- und Modernisierungsprozesse des Berufs- und Fachverbandes. Gleichzeitig aktualisierten diese Prozesse die Identitätsfrage des Verbandes.
Der Bericht über die Mitgliederversammlung gliedert sich in vier Teile: Einen kurzen Bericht über die formalen Anteile der Versammlung (1), die kurze Vorstellung der mit dem Cora-Baltussen-Förderpreis ausgezeichneten Abschlussarbeiten (2), eine Paraphrase des Vortrags von Armin Nassehi (3) sowie eine kritisch-kommentierende Diskussion des Fishbowls über Führungskräfte in der klinischen Pflege (4).
In der detaillierten Beschäftigung mit Quellen der Sozialen Arbeit zur Entstehung der Supervision in den 1960er Jahren legt dieser Beitrag den Fokus auf die auch in der sozialpädagogischen Geschichtsschreibung weithin unterdrückten religiösen Hintergründe. In der Beschäftigung mit den Rahmenbedingungen der Supervisionsausbildung an der katholischen Akademie für Jugendfragen in Münster kann gezeigt werden, wie eng katholische Milieus und Ethiken mit der Entstehung von Supervision im nordwestdeutschen Raum verbunden waren und was das für das frühe Verständnis von Supervision und ihre weitere Entwicklung bedeutete.
Ein Konferenzrückblick:
Das DFG-Forschungskolleg „Postwachstumsgesellschaften“ hatte gemeinsam mit der Deutschen Gesellschaft für Soziologie (DGS) zu einer gemeinsamen fünftägigen Konferenz vom 23. bis 27. September 2019 an die Friedrich Schiller-Universität Jena geladen, und rund 700 Wissenschaftler*innen und Studierende kamen aus dem In- und Ausland, um an den rund 150 Veranstaltungen teilzunehmen. Begleitet wurde die Konferenz von einem umfänglichen Kulturprogramm mit Konzerten, Kinofilmen und Kunst, und rechtzeitig zur Konferenz erschien als Tagungsband auch eine lesenswerte 600-seitige Sonderausgabe des Berliner Journals für Soziologie (Dörre et al. 2019).
Das Konferenzprogramm stand einerseits unter der Thematik der „Great Transformation“, also der auf Karl Polanyi (1886-1964) zurückgehenden These einer zunehmenden Vermarktlichung und Verselbstständigung der Wirtschaft gegenüber der Gesellschaft (vgl. Polanyi 1944), die das DFG-Forschungskolleg rund um die Soziologen Klaus Dörre, Hartmut Rosa und Stefan Lessenich als Titel gewählt hat. Andererseits tagten einige Sektionen der DGS als Regionalkonferenz, um sektionsspezifische Panels durchzuführen.
Der Essay skizziert die Ideengeschichte eines funktionalisierenden und optimierenden Coachingverständnisses und erschließt dafür Quellen, um damit einen Anstoß für weitere Forschungsarbeiten zu geben. Dabei ist der Beitrag nur eine erste diskursanalytische Annäherung, weil Coachingverständnisse hochgradig heterogen sind, für die frühe Geschichte der Supervision nur ein unzureichender Forschungsstand vorliegt, insbesondere in Hinblick auf ihre Ideengeschichte und die erschlossenen Quellen, und sich die Entwicklung nur in der Analyse der komplexen und vielsprachigen wissenschaftlichen und praktischen Austauschprozesse insbesondere zwischen den USA und dem westlichen Europa rekonstruieren lässt. Für die Forschung wurden zahlreiche Quellen zwischen 1950 und 1980 erschlossen. Es kann gezeigt werden, dass sich einzelne Konzeptbestandteile von Coaching bereits zwischen 1945 und 1975 im Diskurs um Praxisberatung und Supervision im Kontext der Sozialen Arbeit (Social Casework, Groupwork) nachweisen lassen. Offen bleibt, ob sich Coaching unabhängig davon oder darauf aufbauend entwickelt hat. Eine systematisierte Forschung zu diesen Zusammenhängen steht aus.
Dieser Beitrag ist im Rahmen des Forschungsschwerpunktes Herbar Digital an der Fachhochschule Hannover entstanden. Es wird ein neuartiges Geschäftsprozessmodell für die Generierung und Digitalisierung von Herbarbelegen vorgestellt, in das mittels eines Prozessmusters eine Fertigungssteuerungskomponente eingebettet ist. Dieser Ansatz ist ein Beitrag zur Entwicklung eines präzisen Prozesscontrollings, das Herbarien ermöglichen soll, die massenhafte Digitalisierung von Herbarbelegen effizient durchzuführen.
Die vorliegende Arbeit stellt ein Kennzahlensystem für Geschäftsprozesse des Prozessbereichs „Herbarbeleg“ im Botanischen Garten und Botanischen Museum Berlin-Dahlem (BGBM) vor. Das Kennzahlensystem ist ein Controlling-Werkzeug, welches Leistungsunterschiede zwischen Ist- und Soll-Geschäftsprozessen verdeutlicht.<br /> Das Kennzahlensystem basiert auf Erkenntnissen zu Prozessbenchmarking, Kennzahlen sowie solchen des Forschungsschwerpunkts Herbar Digital und berücksichtigt die zentralen Aspekte Zeit, Kosten und Qualität. Die Kennzahl Stückkosten verifizierter Leistungen steht an der Spitze des Kennzahlensystems und repräsentiert die Produktionskosten eines mit ausreichender Qualität digitalisierten Herbarbelegs.
Hintergrund und Fragestellung: Die durch röntgentechnische Diagnoseverfahren in der Medizin entstehende Strahlenbelastung für Patient und Personal soll laut Strahlenschutzverordnung so gering wie möglich gehalten werden. Um dieses zu erreichen ist ein professioneller und bedachter Umgang mit den Röntgengeräten unabdingbar. Dieses Verhalten kann derzeit jedoch nur theoretisch vermittelt werden, da sich ein Üben mit realer Strahlung von selbst verbietet. Daher stellt sich die Frage wie man die Strahlenschutzausbildung durch eine verbesserte Vermittlung der komplexen Thematik unterstützen kann. Methoden: Das CBT-System (Computer Based Training) virtX, welches das Erlernen der korrekten Handhabung mobiler Röntgengeräte unterstützt, wurde um Aspekte aus dem Bereich des Strahlenschutzes erweitert. Es wurde eine prototypische Visualisierung der entstehenden Streustrahlung sowie die Darstellung des Nutzstrahlenganges integriert. Des Weiteren wurde die Berechnung und Anzeige der virtuellen Einfallsdosis für das durchstrahlte Volumen sowie für den Bereich des Bildverstärkers hinzugefügt. Für die Berechnung und Visualisierung all dieser Komponenten werden die in virtX parametrisierbaren C-Bogen-Einstellungen, z.B. Stellung der Blenden, Positionierung des Röntgengerätes zum durchstrahlten Volumen und Strahlenintensität, herangezogen. Das so erweiterte System wurde auf einem dreitägigen Kurs für OP-Personal mit über 120 Teilnehmern eingesetzt und auf der Basis von Fragebögen evaluiert. Ergebnisse: Von den Teilnehmern gaben 55 einen ausgefüllten Evaluations-Fragebogen ab (Responserate 82%). Das Durchschnittsalter der 39 weiblichen und 15 männlichen Teilnehmer (einer o.A.) lag bei 33±8 Jahren, die Berufserfahrung bei 9,37±7 Jahren. Die Erfahrung mit dem C-Bogen wurde von einem Teilnehmer (2%) mit „Keine oder bisher nur Einführung erhalten“, von acht Teilnehmern (14%) mit „bediene einen C-Bogen gelegentlich“ und von 46 (84%) mit „bediene einen C-Bogen regelmäßig“ angegeben. 45 (92%) der Teilnehmer gaben an, durch die Visualisierung der Streustrahlung etwas Neues zur Vermeidung unnötiger Strahlenbelastung dazugelernt zu haben. Schlussfolgerung: Trotz einer bislang nur prototypischen Visualisierung der Streustrahlung können mit virtX zentrale Aspekte und Verhaltensweisen zur Vermeidung unnötiger Strahlenbelastung erfolgreich vermittelt werden und so Lücken der traditionellen Strahlenschutzausbildung geschlossen werden.
Der Artikel befasst sich mit der Zusammensetzung multiprofessioneller Teams in Beratungsstellen - bezogen auf die Grundprofessionen. Er zeigt auf, dass die Psychologie in der Geschichte der Beratungsstellen eine dominante Rolle im multiprofessionellen Gefüge übernommen hat, mit der Folge, dass bis heute um professionsspezifische Handlungsansätze der Sozialen Arbeit in der Beratung, sowie um ein gutes Verhältnis von Psychologie und Sozialer Arbeit gerungen werden muss. Es wird aufgedeckt, dass dieses Ringen auch im Umgang mit der empirisch nachgewiesenen, neuen quantitativen Dominanz der Sozialen Arbeit im multiprofessionellen Gefüge sichtbar wird und ein nur defizitorientierter, dominant psychologischer Blick darauf vermieden werden sollte.
Normdaten in Wikidata
(2014)
Wikidata ist eine freie, gemeinsame Datenbank und Projekt der Wikimedia-Foundation. Ziel ist es, strukturierte Daten zu zentralisieren und nutzbar zu machen. Dieses Handbuch bietet mit detaillierten und bebilderten Texten eine Anleitung zur Unterstützung des Wikidata-Projektes. Ein theoretischer und ein praktischer Teil erläutern die wichtigsten Begriffe und erklären Wikidata Schritt für Schritt. Dabei wird ein Schwerpunkt auf das Thema Normdaten in Wikidata gelegt. Ein Glossar sowie eine FAQ am Ende des Handbuchs geben Hilfestellung bei Begriffen und Fragen.
Dieses Handbuch entstand im Rahmen eines Projektseminars im Sommersemester 2014 an der Hochschule Hannover. Alle Inhalte des Handbuchs stehen auf http://hshdb.github.io/normdaten-in-wikidata unter den Bedingungen der CC-BY-SA Lizenz zur freien Verfügung.
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
Fortgeschrittene Konzepte der logischen Programmierung - für Kinder einfach zugänglich via NLP
(2019)
In dieser Arbeit wurde an der über Google Dialogflow gesteuerten Entwicklungsumgebung für logische Programmierung "Speech and Logic IDE" (SLIDE) geforscht. Die Anwendung wurde von Dialogflow zu der Bibliothek Snips NLU überführt, damit ohne Internetanbindung gearbeitet werden kann.
Als Hauptteil der Arbeit wurden die logischen Konzepte Variablen, Rekursion und Listen in die Anwendung implementiert. Es wurde eine Benennungsvorschrift eingeführt, die die Anwendung von starren Strukturen löst und es durch rekursive Verarbeitung erlaubt, beliebig komplexe Strukturen zu modellieren. Die Anwendung wurde anschließend im Rahmen der Sekundarstufe I betrachtet. Die behandelten Fragen waren:
"Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Fakten und Regeln zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I die Konzepte Variablen, Rekursion und Listen zu vermitteln?", "Kann SLIDE genutzt werden, um SuS der Sekundarstufe I Wissen außerhalb der mathematischen Domäne zu vermitteln?"
Dazu wurden zwei Unterrichtsbeispiele konzipiert, die sich im Deutschunterricht mit Grammatik und Lyrik auseinandersetzen, zwei Themen des niedersächsischen Kerncurriculums aus der Sekundarstufe I. Bei der Unterrichtsgestaltung wurde besonderes Augenmerk auf die neu eingeführten Konzepte gesetzt. Das zweite Unterrichtsbeispiel wurde im Rahmen einer Zusammenarbeit mit dem Projekthaus Zukunft MINT der Hochschule Hannover zweimalig mit unterschiedlichen 10. Klassen (IGS und Gymnasium) durchgeführt. Die theoretischen Ergebnisse der Arbeit zeigen, dass alle Fragen mit "Ja" beantwortet werden können. In der neuen Version von SLIDE ist es möglich die neuen Konzepte zu modellieren und es ist möglich Unterrichtsbeispiele zu konzipieren, die dieses Wissen vermitteln und sich auf Inhalte des Kerncurriculums beziehen. Die Ergebnisse der Feldexperimente in Form von Fragebögen fallen weniger aussagekräftig aus, da sich die SuS bereits am Ende der Sekundarstufe I befanden und die konzipierten Inhalte somit eine Wiederholung darstellten. Weiter muss anerkannt werden, dass viele Faktoren bei der Befragung nicht berücksichtigt werden konnten. Deswegen können aus den praktischen Versuchen keine umfassenden Schlüsse gezogen werden, eine optimistische Betrachtung zeigt ein generelles Interesse der Anwendung seitens der SuS. Die Erfahrungen legen nahe die Unterrichtsinhalte auf mehrere Unterrichtseinheiten aufzuteilen, damit die Teilnehmer mit Vorwissen an die neuen Konzepte herantreten und sich auf sie konzentrieren können.
Einfluss politischer Social-Media-Kommunikation auf journalistische Zeitungsberichterstattung
(2023)
Auswirkungen strategischer Social-Media-Kommunikation politischer Akteure auf Zeitungsartikel: Inwiefern Themenframes auf sozialen Netzwerken die deutsche Presse beeinflussen.
Wahlkämpfe sind ein ständiges Ringen um die Deutungshoheit über Themen in den Massenmedien zwischen politischen Parteien und Akteuren. Dabei wirkt sich die Art der Medienberichterstattung über den Wahlkampf auf die Meinungsbildung der Rezipient*innen aus und beeinflusst ihr Wahlverhalten. Diese Forschungsarbeit setzt einen anderen Blickwinkel auf die Wahlkampfberichterstattung und untersucht, wie politische Parteien im Wahlkampf Themen in sozialen Netzwerken darstellen (framen) und inwieweit diese Themenframes von Journalist*innen in Zeitungsartikel übernommen werden. Der SPD-Landesverband Niedersachsen veröffentlichte im gesamten Landtagswahlkampf eine sehr geringe Anzahl an Pressemitteilungen. Im Untersuchungszeitraum (08.09-06.10.2022), den letzten vier Wochen des Wahlkampfes, waren es drei Stück. Demnach liegt die Schlussfolgerung nahe, dass Pressemitteilungen kein relevantes Kommunikationsmittel im Wahlkampf (mehr) sind und Inhalte stattdessen über soziale Netzwerke kommuniziert werden.
Methodik
Das Forschungsthema wurde mithilfe einer Input-Output-Analyse bearbeitet. Im ersten Schritt wurde eine qualitative Input-Inhaltsanalyse der Social-Media-Kommunikation durchgeführt. Es wurden 52 Beiträge auf Twitter und Instagram auf ihre inhaltliche Gestaltung analysiert. Auf Grundlage dieser Ergebnisse wurde eine quantitative Output-Inhaltsanalyse durchgeführt. Darin wurden 427 Zeitungsartikel aus elf Tageszeitungen untersucht. Das Codebuch zur Output-Analyse zielte darauf ab, verwendeten Themen, Themenframes sowie Übernahmen von Originaltönen der Social-Media-Beiträge in Zeitungsartikeln zu ermitteln.
Ergebnisse
Journalist*innen übernehmen Inhalte aus Social-Media-Beiträgen (noch) zu einem geringen Anteil in Zeitungsartikel. Die Themenauswahl zwischen Social-Media-Beiträgen und Zeitungsartikeln war sehr ähnlich, die Frame-Übernahme fiel hingegen gering aus. Wenn Frames übernommen wurden, wurden sie überwiegend ohne Einordnung oder Kritik vermittelt. Inhalte und Originaltöne aus Social-Media Beiträgen des SPD-Landesverbands Niedersachsen übernahmen Journalist*innen im Großteil der Stichprobenartikel nicht. Insgesamt fiel auf, dass regionale Tageszeitungen häufiger SPD-Frames und Originaltöne aus Social-Media-Inhalten in ihre Berichterstattung übernahmen als überregionale Tageszeitungen. Im Hinblick auf Quellen in Zeitungsartikeln fiel auf, dass die SPD und dessen Akteure im Vergleich zu anderen Parteien und Parteiakteuren häufiger als Quelle verwendet wurden. Die Untersuchungsergebnisse lassen auf eine journalistisch unabhängige Arbeit und Artikelaufbereitung schließen. Für das Kommunikationsmanagement ist das jedoch möglicherweise eine Zeit des Umbruchs, weil eine Tendenz, zumindest in der politischen Kommunikation, zu beobachten ist: weg von klassischer Pressearbeit, hin zu sozialer Netzwerkkommunikation.
Die verpflichtende Nachhaltigkeitsberichterstattung ist auf dem Weg das Nachhaltigkeitsreporting von Unternehmen zu verändern. Eine wachsende Zahl an Unternehmen muss immer häufiger Informationen offenlegen, die sie vormals bewusst nicht publizierten. Einige Unternehmen könnten dies als ein Hindernis sehen, andere erkennen darin womöglich eine Chance für die Unternehmenskommunikation. Indem sie über gesetzlichen Mindestanforderungen hinaus publizieren und sich damit für eine umfassendere und transparentere Berichterstattung entscheiden, könnten Unternehmen von Profilierungsmöglichkeiten und Wettbewerbsvorteile profitieren. Das Ziel dieser Arbeit ist die Frage zu beantworten, welche Determinanten die freiwillige Offenlegung von Informationen, die über die gesetzlichen Mindestanforderungen der nichtfinanziellen Erklärung (NfE) hinausgehen, beeinflussen. Um die Forschungsfrage zu beantworten, wurde eine quantitative Inhaltsanalyse von 200 nach dem § 289b Handelsgesetzbuch (HGB) berichtspflichtigen Unternehmen durchgeführt. Hierzu wurden die nichtfinanziellen Erklärungen und weitere nachhaltigkeitsbezogene Informationen auf ihrer Unternehmenswebsite analysiert. Zudem wurde ein Offenlegungsscore konzipiert, um den Grad der zusätzlichen freiwilligen Offenlegung zu messen. Anschließend wurde untersucht, inwieweit Einflussfaktoren eine über die gesetzlichen Mindestanforderungen hinausgehende Offenlegung erklären können. Die Ergebnisse zeigen einen signifikanten Zusammenhang zwischen den Determinanten Unternehmensgröße, Berichtshistorie, Vorstandsgröße sowie dem Anteil ausländischer Vorstandsmitglieder und dem Offenlegungsgrad von freiwilligen zusätzlichen nichtfinanziellen Informationen. Hingegen konnte kein signifikanter Zusammenhang zwischen dem Offenlegungsgrad und den Determinanten Branchenzugehörigkeit, Kapitalmarktorientierung und Frauenanteil im Vorstand beobachtet werden.
Als Ergebnis eines Forschungssemesters im Sommersemester 2022 wird eine Bibliografie zur Multimodalität in der Technischen Kommunikation (TK) vorgestellt. In der TK werden vorwiegend instruktive Informationen entwickelt, sodass die Bibliografie auch für alle von Interesse ist, die sich mit dem Einsatz von Multimodalität bei der Vermittlung von prozeduralem Wissen beschäftigen. Die Bibliografie ist als Gruppenbibliothek Multimodality in TC öffentlich zugänglich (https://bit.ly/multimodality_in_tc) und kann genutzt und erweitert werden.
Nach Ausführungen zur Zielsetzung und Zielgruppe werden die fünf Fachdisziplinen vorgestellt, aus denen die Publikationen der Bibliografie stammen. Darauf folgen Hinweise zu Strukturierung und Recherchemöglichkeiten der Gruppenbibliothek, die das Aufspüren von Publikationen zum jeweiligen Forschungsinteresse unterstützen sollen. Der Beitrag schließt mit einigen Anregungen für die kollaborative Weiterentwicklung der Bibliografie.
Diese Gruppenbibliothek wird von der Autorin weiter gepflegt und sie hofft, dass einige der Nutzer*innen die aus ihrer Sicht interessanten Publikationen beisteuern. Hierzu können sich diese per E-Mail bei der Autorin (claudia.villiger@hs-hannover.de) melden. Sie erhalten dann zügig die entsprechenden Administrationsrechte. Die Autorin hofft, mit dieser Bibliografie die Zusammenarbeit von Wissenschaftler*innen verschiedener Forschungsfelder zu befördern.
Die Einführung einer elektronischen Stimmabgabe bei Kommunalwahlen (E-Voting) ist durch rechtliche und technische Herausforderungen derzeit nicht praktikabel umsetzbar. Untersuchungen zeigen, dass die Einführung zahlreiche Vorteile für die Wahlberechtigten und die Wahlbehörden haben könnte. Die zeitweise Einführung von E-Voting mit Wahlmaschinen wurde jedoch auch rechtlichen Gründen für unzulässig erklärt. So gab es in den letzten Jahren keine neuen Umsetzungsversuche.
Im Rahmen dieser Arbeit wird ein Konzept für eine elektronische Stimmabgabe bei Kommunalwahlen entwickelt. Um das Konzept in das derzeitige Wahlsystem zu integrieren, wird die Briefwahl als Basis gewählt. Unter Zuhilfenahme von Gesetzestexten wird der Ablauf beschrieben und als Prozessdiagramm dargestellt. Anschließend werden Anforderungen an ein E-Voting-System aus der Literatur aufgenommen und durch die Bildung von Kernaussagen konsolidiert. In jedem ermittelten Briefwahl-Prozessschritt wird die Untersuchung elektronischer Möglichkeiten durch die Prüfung der Kernaussagen bewertet. Anschließend wird die geeignetste elektronische Möglichkeit in das Konzept übernommen.
Die ermittelten Möglichkeiten zeigen, dass durch den Einsatz von Vertrauensdiensten und Vertrauensdiensteanbietern die Anforderungen erfüllt werden können. Daraus ergibt sich ein Konzept, welches mithilfe aktueller technischer und rechtlicher Entwicklungen eine elektronische Stimmabgabe ermöglichen kann. Unter der ganzheitlichen Betrachtung des Wahlsystems sind jedoch noch viele Herausforderungen zu beachten, die in dieser Arbeit nicht näher erläutert wurden. Die Entwicklungen der letzten Jahre begünstigen die Konzeptionierung einer elektronischen Stimmabgabe. Diesem steht jedoch weiterhin Herausforderungen durch fehlende rechtliche Bewertung, mangelndes Vertrauen, Gesetze, Verordnungen und Medienbrüche entgegen, die vor dem Einsatz bewältigt werden müssen.
Möglichkeiten der Nachqualifizierung für Quereinsteiger*innen in wissenschaftlichen Bibliotheken
(2022)
Der Fachkräftemangel und die Verschiebung und Diversifizierung von Tätigkeiten prägen die derzeitige Personalsituation in deutschen wissenschaftlichen Bibliotheken. In dieser Arbeit wird die Gruppe der Quereinsteiger*innen auf der Ebene des gehobenen Dienstes definiert und in den Fokus genommen: Anhand einer Umfrage, Recherche und Mailkontakt werden Möglichkeiten der Nachqualifizierung dieser heterogenen Zielgruppe eruiert. Dies betrifft sowohl die externe Personalentwicklung beziehungsweise Weiterbildung (Studiengänge und Zertifikatsprogramme) als auch die interne Personalentwicklung durch die Arbeitgeber. Durch die Perspektive auf die Personalentwicklungsmaßnahmen der Länder Niederlande, Großbritannien und Österreich werden Optimierungsmöglichkeiten für die Personalentwicklung in Deutschland aufgezeigt.
Die Sammlung, Archivierung und Digitalisierung von Botanischen Belegen als Wertschöpfungskette
(2010)
Im Rahmen des Forschungsprojekts Herbar Digital an der Fachhochschule Hannover soll die Digitalisierung von Herbarbelegen um eine Zehnerpotenz auf 2 US-Dollar pro Beleg gesenkt werden. Ein Ansatz zielt auf die Optimierung von Geschäftsprozessen ab. Im Verlauf des Forschungsprojektes hat sich bei der Modellierung von Geschäftsprozessen zur Digitalisierung gezeigt, dass die Prozesse eines Herbariums nicht isoliert betrachtet werden können.<br /> Die vorliegende Untersuchung analysiert daher botanische Aktivitäten der Sammlung, Bestimmung, Digitalisierung, Lagerung und Auswertung von Belegen in acht deutschen Herbarien. So werden Ergebnisse über die Kombination der Ressourcen Arbeitsmittel, Personalien und Informationen in den einzelnen Aktivitäten offen gelegt, die bei der Referenzmodellierung von Geschäftsprozessen angewendet werden können. Die hier gewonnenen Ergebnisse der explorativen Vorgehensweise lassen sich in repräsentativen Untersuchungen tiefergehend analysieren.
In Niedersachsen setzt das Ministerium für Wissenschaft und Kultur seit 2007 ein Hochschulkennzahlensystem ein, um einen Teil des Grundhaushalts wettbewerblich an die Hochschulen zu verteilen. Über die Mittelvergabe hinaus ist ein Monitoringsystem integriert, mit dem die Entwicklung der Hochschulen beurteilt werden kann. Zur differenzierten Beurteilung werden monetäre und nichtmonetäre Hochschuldaten zu Kennzahlen verdichtet. Die Kennzahlen befinden sich jedoch auf einer zu hohen Aggregationsebene für ein hochschulinternes Controlling an der Fachhochschule Hannover. Daher dienen Berichtssysteme mit Standardberichten der Information über hochschulweite Prozesse und Ressourcen, um im zunehmenden Wettbewerb der Fachhochschulen fundierte Entscheidungen treffen zu können. Beispielhaft werden Standardberichte zu erbrachten Lehrleistungen als erste Komponente des nichtmonetären Controllings in einem Berichtssystem konzipiert. Methodisch basiert die Konzeption auf einer Informationsbedarfsanalyse mit induktiven und deduktiven Verfahren. Das Vorgehen lässt sich grundsätzlich auf weitere nichtmonetäre Leistungen (z. B. der Forschung) übertragen und in die konzipierte Struktur integrieren.
Die Forschung am Herbarbeleg ist in der Botanik und der Taxonomie einem Wandel ausgesetzt. Zunehmend werden in Herbarien digitale Kopien verwendet, die neue Auswertungs- und Analysemethoden ermöglichen. Die Entwicklung technischer und wirtschaftlicher Verfahren zur Herbarbeleg-Digitalisierung ist Gegenstand des Forschungsschwerpunkts Herbar Digital der Hochschule Hannover. Das Ziel von Herbar Digital ist es, das System der Virtualisierung von Herbarbelegen und deren Verwaltung so zu automatisieren, dass die Kosten von 20 US-$ auf 2 US-$ reduziert werden. Betrachtet man die Herbarbeleg-Digitalisierung als ein zu planendes 5-Jahres-Investitionsprojekt, dann sind unterschiedliche Szenarien und deren wirtschaftlichen Auswirkungen denkbar. In dem vorliegenden Arbeitspapier werden drei Szenarien entwickelt und soweit operationalisiert, dass sowohl Aussagen einer technischen Investitionsplanung als auch einer wirtschaftlichen Investitionsplanung über den Planungshorizont von 5 Jahren abgeleitet werden. In technischer Hinsicht werden die Produktion, Logistik (inkl. IT) sowie das Personal geplant. Die wirtschaftlichen Aussagen beziehen sich auf Standort- und Betriebsmittelkosten, IT- und Logistikkosten, Personalkosten sowie sonstige Kosten. Um den Projekterfolg sicherzustellen, sind beide Planungsbereiche in einem Konzept für das Investitionscontrolling integriert. Als Ergebnis von Szenario 1 ergeben sich bei einer Produktionsmenge von 1 Mio. digitalen Belegen Ausgaben in Höhe von 2,05 € pro Digitalisat. Das Szenario 1 ist als generelles Forschungsergebnis von Herbar Digital zu verstehen und liefert entsprechend eine Referenzlösung für alle Objekte im Kontext einer musealen Herbarbeleg-Digitalisierung. Bei einer Produktion von 5 Mio. Digitalisaten in Szenario 2 wird von einer Kooperation der Herbarien in Berlin und einem ausländischen Partner mit halben Lohnniveau ausgegangen. Es reduzieren sich die zahlungswirksamen Kosten auf 1,21 € pro Digitalisat. Das Ergebnis aus Szenario 2 bleibt auch in Szenario 3 konstant, worin unter Einbezug eines weiteren inländischen Kooperationspartners 10 Mio. digitale Herbarbelege hergestellt werden. Vermutlich ergeben sich unter den technischen Bedingungen keine weiteren Kostendegressionseffekte.
Neben circa 22.000 verschiedenen kultivierten Pflanzenarten besitzt die Zentraleinrichtung Botanischer Garten und Botanische Museum Berlin-Dahlem (BGBM) ca. 3,8 Millionen konservierter Pflanzenbelege aus aller Welt in seinem Herbarium. Diese Herbarbelege dienen als Grundlage wissenschaftlicher Forschung. Über die Erstellung digitaler Kopien kann das Versenden des empfindlichen Materials verhindert und der Zugang für Forscher erheblich erleichtert werden. Die Prozesse und Methoden der Digitalisierung werden in Herbar Digital untersucht, um eine Senkung der Kosten zu ermöglichen. In dem vorliegenden Arbeitspapier wird der Einsatz einer Balanced Scorecard als Steuerungsinstrument der Herbarbeleg-Digitalisierung untersucht. Das Instrument misst die Zielerreichung und unterstützt so Entscheidungen der Führung. Vision und Strategie der Unternehmung werden in mehreren Perspektiven operationalisiert. Für jedes Ziel sind Indikatoren, Sollwerte, Istwerte und Maßnahmen zu definieren. Die Istwerte werden zu den Indikatoren und Zeitpunkten verdichtet und zeigen so den Zielerreichungsgrad an. In einem individuellen Dashboard werden die Ziele, Indikatoren, Zielwerte, Maßnahmen und weitere Informationen angezeigt und können kommentiert werden. Die Planwerte sind die Basis für den operativen Planungsprozess. Die Struktur sieht vor, dass die Ziel-Dashboards aller Organisationseinheiten einer Hochschule schließlich zu Sub- und Teil-Balanced Scorecards miteinander verknüpft werden können. Es ergibt sich je nach Sachverhalt eine Übersicht über die Ziele und korrespondierenden Indikatoren sowie deren Entwicklung und Maßnahmen. Dies wird am Beispiel der Herbarbeleg-Digitalisierung verdeutlicht.
Die Prozesskostenrechnung zum Kosten- und Leistungsmanagement der Herbarbeleg-Digitalisierung
(2013)
Die Prozesskostenrechnung untersucht die Verteilung der Vollkosten auf die bei der Herbarbeleg-Digitalisierung anfallenden Tätigkeiten (hier exemplarisch in 2010). Außerdem stellt dieses Modell ein Instrument zum Monitoring neu eingesetzter Produkt- und Prozessinnovationen dar. Die Tätigkeiten sind in Projektkostenstellen abgegrenzt, um z. B. nach Einzel- und Gemeinkosten zu unterscheiden. Der Fokus liegt auf der Methodenentwicklung. Die Führungsaufgaben und unterstützenden Tätigkeiten sind in Bezug auf die Leistungsmenge neutral. Ihre Kosten werden auf leistungsmengeninduzierende Kerntätigkeiten umgelegt, die in sieben Phasenbereiche konsolidiert wurden. Für die untersuchten Projekte „Willdenow“ und „Global Plant Initiative“ ergaben sich jeweils Leistungs- und Kostenkennzahlen für die einzelnen Phasenbereiche. Entwicklungsbedarf des Modells besteht u. a. bei der Validität der Kostenträger, Zeichenerfassung, Kosten ehrenamtlicher Tätigkeiten, Reduktion der Komplexität und sonstiger Störungen. Die Prozesskostenrechnung ist als ein weiterführendes Instrument der Vollkostenrechnung entwickelt worden und kann auch als Deckungsbeitragsrechnung betrieben werden. Mit den Ergebnissen wird keine Kontrolle der Aufgabenwahrnehmung einzelner Mitarbeiter verfolgt.
Die Arbeit untersucht die Anwendung von maschinellem Lernen zur Erkennung von Aktivitäten von Schiffen anhand von AIS-Signalen. Das Automatic Identification System (AIS) wird von Schiffen genutzt, um Informationen über ihren Status in regelmäßigen Intervallen zu übertragen. Auf Basis der Daten wurden mithilfe von Machine Learning-Algorithmen aus der Gruppe der überwachten Klassifikationsalgorithmen Modelle gelernt, die in der Lage sind zu erkennen, welcher Aktivität ein Schiff zu einem Zeitpunkt nachgeht.
Da das erfolgreiche Lernen eines Modells von einer sorgfältigen Datenvorbereitung abhängt, wurden verschiedene Verfahren zur Datenvorbereitung verwendet. Anschließend wurden verschiedene Algorithmen eingesetzt, darunter der Random Forest und k-NN, um Modelle zu lernen.
Die Ergebnisse zeigen, dass die Aktivitäten mit einer Genauigkeit von bis zu 99% erkannt werden konnten, wenn in der Datenvorbereitung geeignete Verfahren gewählt wurden.
Die Sozialarbeitswissenschaft hat in den letzten Jahrzehnten ein großes Panorama an theoretischen Ansätzen entwickelt. Dem entspricht jedoch nicht das geringe Selbstbewusstsein, diese Ansätze innerhalb der wissenschaftlichen Disziplinen von den Menschen und ihren Beziehungen zu vertreten, was unter anderem daran liegt, dass noch kein Fundament, keine tragfähige Metatheorie existiert. Der Autor legt hier ein Grundmuster für eine Metatheorie vor, das nicht von anderen Disziplinen Häppchen abkupfert, sondern in einer Analyse des Schattens der abendländisch-europäisch-westlichen Kultur und Gesellschaft gründet. Das Grundmuster „Spaltung“, das die Bewusstseine dressiert, vermittelt er durch den Begriff „Trajektivität“. In ihm begegnen sich Subjektivität-Objektivität, Theorie-Praxis, Leib-Gefühl-denkendes Bewusstsein und andere Antinomien. Hier liegt ein Konzept vor, das Exklusion systematisch verdeutlicht und Anschlussstellen für das gesamte Panorama der Sozialarbeitswissenschaft offen hält.
In der vorliegenden Arbeit wird ein Leitfaden zur Einrichtung eines Informationssicherheitsmanagementsystems bei kleinen und mittleren Unternehmen (KMU) entwickelt. Ein Informationssicherheitsmanagementsystem (ISMS) ist im Grunde eine geordnete Ansammlung an Verfahren, Regeln und Maßnahmen zur Wahrung der Sicherheit von Informationen. Mit diesem System wird die Steuerung und Kontrolle der Informationssicherheit durch strukturierte Vorgehensweisen entscheidend verbessert.
In dieser Bachelorarbeit werden in den ersten Kapiteln die relevanten Normen und Richtlinien (insbesondere aus der DIN EN ISO/IEC 27000 Normenfamilie und aus den Richtlinien der VdS 10000 sowie VdS 10005) betrachtet. Auf dieser Grundlage wird in den darauffolgenden Kapiteln der grundlegende Aufbau eines ISMS für Unternehmen erklärt. Im Anschluss wird diese Thematik auf KMU übertragen. Im weiteren Verlauf wird die Entwicklung des Leitfadens beschrieben, wobei auch auf den allgemeinen Aufbau eines Leitfadens eingegangen wird.
Der eigentliche Leitfaden ist separat als eigenständiges Dokument auf dieser Seite zum Download abrufbar. Er kann losgelöst von dieser Arbeit eingesetzt werden.
Presse-, Informations- und Meinungsfreiheit sind miteinander verbundene Basisrechte. Durch das Recht sich frei zu informieren wird das Recht der freien Meinungsäußerung und damit die freie Presse sichergestellt. Die sich weltweit verändernden Presselagen stellen nicht nur die Pressefreiheit vor Herausforderungen. Durch die Fähigkeit erhaltene Informationen zu verarbeiten, wird die Informationskompetenz der Bevölkerung ermöglicht und sichergestellt. Die Ausübung dieser Kompetenz hingegen ist die Grundlage sich aktiv an demokratischen Prozessen zu beteiligen. Ziel dieser Arbeit ist es, mittels der Rangliste zur Presselage der Reporter ohne Grenzen und anhand der Daten zur Informationsfreiheit des DA2I Dashboards sowie literaturbasierten Kriterien zu untersuchen, inwiefern sich die Lage der Presse- und Informationsfreiheit auf Bibliotheksdienstleistungen öffentlicher Bibliotheken auswirkt. Im Ergebnis wirken sich diese nicht ausschließlich auf den Medienbestand aus. Die Zustände der genannten Basisrechte in einem Staat haben auch Einfluss auf die Veranstaltungsarbeit.
Big-Data-Datenplattformen werden immer beliebter, um große Datenmengen bei Bedarf analysieren zu können. Zu den fünf gängigsten Big-Data-Verarbeitungsframeworks gehören Apache Hadoop, Apache Storm, Apache Samza, Apache Spark, und Apache Flink. Zwar unterstützen alle fünf Plattformen die Verarbeitung großer Datenmengen, doch unterscheiden sich diese Frameworks in ihren Anwendungsbereichen und der zugrunde liegenden Architektur. Eine Reihe von Studien hat sich bereits mit dem Vergleich dieser Big-Data-Frameworks befasst, indem sie sie anhand eines bestimmten Leistungsindikators bewertet haben. Die IT-Sicherheit dieser Frameworks wurde dabei jedoch nicht betrachtet. In diesem Beitrag werden zunächst allgemeine Anforderungen und Anforderungen an die IT-Sicherheit der Datenplattformen definiert. Anschließend werden die Datenplattform-Konzepte unter Berücksichtigung der aufgestellten Anforderungen analysiert und gegenübergestellt.
Die zunehmenden Anwendungsfälle der vertikalen und horizontalen Vernetzung von Automatisierungssystemen erhöhen gleichzeitig auch die Bedrohungen der IT-Sicherheit der relevanten automatisierten technischen Prozesse. Zukünftige Anlagenstrukturen werden stärker vernetzt und dezentralisiert organisiert sein, oder sogar weltweit mit anderen technischen Systemen über das Internet kommunizieren. Dies erfolgt häufig über standardisierte Kommunikationsprotokolle, im Weiteren Middleware genannt. Daher ist die Bedeutung standardisierter Verfahren und Modelle zur Erleichterung der Sicherheitskonfigurationen der Middleware, die die folgenden Anforderungen erfüllen, von wesentlicher Bedeutung:
- Sichere Kommunikation (sichere Middleware)
- Authentifizierung und Autorisierung der Kommunikationspartner auch bei stark vernetzten Systemen und Ad-hoc-Verbindungen
- Einfache Verwaltung von Sicherheitsmaßnahmen ohne erheblichen Mehraufwand für die Organisation
Die bestehende Referenzarchitektur und die Sicherheitsmerkmale der entsprechenden Middleware werden untersucht, um deren Anwendbarkeit in verschiedenen Stufen der Automatisierungspyramide zu ermitteln. Es werden die Sicherheitsmerkmale für eine durchgängig sichere Kommunikation und deren Flexibilität bei der Integration in eine Public Key Infrastruktur (PKI) untersucht. Die bestehenden Zugangskontrollmechanismen und deren Zukunft im Rahmen von Industrie 4.0 werden bewertet. Die Möglichkeiten zur Integration des mit Attributzertifikaten aktivierten Berechtigungsmechanismus im Rahmen von OPC UA werden in diesem Projekt untersucht und als Teil des Demonstrators implementiert. Die Anwendungsrelevanz der entwickelten Lösungen wird gewährleistet, indem die Projektpartner des projektbegleitenden Ausschusses bei der Erstellung und dem Review von Konzepten frühzeitig beteiligt werden.