Refine
Year of publication
Document Type
- Article (525)
- Conference Proceeding (162)
- Bachelor Thesis (148)
- Report (102)
- Working Paper (85)
- Book (73)
- Master's Thesis (66)
- Part of a Book (40)
- Periodical Part (38)
- Study Thesis (25)
- Course Material (18)
- Preprint (14)
- Doctoral Thesis (11)
- Review (7)
- Lecture (4)
- Other (3)
Is part of the Bibliography
- no (1321)
Keywords
- Bibliothek (44)
- Digitalisierung (38)
- Milchwirtschaft (36)
- E-Learning (27)
- Molkerei (27)
- Ausbildung (23)
- Euterentzündung (23)
- Informationsmanagement (22)
- Computersicherheit (21)
- Herbarium (20)
Die Serie von Modellabteilungsrechnungen wird mit der Untersuchung des Kostenverlaufs in der Abteilung Weichkäse fortgefuhrt, um einen weiteren Baustein zur Bestimmung optimaler Produktionsstrukturen zu erhalten. Als Ausgangsposition dieser Themenstellung soll im folgenden die Modellabteilung Weichkäse Gestalt annehmen. Dazu sind drei Arbeitsschritte notwendig: die Festlegung des zu untersuchenden Produktes, die inhaltliche Abgrenzung der zu bildenden Modellabteilung und die Auswahl des Fertigungsverfahrens.
In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.
In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.
Im zweiten Teil dieser Arbeit bilden gemäß den allgemeinen technischen Prozeßbedingungen die maschinellen und baulichen Ausrüstungen der vier Modelle, deren Investitionsbeträge, Nutzungsdauer und Instandhaltungsquote unterabteilungsweise dargestellt sind, den Ausgangspunkt dieses Themenbereiches. Eine Anpassung der technischen Auslegung an eine verringerte Auslastung erfolgte bei einer 65%igen und 33%igen Beschäftigung. Die zu tätigenden Investitionen für die Grundversion (100 % Beschäftigung) betragen im Modell 1 25,0 Mio. DM und im Modell 4 54,5 Mio. DM. Die Mengenverbräuche der Produktionsfaktoren Rohstoff, Personal, Energie, Betriebs- und Hilfsstoffe sowie Reparaturen sind von den spezifischen Modellausstattungen abgeleitet. Es ergeben sich Faktoreinsatzmengen, die mengenproportional auftreten und den Produkten zugeordnet sind, sowie periodenabhängige fixe Verbrauche, die der Abteilung angelastet werden. Anhand einer ausgewählten Beschäftigungssituation, die einem 2-Schichtbetrieb bei 250 Produktionstagen entspricht, wird aufgezeigt, wie sich die auf Abteilungsebene aggregierten Faktoreinsatzmengen in Abhängigkeit von der Modellgröße gestalten. So ergibt sich z.B. im Bereich des Produktionsfaktors Personal, daß für das Modell 1 eine Beschäftigungszahl an Arbeitskräften von 25 und im Modell 4 von 40 vorgesehen ist.
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Mit der vorliegenden Arbeit wird die im Jahr 1975 durchgeführte Modellkalkulation in der H-Milch-Abteilung aktualisiert, indem die Funktionsinhalte der Abteilung erweitert werden und der neueste Stand der Technik entsprechend bestehender Produktionsstrukturen zur Anwendung kommt. Darüber hinaus werden die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen In den Kalkulationen berücksichtigt. Unterteilt in drei Unterabteilungen - Ultrahocherhitzung, Aseptische Abpackung und Lager - wird der Produktionsprozeß zur Herstellung der ausgewählten Produkte H-Vollmilch und teilentrahmte H-Milch hinsichtlich ihrer Kostenverursachung untersucht. Die Bestimmung der Abteilungs- und Stückkosten für H-Milch erfolgt in vier Modellen, deren Kapazitäten entsprechend der Abfülleistung zwischen 5.700 Packungen/Stunde und 34.200 Packungen/Stunde liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, können so die Kosten für Produktionsmengen zwischen 4,6 und 183,4 Mio. Packungen/Jahr ermittelt werden. Die zu tätigenden Investitionen für die Grundversion betragen im Modeln 5,1 Mio. DM, die sich im Modell 4 auf 18,0 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge, die sich zu 40 % aus H-Vollmilch und zu 60 % aus teilentrahmter H-Milch zusammensetzt, ergeben sich aus den Investitionssummen spezifische Investitionen, die sich mit zunehmender Modellgröße von 168 auf 98 DM/1.000 Packungen erheblich senken. Die modellspezifischen Gesamtkosten der Abteilung „H-Milch“, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 75,7 Pf/Packung, die sich im kleinsten Modell auf 78,4 Pf/Packung erhöhen. Die outputbezogenen Einzelkosten der Produkte differieren infolge des unterschiedlichen Fettgehaltes nur in den Rohstoffkosten; in den übrigen Kostenarten wird von den gleichen Produktionsverbräuchen ausgegangen, da für die Herstellung beider Produkte dieselbe Technologie verwendet wird. Bei einem Beschäftigungsgrad von 63 % entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 58-61 % auf die Rohstoffkosten, 3 - 5 % auf die Anlagekosten und 30 % auf die Verpackungskosten. Die übrigen Kostenarten wie Energiekosten mit 3 - 4 % und Personalkosten mit 0,8 -1,5 % sind von geringerer Bedeutung. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind. So empfehlen sich beispielsweise bei verminderten Produktionsmengen Anpassungen in der Ausstattung der Abteilung, die zu sprunghaften Kostensenkungen führen können. Kostendegressionseffekte ergeben sich auch bei der Verringerung der Produktionstage in Beschäftigungssituationen eines 2- und 1-Schichtbetriebes. Wird z.B. in einer Abteilung mit zwei Abfüllanlagen (Modell 2) die Produktion eines 2-Schichtbetriebes von 250 Produktionstagen auf 200 Produktionstage/Jahr konzentriert, lassen sich die Abteilungskosten um 70.000 DM/Jahr verringern
In huge warehouses or stockrooms, it is often very difficult to find a certain item, because it has been misplaced and is therefore not at its assumed position. This position paper presents an approach on how to coordinate mobile RFID agents using a blackboard architecture based on Complex Event Processing.
Ziel der nachfolgenden Arbeit ist die Erhebung des aktuellen Stands der Digitalisierung in der Landwirtschaft. Es gilt herauszufinden, wie weit landwirtschaftliche Betriebe in Deutschland heute bereits digitalisiert sind. Parallel dazu soll erörtert werden, welche Gründe eine weitergehende Digitalisierung gegenwärtig verhindern. Dabei ist zu berücksichtigen, welche Bedeutung Digitalisierung in der Landwirtschaft hat. Zur Beantwortung der Forschungsfrage werden sowohl qualitative (Systematische Literaturanalyse) als auch quantitative Forschungsmethoden (Online-Umfrage mit anschließender statistischer Auswertung) angewendet. Wesentliche Erkenntnisse dieser Arbeit sind, dass die Messung von Digitalisierungsgraden landwirtschaftlicher Betriebe mittels eines Reifegradmodells signifikante Unterschiede in der deutschen Landwirtschaft widerspiegeln und dass der Kostenfaktor einen erheblichen Druck auf den digitalen Wandel im Agrarsektor ausübt. Generationenwechsel, sowie herstellerübergreifende Lösungen stellen neben der Forderung von mehr Unterstützung seitens der Politik und öffentlicher Institutionen Diskussionspunkte dieser Abschlussarbeit dar.
Die vorliegende Arbeit befasst sich mit dem Trend "Gamification" und untersucht an Hand einer Szenario-Analyse, wie sich der Trend auf die Standgestaltung der B2B-Messen im Jahr 2030 auswirken wird.
Hierfür wurde intensive Literaturrecherche betrieben zu den Kernthemen: Gamification, Design, B2B-Messe und Trends im Messewesen.
Nach einer Auswertung dieser Themen in Bezug auf deren Kernelemente und Schlüsselkombinationen wurden 15 Zukunftsprojektionen erstellt, welche anschließend in 3 Szenarien zu Zukunftsbildern ausformuliert wurden.
Fazit der Arbeit ist, dass der Trend Gamification zwar an Bedeutung gewinnt, das Standdesign jedoch nur geringfügig beeinflussen wird. Andere Trendthemen wie Nachhaltigkeit, Sicherheit und die generelle Digitalisierung sowie ein Drang zu Kommunikation werden stärkeren Einfluss auf die Zukunft des Messewesens, und dadurch auch die Standgestaltung bei B2B-Messen, nehmen.
Hintergrund: Das System der pflegerischen Versorgung in Deutschland befindet sich in einer Umbruchphase. Seit Jahren wird über eine Weiterentwicklung der Kooperation im Gesundheitswesen und damit über eine Veränderung der Aufgabenverteilung zwischen den Gesundheitsberufen diskutiert. Im Jahr 2008 hat der Gesetzgeber die Einführung von Modellvorhaben zur Übertragung von Heilkunde auf Pflegende gem. § 63 Abs. 3c SGB V ermöglicht. Die Umsetzung verläuft sehr schleppend. Das Ziel der Untersuchung war, die Gründe für diese schleppende Umsetzung aus Sicht der gesetzlichen Krankenkassen zu analysieren.
Methode: Quantitative Befragung aller gesetzlichen Krankenkassen (n=124) in Deutschland.
Ergebnisse: Zur Sicherstellung der Versorgung halten 94 % der Krankenkassen die Übertragung von Heilkunde auf nichtärztliche Leistungserbringer für einen sinnvollen Ansatz. Sie wird von 96 % der Krankenkassen als sehr wichtig empfunden. Zwar befürworten 96 % der Krankenkassen grundsätzlich die Durchführung von Modellvorhaben, tatsächlich sind aber nur 8 % an derartigen Verträgen beteiligt; 71 % der Krankenkassen planen auch keine eigenen Modellvorhaben für die Zukunft.
Als mögliche Ursachen für die bislang schleppende Umsetzung werden aus Sicht der GKV insbesondere rechtliche Hürden (90 %), Widerstand durch ärztliche Standesvertreter (84 %), ungeklärte Finanzierungs- (74 %) und Haftungsfragen (70 %) sowie nicht-praxistaugliche Regelungen in der G-BA-Richtlinie (79 %) und im Gesetz (85 %) angeführt. Weniger als die Hälfte (46 %) der Krankenkassen vermutet hohe Kosten als Ursache für die schleppende Umsetzung.
Diskussion: Die vom Gesetzgeber im aktuellen Pflegeberufereformgesetz (PflBRefG) vorgenommenen Änderungen, insbesondere die Tatsache, dass Krankenkassen entsprechende Modellvorhaben bis zum 31. Dezember 2020 vereinbaren und durchführen sollen, sind vor dem Hintergrund der geäußerten Kritik als zielführend und adäquat zu bezeichnen.
Wie kann man den empfundenen Alltagsstress bewältigen und eigene, sinnvolle Ziele erreichen? Woher kommt die Zeitnot und was kann man tun? Gibt es Faktoren, die Glück und Erfolg fördern? Was kann man in seinem Studien- und Arbeitsalltag tun, um sich wohl zu fühlen und erfolgreich zu sein? Welche Zeitmanagement-Tools helfen bei der Organisation von Studium und Arbeitsalltag?
Diese und weitere Fragen werden im Workbook beantwortet. Der Selbstmanagement-Prozesskreis wird vorgestellt, verschiedene Modelle, Prinzipien und Techniken werden vermittelt. Mit vielen Reflexionsfragen und Übungen.
Gender und Diversity spielen in der Wirtschaft und Verwaltung eine große Rolle. Der Begriff Gender beschreibt das soziale Geschlecht. In unserer Wahrnehmung unterscheiden wir zwischen männlich und weiblich und ordnen entsprechende Attribute zu. Die Differenzierung geschieht auf individueller, interaktionaler und institutionaler Ebene und ist immer mit Wertungen versehen (Gender Orders). Dadurch kommt es zu Ungleichheiten und Ungerechtigkeiten. Der Begriff „Diversity“ (Vielfalt) beschreibt die Vielfalt der Mitglieder (z.B. die Mitarbeitenden), der Bezugsgruppen (z.B. Geldgeber) und der Kunden einer Organisation bzw. eines Betriebes. Unterschieden werden Geschlecht, Kultur, Alter, Behinderung, familiäre Situation und sexuelle Orientierung. Ziel von Gender Mainstreaming und Diversity Management ist es, Chancengleichheit im Unternehmen bzw. in der Verwaltung zu schaffen. Chancengleichheit als personalpolitisches Ziel beinhaltet den Abbau von Diskriminierungen, gleiche Rechte und Chancen und Möglichkeiten sowie die sinnvolle Berücksichtigung und Einbeziehung der verschiedenen Mitarbeiter- und Kundengruppen. In dem folgenden Artikel werden Gender Mainstreaming und Diversity Management und deren Instrumente beschrieben. Eine Checkliste, Praxis und Fallbeispiele ermöglichen das Bearbeiten des Themas und die Umsetzung in die Praxis.
Gender und Kommunikation
(2010)
In diesem Artikel werden die Zusammenhänge zwischen Gender und Kommunikation erörtert, an Fallbeispielen und Untersuchungen erläutert und reflektiert. Der Begriff Gender beschreibt das soziale Geschlecht. Der Prozess der Kommunikation besteht aus Encodieren und Decodieren auf der nonverbalen, paraverbalen und verbalen Ebene. Dies wird unter anderem von Gender beeinflusst. Durch das Konzept des Doing Gender werden Wahrnehmungen, Kommunikationsverhalten sowie die statistischen Gegebenheiten und Rahmenbedingungen, in denen sich die Kommunikation abspielt, analysiert. Geschlechtstypische kommunikative Muster werden beschrieben und deren Grenzen durch Rahmenbedingungen reflektiert.
In diesem Beitrag wird zunächst geklärt, was der Begriff Authentizität beinhaltet und was entsprechend authentische Führung bedeutet. Im dritten Kapitel geht es ausführlich um den Begriff der Persönlichkeit und ausgewählte Theorien der Persönlichkeitspsychologie. Das vierte Kapitel beschäftigt sich mit Professionalität und professioneller Führung. Anschließend werden die Ausführungen stärker auf die berufliche Praxis bezogen. Im fünften Kapitel werden zwei ausgewählte Persönlichkeitstests vorgestellt, die auch in Unternehmen im Recruitment von Führungskräften eingesetzt werden. Das sechste Kapitel befasst sich mit Konzepten und Techniken zur Persönlichkeitsentwicklung. Im siebten Kapitel wird noch einmal ein Fazit gezogen. Die in der Einleitung aufgeworfenen Fragen werden zusammenfassend beantwortet.
Zunächst werden ausgewählte Theorien und Modelle zu Persönlichkeit dargestellt, der Bezug zu Führungseigenschaften und Führungsverhalten wird gezogen. Im dritten Kapitel wird Führung definiert und vertiefend erläutert. Nach einem Modell von Schulz von Thun werden in den nachfolgenden Kapiteln Wesensgemäße Führung, Situationsgerechte Führung sowie Metakommunikative Führung anhand ausgewählter Modelle erörtert. Danach wird spezifisch auf die Führungsbeziehung eingegangen (wobei natürlich auch Kommunikation sich bereits mit der Beziehung von Führungskraft und Mitarbeiter befasst). Abschließend werden die eingangs aufgeworfenen Fragen beantwortet.
In diesem Text werden Moderationsmethode und Moderationszyklus erläutert. Die einzelnen Phasen und deren Bausteine werden beschrieben. Durch viele Beispiele soll die Anwendung der Bausteine erleichtert werden. Durch die Anwendungsbeispiele der Bausteine sowie die Erläuterungen zu Moderationsvorbereitung und Moderatorenrolle (Haltung und Fragetechnik) sollen die Lesenden in die Lage versetzt werden, die Moderationsmethode nach der Teilnahme an der Beispielmoderation und deren Reflexion selbst anzuwenden.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership".
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership". Checklisten, Übungen, Arbeitsblätter, Links und Foliensätze.
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Checklisten, Übungen, Arbeitsblätter, Links und Foliensätze. Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Recent developments in the field of deep learning have shown promising advances for a wide range of historically difficult computer vision problems. Using advanced deep learning techniques, researchers manage to perform high-quality single-image super-resolution, i.e., increasing the resolution of a given image without major losses in image quality, usually encountered when using traditional approaches such as standard interpolation. This thesis examines the process of deep learning super-resolution using convolutional neural networks and investigates whether the same deep learning models can be used to increase OCR results for low-quality text images.
Die vorliegende Bachelorarbeit stellt den Einsatz von Social Software beim Regionalfernsehsender „h1 – Fernsehen aus Hannover“ dar. Nach einem kurzen Einblick in die Grundlagen von Social Software folgt die Vorstellung des Senders. Hierbei wird vor allem der organisatorische Aufbau und die Kommunikation im Sender näher betrachtet. Anschließend wird dargestellt, welche Informationsmittel bei h1 durch den Einsatz von Social Software ersetzt wurden und wie sich dadurch die Kommunikation und das Informationsmanagement innerhalb des Unternehmens verbessert hat.
Angebote Kultureller Bildung im Kontext von Prävention arbeiten vor allem mit Jugendlichen, die im Sinne des Empowerment-Ansatzes gestärkt werden sollen, um gegen Rechtsextremismus einzutreten. Selten gibt es Projekte, die mit Jugendlichen arbeiten, die rechtsextreme Orientierungen aufweisen. Ausgehend von unterschiedlichen Dimensionen der Präventionsarbeit mit Jugendlichen in Radikalisierungsprozessen stellt der Beitrag mehrere Handlungsfelder der Kulturellen Bildung dar, in denen sich sowohl besondere Potenziale als auch Ambivalenzen der Jugendkulturarbeit mit rechtsorientierten Jugendlichen ergeben. Dabei zeigt sich, dass es für eine erfolgversprechende künstlerisch-pädagogische Arbeit mit rechtsorientierten Jugendlichen nicht nur eines besonderen milieuspezifischen Wissens über die Lebenswelt der rechtsextremen Szene bedarf. Diese Arbeit erfordert auch eine pädagogische sowie politische Haltung, die rechtsorientierte Jugendliche als Personen und Menschen mit Bedürfnissen, Träumen, Lebenszielen usw. anerkennt und mit einer milieuübergreifenden, diversitätsbewussten Perspektive die unterschiedlichen Wege und Faktoren, die zu einer „rechten Karriere“ führen können, in der jugendkulturellen Arbeit berücksichtigt, ohne die menschenverachtenden Weltbilder zu akzeptieren.
Streptococcus dysgalactiae is among the most important pathogens causing bovine mastitis. Unfortunately, there is presently a lack of clear knowledge about the mode of transmission — contagious or environmental — of this pathogen. To obtain more information on this, knowledge of the genetic diversity of the isolated microorganisms at the farm level can be useful. To observe the strain variety in different herds of cattle, isolates of Strep. dysgalactiae were collected from clinical mastitis samples at different farms, and the strains were typed using the pulsed-field gel electrophoresis (PFGE) method. Overall, we performed strain typing on 93 isolates from 16 farms in Germany and used an index to describe the degree of contagiosity of Strep. dysgalactiae at each farm. This index (CI) represents the number of isolates divided by the number of strains found in mastitis milk of clinical cases within a period of 14 months. The results differed between the farms. In one farm, all six Strep. dysgalactiae cases that occurred during the study period were caused by a single strain (CI = 6), while in another farm the six cases that occurred were caused by five different strains (CI = 1.2). All other farms fell between these two extremes. This indicates that Strep. dysgalactiae infections can occur via several routes of transmission. At the farm level, strain comparisons are necessary to determine the routes of transmission. Two strains were able to survive on the farm for a minimum of 14 months.
Milk concentrates are used in the manufacturing of dairy products such as yogurt and cheese or are processed into milk powder. Processes for the nonthermal separation of water and valuable milk ingredients are becoming increasingly widespread at farm level. The technical barriers to using farm-manufactured milk concentrate in dairies are minimal, hence the suspicion that the practice of on-farm raw milk concentration is still fairly uncommon for economic reasons. This study, therefore, set out to investigate farmers’ potential willingness to adopt a raw milk concentration plant. The empirical analysis was based on discrete choice experiments with 75 German dairy farmers to identify preferences and the possible adoption of on-farm raw milk concentration. The results showed that, in particular, farmers who deemed the current milk price to be insufficient viewed on-farm concentration using membrane technology as an option for diversifying their milk sales. We found no indication that adoption would be impeded by a lack of trustworthy information on milk processing technologies or capital.
Cradle to Cradle – An analysis of the market potential in the German outdoor apparel industry
(2016)
The purpose of this study is to investigate the market potential in the German outdoor apparel industry by focusing on sustainable production in terms of environmental and human health. A literature study of the Cradle to Cradle (C2C) design concept is provided, as it represents a solution for pollution, waste and environmental destruction caused by the current industrial design and waste management. The data for the subsequent market- and competitive analysis of the German outdoor apparel industry was collected through secondary research in order to identify several key market indicators for the assessment of the market potential. The outcome of this research is the identification of a positioning strategy for outdoor apparel according to the C2C design concept. The results show stagnant growth rates in recent years in the German outdoor apparel market and strong rivalry among the competitors. However, a significant market potential was calculated and beneficial trends for sustainable outdoor brands were recognised. These findings reveal the existence of a market potential for an outdoor apparel brand according to the C2C design concept. By following a positioning strategy of transparency and full commitment to a sustainable production, the company might be able to gain market shares from its competitors, as future predictions indicate slow growth rates in the market. The results of this analysis can be of great interest for entrepreneurs that plan to enter the German outdoor apparel industry.
Die Bachelorarbeit "Content-Strategien im Luxusmodemarketing" befasst sich mit den jeweiligen Besonderheiten von Content-Strategie und Luxusmodemarketing. Diese Ansatzpunkte werden zur Hilfe genommen, um die jeweiligen Disziplinen aufeinander zu beziehen. Dabei spielen bei der Content-Strategie die Faktoren Zielgruppe, Zeitpunkt, Inhalt, Kanäle und Formate eine übergeordnete Rolle, während im Luxusmodemarketing die Symbolkraft der Marke, die Saisonalität der Mode, die Visualität sowie die Akzeptanz seitens des Konsumenten von Bedeutung sind. Mithilfe dieser Kernaspekte, die in dieser Arbeit anhand von Theorien und Modellen untersucht werden, können Bezugspunkte zu den beiden Disziplinen hergestellt werden.
Der Theorieteil erläutert diese Facetten und arbeitet heraus, welche genauen Muster innerhalb der Content-Strategie sowie des Luxusmodemarketings vorliegen. Schließlich beschreibt der Anwendungsteil, wie die relevanten Zielgruppen, die passenden Inhalte, der richtige Zeitpunkt, die erforderlichen Kanäle und die angemessenen Formate auszusehen haben, um eine Content-Strategie erfolgreich im Luxusmodemarketing zu implementieren. Diese Arbeit versucht dies anhand der gewonnenen theoretischen Erkenntnisse sowie entsprechenden Praxisbeispielen näher zu betrachten.
The paper presents a comprehensive model of a banking system that integrates network effects, bankruptcy costs, fire sales, and cross-holdings. For the integrated financial market we prove the existence of a price-payment equilibrium and design an algorithm for the computation of the greatest and the least equilibrium. The number of defaults corresponding to the greatest price-payment equilibrium is analyzed in several comparative case studies. These illustrate the individual and joint impact of interbank liabilities, bankruptcy costs, fire sales and cross-holdings on systemic risk. We study policy implications and regulatory instruments, including central bank guarantees and quantitative easing, the significance of last wills of financial institutions, and capital requirements.
Das Metavorhaben „Partizipation, Praxisbezug, Ethik und Monitoring in der Förderlinie ‚sexualisierte Gewalt in pädagogischen Kontexten‘ (ParPEM)“, zielt auf die inhaltliche Begleitung der vom BMBF am 7.11.2016 ausgeschriebenen Anschlussförderlinie ab, durch die fünf Einzelvorhaben und elf Verbundvorhaben gefördert werden. Dieser Schlussbericht fasst die Forschungsergebisse des Teilprojekts „Münster“ zusammen.
Automatic classification of scientific records using the German Subject Heading Authority File (SWD)
(2012)
The following paper deals with an automatic text classification method which does not require training documents. For this method the German Subject Heading Authority File (SWD), provided by the linked data service of the German National Library is used. Recently the SWD was enriched with notations of the Dewey Decimal Classification (DDC). In consequence it became possible to utilize the subject headings as textual representations for the notations of the DDC. Basically, we we derive the classification of a text from the classification of the words in the text given by the thesaurus. The method was tested by classifying 3826 OAI-Records from 7 different repositories. Mean reciprocal rank and recall were chosen as evaluation measure. Direct comparison to a machine learning method has shown that this method is definitely competitive. Thus we can conclude that the enriched version of the SWD provides high quality information with a broad coverage for classification of German scientific articles.
We present a simple method to find topics in user reviews that accompany ratings for products or services. Standard topic analysis will perform sub-optimal on such data since the word distributions in the documents are not only determined by the topics but by the sentiment as well. We reduce the influence of the sentiment on the topic selection by adding two explicit topics, representing positive and negative sentiment. We evaluate the proposed method on a set of over 15,000 hospital reviews. We show that the proposed method, Latent Semantic Analysis with explicit word features, finds topics with a much smaller bias for sentiments than other similar methods.
Regional Innovation Systems describe the relations between actors, structures and infrastructures in a region in order to stimulate innovation and regional development. For these systems the collection and organization of information is crucial. In the present paper we investigate the possibilities to extract information from websites of companies. First we describe regional innovation systems and the information types that are necessary to create them. Then we discuss the possibilities of text mining and keyword extraction techniques to extract this information from company websites. Finally, we describe a small scale experiment in which keywords related to economic sectors and commodities are extracted from the websites of over 200 companies. This experiment shows what the main challenges are for information extraction from websites for regional innovation systems.
Library of Congress Subject Headings (LCSH) are popular for indexing library records. We studied the possibility of assigning LCSH automatically by training classifiers for terms used frequently in a large collection of abstracts of the literature on hand and by extracting headings from those abstracts. The resulting classifiers reach an acceptable level of precision, but fail in terms of recall partly because we could only train classifiers for a small number of LCSH. Extraction, i.e., the matching of headings in the text, produces better recall but extremely low precision. We found that combining both methods leads to a significant improvement of recall and a slight improvement of F1 score with only a small decrease in precision.
Diese Studie untersucht Gruppen von Ortsnamen in Deutschland (in den Postleitregionen) nach vorhandenen Ähnlichkeiten. Als Messgröße wird ein Häufigkeitsvektor von Trigrammen in jeder Gruppe herangezogen. Mit der Anwendung des Average Linkage-Algorithmus auf die Messgröße werden Cluster aus räumlich zusammenhängenden Gebieten gebildet, obwohl das Verfahren keine Kenntnis über die Lage der Cluster zueinander besitzt. In den Clustern werden die zehn häufigsten n-Gramme ermittelt, um charakteristische Wortpartikel darzustellen. Die von den Clustern umschriebenen Gebiete lassen sich zwanglos durch historische oder linguistische Entwicklungen erklären. Das hier verwendete Verfahren setzt jedoch kein linguistisches, geographisches oder historisches Wissen voraus, ermöglicht aber die Gruppierung von Namen in eindeutiger Weise unter Berücksichtigung einer Vielzahl von Wortpartikeln in einem Schritt. Die Vorgehensweise ohne Vorwissen unterscheidet diese Studie von den meisten bisher angewendeten Untersuchungen.
We compare the effect of different text segmentation strategies on speech based passage retrieval of video. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video, using speech transcripts, no author defined segmentation is available. We compare retrieval results from 4 different types of segments based on the speech channel of the video: fixed length segments, a sliding window, semantically coherent segments and prosodic segments. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusion is that the retrieval results highly depend on the right choice for the segment length. However, results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently less segments have to be considered at retrieval time.
Distributional semantics tries to characterize the meaning of words by the contexts in which they occur. Similarity of words hence can be derived from the similarity of contexts. Contexts of a word are usually vectors of words appearing near to that word in a corpus. It was observed in previous research that similarity measures for the context vectors of two words depend on the frequency of these words. In the present paper we investigate this dependency in more detail for one similarity measure, the Jensen-Shannon divergence. We give an empirical model of this dependency and propose the deviation of the observed Jensen-Shannon divergence from the divergence expected on the basis of the frequencies of the words as an alternative similarity measure. We show that this new similarity measure is superior to both the Jensen-Shannon divergence and the cosine similarity in a task, in which pairs of words, taken from Wordnet, have to be classified as being synonyms or not.
Lemmatization is a central task in many NLP applications. Despite this importance, the number of (freely) available and easy to use tools for German is very limited. To fill this gap, we developed a simple lemmatizer that can be trained on any lemmatized corpus. For a full form word the tagger tries to find the sequence of morphemes that is most likely to generate that word. From this sequence of tags we can easily derive the stem, the lemma and the part of speech (PoS) of the word. We show (i) that the quality of this approach is comparable to state of the art methods and (ii) that we can improve the results of Part-of-Speech (PoS) tagging when we include the morphological analysis of each word.
We compare the effect of different segmentation strategies for passage retrieval of user generated internet video. We consider retrieval of passages for rather abstract and complex queries that go beyond finding a certain object or constellation of objects in the visual channel. Hence the retrieval methods have to rely heavily on the recognized speech. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video no author defined paragraph structure is available. We compare retrieval results from 5 different types of segments: segments defined by shot boundaries, prosodic segments, fixed length segments, a sliding window and semantically coherent segments based on speech transcripts. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusions are (1) that fixed length and coherent segments are clearly superior to segments based on speaker turns or shot boundaries; (2) that the retrieval results highly depend on the right choice for the segment length; and (3) that results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently fewer segments have to be considered at retrieval time.
The dependency of word similarity in vector space models on the frequency of words has been noted in a few studies, but has received very little attention. We study the influence of word frequency in a set of 10 000 randomly selected word pairs for a number of different combinations of feature weighting schemes and similarity measures. We find that the similarity of word pairs for all methods, except for the one using singular value decomposition to reduce the dimensionality of the feature space, is determined to a large extent by the frequency of the words. In a binary classification task of pairs of synonyms and unrelated words we find that for all similarity measures the results can be improved when we correct for the frequency bias.
This paper describes the approach of the Hochschule Hannover to the SemEval 2013 Task Evaluating Phrasal Semantics. In order to compare a single word with a two word phrase we compute various distributional similarities, among which a new similarity measure, based on Jensen-Shannon Divergence with a correction for frequency effects. The classification is done by a support vector machine that uses all similarities as features. The approach turned out to be the most successful one in the task.
This paper presents a possibility to extend the formalism of linear indexed grammars. The extension is based on the use of tuples of pushdowns instead of one pushdown to store indices during a derivation. If a restriction on the accessibility of the pushdowns is used, it can be shown that the resulting formalisms give rise to a hierarchy of languages that is equivalent with a hierarchy defined by Weir. For this equivalence, that was already known for a slightly different formalism, this paper gives a new proof. Since all languages of Weir's hierarchy are known to be mildly context sensitive, the proposed extensions of LIGs become comparable with extensions of tree adjoining grammars and head grammars.
In this paper we investigate how concreteness and abstractness are represented in word embedding spaces. We use data for English and German, and show that concreteness and abstractness can be determined independently and turn out to be completely opposite directions in the embedding space. Various methods can be used to determine the direction of concreteness, always resulting in roughly the same vector. Though concreteness is a central aspect of the meaning of words and can be detected clearly in embedding spaces, it seems not as easy to subtract or add concreteness to words to obtain other words or word senses like e.g. can be done with a semantic property like gender.
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
PROFINET Security: A Look on Selected Concepts for Secure Communication in the Automation Domain
(2023)
We provide a brief overview of the cryptographic security extensions for PROFINET, as defined and specified by PROFIBUS & PROFINET International (PI). These come in three hierarchically defined Security Classes, called Security Class 1, 2 and 3. Security Class 1 provides basic security improvements with moderate implementation impact on PROFINET components. Security Classes 2 and 3, in contrast, introduce an integrated cryptographic protection of PROFINET communication. We first highlight and discuss the security features that the PROFINET specification offers for future PROFINET products. Then, as our main focus, we take a closer look at some of the technical challenges that were faced during the conceptualization and design of Security Class 2 and 3 features. In particular, we elaborate on how secure application relations between PROFINET components are established and how a disruption-free availability of a secure communication channel is guaranteed despite the need to refresh cryptographic keys regularly. The authors are members of the PI Working Group CB/PG10 Security.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
»Digital(isiert)e« Beratung verspricht neben Innovation auch Flexibilität, Ubiquität, Globalität, Geschwindigkeit und Legitimität durch evidenzbasierte Wirksamkeit. Für eine sozialwissenschaftlich fundierte arbeitsweltliche Beratung wie Coaching und Supervision ist danach zu fragen, welches Menschen- und Weltbild sich hinter der Digitalisierung verbirgt und welche Anliegen sie transportiert. Dazu wird mit den Theorien Michel Foucaults der gegenwärtige Diskurs auf Steuerungslogiken und Machtverhältnisse hin kritisch analysiert. Dabei zeigt sich, dass die Digitalisierung das »Zeitalter der Gouvernementalität« (Foucault) festigt: Humanistisch geprägte Werte und Ziele wie Reflexion, Anerkennung und Selbsterkenntnis treten in den Hintergrund, während die Nutzbarmachung und Optimierung des Selbst sowie des Beratungsprozesses wichtiger werden: Beratung will und muss effizienzgetrieben ihre Wirksamkeit evidenzbasiert legitimieren, und Digitalisierung erleichtert dies.