Refine
Year of publication
Document Type
- Article (225) (remove)
Language
- German (225) (remove)
Has Fulltext
- yes (225)
Is part of the Bibliography
- no (225)
Keywords
- Milchwirtschaft (35)
- Molkerei (27)
- Logistik (20)
- Supervision (11)
- Kostenschätzung (8)
- Software (8)
- Bibliothek (7)
- PPS (7)
- Beratung (6)
- Betriebsdatenerfassung (6)
Die empfindliche Verteuerung des Rohöls im Laufe der letzten Jahre und die in ihrem Sog erfolgten Preissteigerungen auch für die anderen Energieträger haben Energie zu einem besonders kostbaren Wirtschaftsgut werden lassen. Es ist ganz deutlich geworden, dass Energie in allen Lebens- und Produktionsbereichen äußerst sparsam verwendet und optimal genutzt werden muss. Mittel- und langfristig gesehen sind daher gezielt Anstrengungen zu unternehmen, nicht einen Brennstoff durch einen anderen zu ersetzen, sondern - wo immer auch möglich - die natürlcihen Energiequellen zu nutzem.
Fenster versorgen die Innenräume mit Tageslicht, dienen der Lufterneuerung in den Räumen und schützen vor Umwelteinflüssen wie Kälte, Wärme, Lärm, Wind und Niederschlägen. Entsprechend weitgefächert ist das Spektrum deer planungsrelevanten Aspekte. Sowohl licht-, lüftungs-, wärme-, schall und wohntechnische als auch hygienische, psychologische und nicht zuletzt wirtschaftliche Gesichtspunkte sind bei edr täglichen Arbeit zu beachten.
Die Funktion eines Gebäudes, seine flächenmäßige Ausdehnung und seine Gliederung sowie seine Einbettung in die Umgebung bestimmen letztendlich die Dachkonstruktion. Der Planer steht hierbei vor der Aufgabe, unter Beachtung aller bauphysikalischen wie bautechnischen Gegebenheiten ein Optimum an gestalterischer Qualität bei Respektierung wirtschaftlicher und baupraktischer Belange zu realisieren, wobei zu beachten ist, dass gerade das Dach von den die Gebäudehülle bildenden Bauteilen der größten und unmittelbarsten Beanspruchung unterliegt.
Bei der Integration technischer Energiemanagementsysteme (tEnMS) in Automatisierungsanlagen fällt ein hoher Engineering-Aufwand an, besonders für die Steuerungsprogrammierung. Dieser Engineering-Aufwand ist für industrielle Anwender der Hauptgrund, integrierte tEnMS nicht einzusetzen. Im Rahmen des Forschungsprojektes „Integriertes Anlagenengineering zur Erhöhung der Energieeffizienz (IAE4)“ (Förderkennzeichen: ZN2948; Forschungsprofessur des Landes Niedersachsen/Volkswagenstiftung) wurde untersucht, wie sich dieser Engineering-Aufwand reduzieren lässt. Hierzu wurde ein Software-Werkzeug entwickelt, das die benötigten Steuerungsprogramme automatisch aus Engineering-Daten und Gerätebeschreibungsdateien generiert. Dieser Beitrag stellt die Ergebnisse des IAE4-Projektes vor.
Der Aufsatz erläutert anschaulich, wie der Transport der elektrischen Energie vom Erzeuger zum Verbraucher im Detail erfolgt. Die Rechnung mit Hilfe grundlegender Beziehungen aus den Grundlagen der Elektrotechnik und dem Poynting-Vektor ermöglicht es, den physikalisch realen Transport der Energie räumlich quantitativ nachzuvollziehen und zu verstehen. An vereinfachten Beispielen wird gezeigt, wie die Energie über zwei Sammelschienen zu den Verbrauchern und insbesondere in die Verbraucher hinein gelangt. Bei den Verbrauchern handelt es sich exemplarisch um einen Widerstand, einen Kondensator, eine Spule und schließlich einen bewegten Leiter im magnetischen Feld als einfachste Form eines Gleichstrommotors. Es wird dargestellt, dass die Energie keinesfalls in den Zuleitungen transportiert wird, sondern durch den umgebenden Raum.
Für Fachangestellte für Medien- und Informationsdienste (FaMIs) ist berufsbegleitendes Studieren eine erfolgreiche Maßnahme zur Höherqualifizierung. Bibliotheken können ihrerseits im Rahmen der Personalentwicklung mit der Unterstützung von studierenden Mitarbeitenden dem Fachkräftemangel entgegenwirken. Der Beitrag stellt die Personalentwicklungsmaßnahme am Beispiel des Bachelor-Studiengangs „Informationsmanagement – berufsbegleitend“ der Hochschule Hannover vor. Es werden Informationen aus der Beratungspraxis dargelegt und die mögliche Unterstützung durch die entsendenden Bibliotheken aufgezeigt.
In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.
Die Milchwirtschaft will höhere Preise für Speisequark erlösen. Begründet wird dies mit der in der Bundesrepublik Deutschland gesetzlich verordneten Trockenmasseanhebung des Speisequarks von 17% auf 18%. Da diese Änderung zum 1. Januar 1987 bereits in Kraft trat und den Molkereiunternehmen lange vorher bekannt war, ist die Frage zu stellen, warum eine Änderung der variablen Kosten, von der alle Hersteller gleichermaßen betroffen sind, so schwer am Markt in entsprechende Preisanhebungen umzusetzen ist.
Methodische Weiterentwicklungen der Modellabteilungsrechnung für milchwirtschaftliche Betriebe
(1990)
Vor 15 Jahren wurde der erste Beitrag einer Serie von Modellabteilungsrechnungen mit dem Ziel veröffentlicht, der Praxis und Wissenschaft nachvollziehbare Planungshilfen
für die Gestaltung optimaler Produktionsstrukturen in der Milchwirtschaft an die Hand zu geben. Dieses Ziel gilt auch heute noch, jedoch hat sich im Laufe der Zeit immer
deutlicher herauskristallisiert, daß eine Fortschreibung der Faktorpreise sowie eine gelegentliche Aktualisierung der Faktormengenverbräuche in Anpassung an neue technologische Entwicklungen allein nicht ausreichen, die selbstgesetzen Ansprüche an die Modellabteilungsrechnung zu erfüllen.
In der Bundesrepublik Deutschland gibt es rund 200000 Lieferstellen für Molkereiprodukte vom industriellen Großverbraucher bis zum Facheinzelhändler mit Milchproduktenangebot. Gut die Hälfte der gesamten Nachfrage schöpfen die Zentralläger sowie die Geschäfte des Lebensmitteleinzelhandels ab, wobei die Belieferung des LEH weitestgehend auf Strecke erfolgt. - Dipl.-Wirtsch.-Ing. Heinrich Wietbrauk von der Bundesanstalt für Milchforschung in Kiel analysiert für „dynamik im handel" die milchwirtschaftlichen Warenströme in Deutschland.
Die Serie von Modellabteilungsrechnungen wird mit der Untersuchung des Kostenverlaufs in der Abteilung Weichkäse fortgefuhrt, um einen weiteren Baustein zur Bestimmung optimaler Produktionsstrukturen zu erhalten. Als Ausgangsposition dieser Themenstellung soll im folgenden die Modellabteilung Weichkäse Gestalt annehmen. Dazu sind drei Arbeitsschritte notwendig: die Festlegung des zu untersuchenden Produktes, die inhaltliche Abgrenzung der zu bildenden Modellabteilung und die Auswahl des Fertigungsverfahrens.
In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.
In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.
Im zweiten Teil dieser Arbeit bilden gemäß den allgemeinen technischen Prozeßbedingungen die maschinellen und baulichen Ausrüstungen der vier Modelle, deren Investitionsbeträge, Nutzungsdauer und Instandhaltungsquote unterabteilungsweise dargestellt sind, den Ausgangspunkt dieses Themenbereiches. Eine Anpassung der technischen Auslegung an eine verringerte Auslastung erfolgte bei einer 65%igen und 33%igen Beschäftigung. Die zu tätigenden Investitionen für die Grundversion (100 % Beschäftigung) betragen im Modell 1 25,0 Mio. DM und im Modell 4 54,5 Mio. DM. Die Mengenverbräuche der Produktionsfaktoren Rohstoff, Personal, Energie, Betriebs- und Hilfsstoffe sowie Reparaturen sind von den spezifischen Modellausstattungen abgeleitet. Es ergeben sich Faktoreinsatzmengen, die mengenproportional auftreten und den Produkten zugeordnet sind, sowie periodenabhängige fixe Verbrauche, die der Abteilung angelastet werden. Anhand einer ausgewählten Beschäftigungssituation, die einem 2-Schichtbetrieb bei 250 Produktionstagen entspricht, wird aufgezeigt, wie sich die auf Abteilungsebene aggregierten Faktoreinsatzmengen in Abhängigkeit von der Modellgröße gestalten. So ergibt sich z.B. im Bereich des Produktionsfaktors Personal, daß für das Modell 1 eine Beschäftigungszahl an Arbeitskräften von 25 und im Modell 4 von 40 vorgesehen ist.
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Mit der vorliegenden Arbeit wird die im Jahr 1975 durchgeführte Modellkalkulation in der H-Milch-Abteilung aktualisiert, indem die Funktionsinhalte der Abteilung erweitert werden und der neueste Stand der Technik entsprechend bestehender Produktionsstrukturen zur Anwendung kommt. Darüber hinaus werden die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen In den Kalkulationen berücksichtigt. Unterteilt in drei Unterabteilungen - Ultrahocherhitzung, Aseptische Abpackung und Lager - wird der Produktionsprozeß zur Herstellung der ausgewählten Produkte H-Vollmilch und teilentrahmte H-Milch hinsichtlich ihrer Kostenverursachung untersucht. Die Bestimmung der Abteilungs- und Stückkosten für H-Milch erfolgt in vier Modellen, deren Kapazitäten entsprechend der Abfülleistung zwischen 5.700 Packungen/Stunde und 34.200 Packungen/Stunde liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, können so die Kosten für Produktionsmengen zwischen 4,6 und 183,4 Mio. Packungen/Jahr ermittelt werden. Die zu tätigenden Investitionen für die Grundversion betragen im Modeln 5,1 Mio. DM, die sich im Modell 4 auf 18,0 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge, die sich zu 40 % aus H-Vollmilch und zu 60 % aus teilentrahmter H-Milch zusammensetzt, ergeben sich aus den Investitionssummen spezifische Investitionen, die sich mit zunehmender Modellgröße von 168 auf 98 DM/1.000 Packungen erheblich senken. Die modellspezifischen Gesamtkosten der Abteilung „H-Milch“, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 75,7 Pf/Packung, die sich im kleinsten Modell auf 78,4 Pf/Packung erhöhen. Die outputbezogenen Einzelkosten der Produkte differieren infolge des unterschiedlichen Fettgehaltes nur in den Rohstoffkosten; in den übrigen Kostenarten wird von den gleichen Produktionsverbräuchen ausgegangen, da für die Herstellung beider Produkte dieselbe Technologie verwendet wird. Bei einem Beschäftigungsgrad von 63 % entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 58-61 % auf die Rohstoffkosten, 3 - 5 % auf die Anlagekosten und 30 % auf die Verpackungskosten. Die übrigen Kostenarten wie Energiekosten mit 3 - 4 % und Personalkosten mit 0,8 -1,5 % sind von geringerer Bedeutung. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind. So empfehlen sich beispielsweise bei verminderten Produktionsmengen Anpassungen in der Ausstattung der Abteilung, die zu sprunghaften Kostensenkungen führen können. Kostendegressionseffekte ergeben sich auch bei der Verringerung der Produktionstage in Beschäftigungssituationen eines 2- und 1-Schichtbetriebes. Wird z.B. in einer Abteilung mit zwei Abfüllanlagen (Modell 2) die Produktion eines 2-Schichtbetriebes von 250 Produktionstagen auf 200 Produktionstage/Jahr konzentriert, lassen sich die Abteilungskosten um 70.000 DM/Jahr verringern
Hintergrund: Das System der pflegerischen Versorgung in Deutschland befindet sich in einer Umbruchphase. Seit Jahren wird über eine Weiterentwicklung der Kooperation im Gesundheitswesen und damit über eine Veränderung der Aufgabenverteilung zwischen den Gesundheitsberufen diskutiert. Im Jahr 2008 hat der Gesetzgeber die Einführung von Modellvorhaben zur Übertragung von Heilkunde auf Pflegende gem. § 63 Abs. 3c SGB V ermöglicht. Die Umsetzung verläuft sehr schleppend. Das Ziel der Untersuchung war, die Gründe für diese schleppende Umsetzung aus Sicht der gesetzlichen Krankenkassen zu analysieren.
Methode: Quantitative Befragung aller gesetzlichen Krankenkassen (n=124) in Deutschland.
Ergebnisse: Zur Sicherstellung der Versorgung halten 94 % der Krankenkassen die Übertragung von Heilkunde auf nichtärztliche Leistungserbringer für einen sinnvollen Ansatz. Sie wird von 96 % der Krankenkassen als sehr wichtig empfunden. Zwar befürworten 96 % der Krankenkassen grundsätzlich die Durchführung von Modellvorhaben, tatsächlich sind aber nur 8 % an derartigen Verträgen beteiligt; 71 % der Krankenkassen planen auch keine eigenen Modellvorhaben für die Zukunft.
Als mögliche Ursachen für die bislang schleppende Umsetzung werden aus Sicht der GKV insbesondere rechtliche Hürden (90 %), Widerstand durch ärztliche Standesvertreter (84 %), ungeklärte Finanzierungs- (74 %) und Haftungsfragen (70 %) sowie nicht-praxistaugliche Regelungen in der G-BA-Richtlinie (79 %) und im Gesetz (85 %) angeführt. Weniger als die Hälfte (46 %) der Krankenkassen vermutet hohe Kosten als Ursache für die schleppende Umsetzung.
Diskussion: Die vom Gesetzgeber im aktuellen Pflegeberufereformgesetz (PflBRefG) vorgenommenen Änderungen, insbesondere die Tatsache, dass Krankenkassen entsprechende Modellvorhaben bis zum 31. Dezember 2020 vereinbaren und durchführen sollen, sind vor dem Hintergrund der geäußerten Kritik als zielführend und adäquat zu bezeichnen.
Angebote Kultureller Bildung im Kontext von Prävention arbeiten vor allem mit Jugendlichen, die im Sinne des Empowerment-Ansatzes gestärkt werden sollen, um gegen Rechtsextremismus einzutreten. Selten gibt es Projekte, die mit Jugendlichen arbeiten, die rechtsextreme Orientierungen aufweisen. Ausgehend von unterschiedlichen Dimensionen der Präventionsarbeit mit Jugendlichen in Radikalisierungsprozessen stellt der Beitrag mehrere Handlungsfelder der Kulturellen Bildung dar, in denen sich sowohl besondere Potenziale als auch Ambivalenzen der Jugendkulturarbeit mit rechtsorientierten Jugendlichen ergeben. Dabei zeigt sich, dass es für eine erfolgversprechende künstlerisch-pädagogische Arbeit mit rechtsorientierten Jugendlichen nicht nur eines besonderen milieuspezifischen Wissens über die Lebenswelt der rechtsextremen Szene bedarf. Diese Arbeit erfordert auch eine pädagogische sowie politische Haltung, die rechtsorientierte Jugendliche als Personen und Menschen mit Bedürfnissen, Träumen, Lebenszielen usw. anerkennt und mit einer milieuübergreifenden, diversitätsbewussten Perspektive die unterschiedlichen Wege und Faktoren, die zu einer „rechten Karriere“ führen können, in der jugendkulturellen Arbeit berücksichtigt, ohne die menschenverachtenden Weltbilder zu akzeptieren.
»Digital(isiert)e« Beratung verspricht neben Innovation auch Flexibilität, Ubiquität, Globalität, Geschwindigkeit und Legitimität durch evidenzbasierte Wirksamkeit. Für eine sozialwissenschaftlich fundierte arbeitsweltliche Beratung wie Coaching und Supervision ist danach zu fragen, welches Menschen- und Weltbild sich hinter der Digitalisierung verbirgt und welche Anliegen sie transportiert. Dazu wird mit den Theorien Michel Foucaults der gegenwärtige Diskurs auf Steuerungslogiken und Machtverhältnisse hin kritisch analysiert. Dabei zeigt sich, dass die Digitalisierung das »Zeitalter der Gouvernementalität« (Foucault) festigt: Humanistisch geprägte Werte und Ziele wie Reflexion, Anerkennung und Selbsterkenntnis treten in den Hintergrund, während die Nutzbarmachung und Optimierung des Selbst sowie des Beratungsprozesses wichtiger werden: Beratung will und muss effizienzgetrieben ihre Wirksamkeit evidenzbasiert legitimieren, und Digitalisierung erleichtert dies.
Mobile Kommunikationsgeräte wie Smartphones revolutionieren unseren (Arbeits-)Alltag. Realität und Virtualität verschmelzen, und das Begriffspaar drückt keinen Gegensatz mehr aus. Sogenannte virtuelle Teams sind weit verbreitet und bisher überwiegend in Hinblick auf Führungsthematiken bearbeitet. Gruppen, die computergestützt kommunizieren, existieren aber inzwischen in allen Lebensbereichen. Damit überträgt sich das „Hier und Jetzt“-Prinzip der Gruppendynamik in die computervermittelte Kommunikationswelt. Diese Verlagerung ist auch
unter gruppendynamischen Aspekten weiter zu erforschen.
Mobile Kommunikationsgeräte wie Smartphones spielen eine wichtige Rolle für die Effizienzsteigerung, Verdichtung und Subjektivierung von Arbeit. Sie entgrenzen vielfach und haben Einfluss auf die Arbeitsorganisation wie auf Erschöpfung und Erholung. Gesetzliche Regelungen werden in Organisationen nicht umgesetzt oder passen nicht. Organisationen fällt es schwer, selbst Regelungen zu finden, weil zahlreiche Widersprüche bestehen. Dennoch ist es für Organisationen sowohl unter Wettbewerbsaspekten wie in Fragen der Betrieblichen Gesundheitsförderung ratsam, Klärungsprozesse zu Erreichbarkeitszeiten durchzuführen. Beratung kann Aushandlungsprozesse unterstützen.
Cora Baltussen in den USA : Lernerfahrungen für die Supervision in den Niederlanden und Deutschland
(2021)
Cora Baltussen unternahm - wie zahlreiche europäische Sozialarbeitende - Anfang der 1950er Jahre eine 18-monatige Studienreise in die USA, um Casework und Supervision zu erlernen. Dieser Beitrag wertet ihren Summerreport von 1953 aus, der als Archivalie erhalten ist. So können ihre Lernerfahrungen in der historisch-kritischen Rekonstruktion kontextualisiert und in den Diskurs eingeordnet werden. Dabei werden erste Differenzierungen der frühen Supervisionsgeschichte ebenso sichtbar wie prägende Begegnungen und entstehende Netzwerke, die die Supervisionsentwicklung in Deutschland maßgeblich beeinflussten.
Die Mitgliederversammlung der Deutschen Gesellschaft für Supervision und Coaching e. V. (DGSv) stand 2020 äußerlich im Zeichen von Covid-19 und damit Social Distancing, inhaltlich im Zeichen der konsequenten Fortführung begonnener Strategie- und Modernisierungsprozesse des Berufs- und Fachverbandes. Gleichzeitig aktualisierten diese Prozesse die Identitätsfrage des Verbandes.
Der Bericht über die Mitgliederversammlung gliedert sich in vier Teile: Einen kurzen Bericht über die formalen Anteile der Versammlung (1), die kurze Vorstellung der mit dem Cora-Baltussen-Förderpreis ausgezeichneten Abschlussarbeiten (2), eine Paraphrase des Vortrags von Armin Nassehi (3) sowie eine kritisch-kommentierende Diskussion des Fishbowls über Führungskräfte in der klinischen Pflege (4).
In der detaillierten Beschäftigung mit Quellen der Sozialen Arbeit zur Entstehung der Supervision in den 1960er Jahren legt dieser Beitrag den Fokus auf die auch in der sozialpädagogischen Geschichtsschreibung weithin unterdrückten religiösen Hintergründe. In der Beschäftigung mit den Rahmenbedingungen der Supervisionsausbildung an der katholischen Akademie für Jugendfragen in Münster kann gezeigt werden, wie eng katholische Milieus und Ethiken mit der Entstehung von Supervision im nordwestdeutschen Raum verbunden waren und was das für das frühe Verständnis von Supervision und ihre weitere Entwicklung bedeutete.
Ein Konferenzrückblick:
Das DFG-Forschungskolleg „Postwachstumsgesellschaften“ hatte gemeinsam mit der Deutschen Gesellschaft für Soziologie (DGS) zu einer gemeinsamen fünftägigen Konferenz vom 23. bis 27. September 2019 an die Friedrich Schiller-Universität Jena geladen, und rund 700 Wissenschaftler*innen und Studierende kamen aus dem In- und Ausland, um an den rund 150 Veranstaltungen teilzunehmen. Begleitet wurde die Konferenz von einem umfänglichen Kulturprogramm mit Konzerten, Kinofilmen und Kunst, und rechtzeitig zur Konferenz erschien als Tagungsband auch eine lesenswerte 600-seitige Sonderausgabe des Berliner Journals für Soziologie (Dörre et al. 2019).
Das Konferenzprogramm stand einerseits unter der Thematik der „Great Transformation“, also der auf Karl Polanyi (1886-1964) zurückgehenden These einer zunehmenden Vermarktlichung und Verselbstständigung der Wirtschaft gegenüber der Gesellschaft (vgl. Polanyi 1944), die das DFG-Forschungskolleg rund um die Soziologen Klaus Dörre, Hartmut Rosa und Stefan Lessenich als Titel gewählt hat. Andererseits tagten einige Sektionen der DGS als Regionalkonferenz, um sektionsspezifische Panels durchzuführen.
Der Essay skizziert die Ideengeschichte eines funktionalisierenden und optimierenden Coachingverständnisses und erschließt dafür Quellen, um damit einen Anstoß für weitere Forschungsarbeiten zu geben. Dabei ist der Beitrag nur eine erste diskursanalytische Annäherung, weil Coachingverständnisse hochgradig heterogen sind, für die frühe Geschichte der Supervision nur ein unzureichender Forschungsstand vorliegt, insbesondere in Hinblick auf ihre Ideengeschichte und die erschlossenen Quellen, und sich die Entwicklung nur in der Analyse der komplexen und vielsprachigen wissenschaftlichen und praktischen Austauschprozesse insbesondere zwischen den USA und dem westlichen Europa rekonstruieren lässt. Für die Forschung wurden zahlreiche Quellen zwischen 1950 und 1980 erschlossen. Es kann gezeigt werden, dass sich einzelne Konzeptbestandteile von Coaching bereits zwischen 1945 und 1975 im Diskurs um Praxisberatung und Supervision im Kontext der Sozialen Arbeit (Social Casework, Groupwork) nachweisen lassen. Offen bleibt, ob sich Coaching unabhängig davon oder darauf aufbauend entwickelt hat. Eine systematisierte Forschung zu diesen Zusammenhängen steht aus.
Hintergrund und Fragestellung: Die durch röntgentechnische Diagnoseverfahren in der Medizin entstehende Strahlenbelastung für Patient und Personal soll laut Strahlenschutzverordnung so gering wie möglich gehalten werden. Um dieses zu erreichen ist ein professioneller und bedachter Umgang mit den Röntgengeräten unabdingbar. Dieses Verhalten kann derzeit jedoch nur theoretisch vermittelt werden, da sich ein Üben mit realer Strahlung von selbst verbietet. Daher stellt sich die Frage wie man die Strahlenschutzausbildung durch eine verbesserte Vermittlung der komplexen Thematik unterstützen kann. Methoden: Das CBT-System (Computer Based Training) virtX, welches das Erlernen der korrekten Handhabung mobiler Röntgengeräte unterstützt, wurde um Aspekte aus dem Bereich des Strahlenschutzes erweitert. Es wurde eine prototypische Visualisierung der entstehenden Streustrahlung sowie die Darstellung des Nutzstrahlenganges integriert. Des Weiteren wurde die Berechnung und Anzeige der virtuellen Einfallsdosis für das durchstrahlte Volumen sowie für den Bereich des Bildverstärkers hinzugefügt. Für die Berechnung und Visualisierung all dieser Komponenten werden die in virtX parametrisierbaren C-Bogen-Einstellungen, z.B. Stellung der Blenden, Positionierung des Röntgengerätes zum durchstrahlten Volumen und Strahlenintensität, herangezogen. Das so erweiterte System wurde auf einem dreitägigen Kurs für OP-Personal mit über 120 Teilnehmern eingesetzt und auf der Basis von Fragebögen evaluiert. Ergebnisse: Von den Teilnehmern gaben 55 einen ausgefüllten Evaluations-Fragebogen ab (Responserate 82%). Das Durchschnittsalter der 39 weiblichen und 15 männlichen Teilnehmer (einer o.A.) lag bei 33±8 Jahren, die Berufserfahrung bei 9,37±7 Jahren. Die Erfahrung mit dem C-Bogen wurde von einem Teilnehmer (2%) mit „Keine oder bisher nur Einführung erhalten“, von acht Teilnehmern (14%) mit „bediene einen C-Bogen gelegentlich“ und von 46 (84%) mit „bediene einen C-Bogen regelmäßig“ angegeben. 45 (92%) der Teilnehmer gaben an, durch die Visualisierung der Streustrahlung etwas Neues zur Vermeidung unnötiger Strahlenbelastung dazugelernt zu haben. Schlussfolgerung: Trotz einer bislang nur prototypischen Visualisierung der Streustrahlung können mit virtX zentrale Aspekte und Verhaltensweisen zur Vermeidung unnötiger Strahlenbelastung erfolgreich vermittelt werden und so Lücken der traditionellen Strahlenschutzausbildung geschlossen werden.
Der Artikel befasst sich mit der Zusammensetzung multiprofessioneller Teams in Beratungsstellen - bezogen auf die Grundprofessionen. Er zeigt auf, dass die Psychologie in der Geschichte der Beratungsstellen eine dominante Rolle im multiprofessionellen Gefüge übernommen hat, mit der Folge, dass bis heute um professionsspezifische Handlungsansätze der Sozialen Arbeit in der Beratung, sowie um ein gutes Verhältnis von Psychologie und Sozialer Arbeit gerungen werden muss. Es wird aufgedeckt, dass dieses Ringen auch im Umgang mit der empirisch nachgewiesenen, neuen quantitativen Dominanz der Sozialen Arbeit im multiprofessionellen Gefüge sichtbar wird und ein nur defizitorientierter, dominant psychologischer Blick darauf vermieden werden sollte.
Der Beitrag stellt zunächst die Ergebnisse einer Auswertung von Stellenanzeigen aus der Mailingliste InetBib vor, die zeigt, dass die Nachfrage nach Absolventinnen und Absolventen bibliothekarischer Studiengänge mit einer Qualifikation für den Aufgabenbereich der Vermittlung von Informationskompetenz
seit dem Jahr 2000 signifikant gestiegen ist. Ergänzend hierzu präsentieren die Autorinnen die Ergebnisse einer Befragung unter Vertreterinnen und Vertretern der bibliothekarischen Berufspraxis zu im Bereich der Vermittlung von Informationskompetenz geforderten Kompetenzen und deren
Gewichtung innerhalb der verschiedenen Qualifikationsstufen.
Der Beitrag stellt Ergebnisse der Fachgruppe Informationskompetenz der KIBA vor, in der alle Lehrenden im Bereich der Vermittlung von Medien- und Informationskompetenz an bibliotheks- und informationswissenschaftlichen Studiengängen in Deutschland zusammenarbeiten. Ausgangspunkt ist das „Framework Informationskompetenz“, ein Anforderungsrahmen, der gemeinsame Standards in der Qualifikation von Studierenden der Bibliotheks- und Informationswissenschaft für das Aufgabenfeld der Förderung von Informationskompetenz sichern soll. Es wird aufgezeigt, wie die in diesem Rahmenmodell formulierten Qualifikationsstandards in den verschiedenen Studiengängen umgesetzt werden und wo es bedarfsbezogene Ausprägung und Gewichtung in den Qualifikationszielen gibt.
Wohnungslose Menschen wurden systematisch diskreditiert und werden immer noch systematisch ausgegrenzt. Die Angebote für wohnungslose Menschen sind unzureichend und lückenhaft. Die besonderen Erfahrungen und Bedürfnisse der Betroffenen müssen besser als bisher berücksichtigt werden um bedarfsgerechtere Hilfen und Angebote zu gestalten. Hierfür ist die Einbeziehungen der Betroffenen in Planung und Ausgestaltung der Angebote systematisch und unbefristet zu fördern. Um den Interessen der Betroffenen Gehör zu verschaffen sind entsprechende Ressourcen bereitzustellen und Kommunikationswege zu eröffnen.
Mein Beitrag versucht, die philosophischen und geschichtlichen Hintergründe eines zentralen Begriffs bei Saul D. Alinsky neu auszuleuchten, dem Begriff des Ressentiments. Alinsky, der Begründer des Community Organizing, hat bei der Organisation von Bürgergruppen versucht, vorhandene Ressentiments aufzulösen, indem er die zugrundeliegende Diskriminierungen artikulierbar macht, sie in politische Forderungen verwandelt, die schließlich in Verhandlungen umgesetzt werden. Er sah darin auch ein Verfahren, die Menschen vor falschen Agitatoren zu schützen.
Prüfungsangst
(2003)
Niemals bis zum Mond
(1994)
Die binäre Putzfrau
(1993)
Das Gesundheitsdatennutzungsgesetz – Potenzial für eine bessere Forschung und Gesundheitsversorgung
(2023)
Im Koalitionsvertrag der Ampel-Koalition wird für die laufende Legislaturperiode ein Gesundheitsdatennutzungsgesetz (GDNG) angekündigt. Dieses Gesetz soll „zu einer besseren wissenschaftlichen Nutzung in Einklang mit der DSGVO“ führen. Bekanntermaßen steht unser Gesundheitssystem vor großen Herausforderungen (Demografie, Digitalisierung, Fachkräftemangel, Klimakrise, regionale Unterschiede, etc.) und ist jetzt schon das teuerste in Europa bei mittelmäßiger Leistung. Diese Herausforderungen können effizienter und evidenzgeleitet bewältigt werden, wenn wie im geplanten GDNG angedacht, die Datenressourcen für die Evaluierung und Weiterentwicklung des Gesundheitssystems und der Gesundheitsversorgung optimal genutzt werden. In den folgenden Ausführungen werden aus Sicht von Versorgungsforscher*innen Voraussetzungen und Desiderata für eine optimale Ausgestaltung des Gesetzes formuliert. Das Papier wurde durch das Deutsche Netzwerk Versorgungsforschung (DNVF) und die Arbeitsgruppe Erhebung und Nutzung von Sekundärdaten (AGENS) der Deutschen Gesellschaft für Sozialmedizin und Prävention (DGSMP) und der Deutschen Gesellschaft für Epidemiologie (DGEpi) erstellt und wird von den unterzeichnenden Fachgesellschaften getragen. Das vorliegende Positionspapier und die hier aufgestellten Forderungen sind vor der Veröffentlichung und damit in Unkenntnis des Referentenentwurfs zum GDNG formuliert worden.
Mit der Analyse des Kostenverlaufes in der Abteilung "Pasteurisierte Konsummilch" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. Gegenüber dem 1975 durchgeführten Kostenvergleich verschiedener Trinkmilchverfahren (1) basiert diese Abteilungskalkulation auf der modellhaften Kostenermittlung einer Einproduktsimulation anhand eines Abpackverfahrens im Tetra-Rex-System. Unter Berücksichtigung des methodisch weiterentwickelten Kostenrechnungsprinzips (2) wird der Produktionsprozeß zur Herstellung pasteurisierter Vollmilch mit 3,5 % Fett in 1-l-Kartonverpackung hinsichtlich der Kostenverursachung untersucht. Drei Modellvarianten mit Abfülleistungen von 5.400 bis 22.800 Packungen/Stunde, die einer maximalen Produktion von 30,3 bis 128,0 Packungen/Jahr entsprechen, bilden den Ausgangspunkt für die Analyse der Produktionskosten der Abteilung. In Abhängigkeit von der täglichen Abfüllmenge und dem Produktionsprogramm werden spezifische Modellausrüstungen bestimmt, von denen sich unmittelbar die variablen und fixen Einsatzmengen der Produktionsfaktoren ableiten. Der Einfluß unterschiedlicher Kapazitätsgrößen und -auslastungen auf die Herstellungskosten wird mit simulierten Beschäftigungssituationen zwischen 15 und 100 % verdeutlicht, die eine Bestimmung der Kosten für Milchmengen zwischen 4,5 und 128,0 Mio. Packungen im Jahr ermöglichen. Gemäß der Kapazitätsgröße und der technischen Auslegung der Modelle betragen die Investitionen 1,7 Mio. DM im Modell 1 und 4,7 Mio. DM im Modell 3. Bezogen auf die jeweilige Outputmenge der Abteilung ergeben sich spezifische Investitionen, die mit zunehmender Modellgröße von 56 auf 37 DM je 1.000 Packungen sinken. Die Gesamtkosten der Abteilung “Pasteurisierte Konsummilch”, die sich aus den Produkt- und Abteilungseinzelkosten zusammensetzen, betragen im größten Modell bei 100 % Beschäftigung 73,8 Pf/Pckg. Abteilungs-Output und steigen mit abnehmender Modellgröße und sinkendem Beschäftigungsgrad (15 %) auf 83,1 Pf/Pckg.. In der beschäftigungsabhängigen Gesamtkostenentwicklung tritt zwischen dem 3- und 1-Schichtbetrieb eine Kostensenkung im Modell 1 von 3,0 Pf/Pckg. ein, die im Modell 3 2,0 Pf/Pckg. ausmacht. Der kapazltsgrößenbedingte Degressionseffekt Ist vom größten zum kleinsten Modell mit 1,7 Pf/Pckg. im 3-Schichtbetrieb und mit 2,7 Pf/Pckg. im 1-Schichtbetrieb markiert. Aus der prozentualen Zusammensetzung der Gesamtkosten bei einem Beschäftigungsgrad von 64 % dominieren die Rohstoffkosten mit modellspezifischen Anteilen von 72 - 73 %, die Betriebskosten beanspruchen 25 - 26 %, und die Anlagekosten sind anteilig mit 2 - 3 % vertreten. Mit der Darstellung der prozentualen Verteilung der Gesamtkosten ohne Rohstoffkosten treten die Kostenarten der Betriebskosten in den Vordergrund. Bei gleicher Ausgangssituation entfallen 83 - 89 % auf die Verpackungsmaterialkosten, 3 - 6 % auf die Personalkosten sowie 1 - 2 % auf die Energie- und Betriebsstoffkosten; 7 - 9 % ergeben sich hier für die Anlagekosten. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad nennenswerte Kosteneinsparungen zu erreichen sind. Dagegen zeichnen sich Kostendegressionen in Abhängigkeit von der Zahl der Produktionstage aufgrund des geringen Anteils der tagesfixen Kosten an den Gesamtkosten nur im minimalen Umfang ab.
Im Hinblick auf eine zunehmende Annäherung einzelner Fachlandschaften und der vermehrten Vernetzung von Informationssystemen befasst sich diese Arbeit mit der Fragestellung, ob ein Einsatz des Bibliotheksautomationssystems PICA (Project for Integrated Catalogue Automation) bei der Landesmedienstelle in Niedersachsen eine angemessene Lösung des Problems der unzureichenden Informationsvermittlung über verfügbare audiovisuelle Medien darstellen könnte. Dabei wird zur Verdeutlichung des Informationsbedarfs und des Informationsdefizits dem Abriss zur historischen Entwicklung des Bildstellenwesens und zum geschichtlichen Werdegang der Landesmedienstelle in Niedersachsen bewusst ein breiter Raum gegeben.
Hintergrund:
Feedback von Patienten über erlebte Versorgungsaspekte erfolgt auch in der Rehabilitation inzwischen zunehmend online, beispielsweise auf Bewertungsportalen. Daher soll untersucht werden, welche von Rehabilitanden auf der für Reha-Kliniken führenden Bewertungsplattform Klinikbewertungen.de veröffentlichten Versorgungsaspekte mit der Weiterempfehlung einer Rehaklinik und welche negativen Aspekte mit der Nicht-Weiterempfehlung assoziiert sind.
Methode:
Eingeschlossen wurden Reha-Kliniken der Rentenversicherung Bund und federführend von ihr belegte Kliniken. Mit einem Mixed-Methods-Ansatz wurden aus acht Reha-Indikationsgruppen nach Zufriedenheitsstufen stratifizierte freitextliche Erfahrungsberichte von Rehabilitanden inhaltsanalytisch ausgewertet. Der Zusammenhang zwischen positiven (negativen) Aussagen mit der (Nicht-)Weiterempfehlung wurde in der jeweiligen Reha-Indikationsgruppe untersucht.
Ergebnisse:
Die Inhaltsanalyse von 911 Erfahrungsberichten ergab 20 thematische Kategorien. Der von Rehabilitanden wahrgenommene "Reha-Erfolg" war am häufigsten mit der Weiterempfehlung bzw. Nicht-Weiterempfehlung signifikant assoziiert. In fünf QS-Vergleichsgruppen war das Thema "Verpflegung" assoziiert. In allen QS-Vergleichsgruppen war mindestens ein prozessorientiertes Rehabilitationsthema assoziiert: "Reha-Maßnahmen", "Reha-Plan und Reha-Ziele" und/oder "Diagnose bis Entlassung".
Diskussion und Schlussfolgerung:
Reha-Kliniken können auf Basis der vorgestellten Ergebnisse indikationsspezifisch die für die Klinik-Weiterempfehlung relevanten Versorgungsaspekte identifizieren. Die Einbeziehung von Online-Erfahrungsberichten schafft zusätzliche Erkenntnisse über die Gründe der (Un-)Zufriedenheit von Rehabilitanden. Potenziellen Rehabilitanden steht das Erfahrungswissen als niederschwellige Informationsquelle und Entscheidungshilfe zur Verfügung
Durch die Covid-19-Pandemie und die damit einhergehenden Effekte auf die Arbeitswelt ist die Belastung der Mitarbeitenden in einen stärkeren Fokus gerückt worden. Dieser Umstand trifft unter anderem durch den umfassenden Wechsel in die Remote Work auch auf agile Software-Entwicklungsteams in vielen Unternehmen zu. Eine zu hohe Arbeitsbelastung kann zu diversen negativen Effekten, wie einem erhöhten Krankenstand, mangelndem Wohlbefinden der Mitarbeitenden oder reduzierter Produktivität führen. Es ist zudem bekannt, dass sich die Arbeitsbelastung in der Wissensarbeit auf die Qualität der Arbeitsergebnisse auswirkt. Dieser Forschungsbeitrag identifiziert potenzielle Faktoren der Arbeitsbelastung der Mitglieder eines agilen Software-Entwicklungsteams bei der Otto GmbH & Co KG. Auf der Grundlage der Faktoren präsentieren wir Maßnahmen zur Reduzierung von Arbeitsbelastung und erläutern unsere Erkenntnisse, die wir im Rahmen eines Experiments validiert haben. Unsere Ergebnisse zeigen, dass bereits kleinteilige Maßnahmen, wie das Einführen von Ruhearbeitsphasen während des Arbeitstages, zu positiven Effekten bspw. hinsichtlich einer gesteigerten Konzentrationsfähigkeit führen und wie sich diese auf die Qualität der Arbeitsergebnisse auswirken.
Die gesetzlich vorgesehene Bereitstellung von Digitalisierungsangeboten stellt öffentliche Verwaltungen vor steigende Herausforderungen. Aufgrund der Heterogenität der Nutzerinnen und Nutzer ist es für öffentliche Verwaltungen häufig problematisch, klare Anforderungen zu erheben und zu erfüllen. Hinzukommen strukturelle und organisatorische Gegebenheiten wie beispielsweise ausgeprägte Entscheidungshierarchien, die eine nutzerzentrierte Vorgehensweise erschweren können. Darüber hinaus sieht sich die öffentliche Verwaltung zunehmend mit komplexer werdenden Problemen konfrontiert. Es stellt sich daher die Frage, wie in der öffentlichen Verwaltung ein moderner Ansatz zur Nutzerzentrierung und Problemlösung eingesetzt werden kann. Dieser Artikel präsentiert die Ergebnisse einer Einzelfallstudie bei der Niedersächsischen Landesbehörde für Straßenbau und Verkehr (NLStBV). Wir haben mit einer Fokusgruppe einen Design-Thinking-Workshop durchgeführt, um Potenziale und Anwendungsmöglichkeiten des Ansatzes in der öffentlichen Verwaltung zu identifizieren. Auf Basis einer SWOT-Analyse haben wir die Ergebnisse untersucht und geben vier konkrete Handlungsempfehlungen für die Einführung sowie Nutzung von Design Thinking.
Die Sozialarbeiterin Yildiz Sahinde Demirer hat mit anderen Frauen das Projekt „Erzählcafés für geflüchtete Frauen“ in Trägerschaft der Landeshauptstadt Hannover (2018 bis 2021) konzipiert und umgesetzt. In fünf Stadtteilen konnten sich die Frauen regelmäßig treffen und austauschen, sich beteiligen und kamen zu Wort. Ihre Arbeit bezeichnet Demirer als Gemeinwesenarbeit mit politischen und feministischen Schwerpunkten. Die wissenschaftliche Begleitung durch Rebecca Hassan und Joachim Romppel von der Hochschule Hannover führte zur Dokumentation und Auswertung des Modellprojekts. Das Bundesamt für Migration und Flüchtlinge (BAMF) förderte das Projekt. Bemerkenswert sind die Erfolge dieser nonformalen Bildungsarbeit.
Gutes Arbeiten für Mitarbeiter ist je nach Arbeitskontext unterschiedlich zu bewerten, hängt jedoch von der Gestaltung bestimmter Kontextfaktoren ab. Die Kontextfaktoren guter Arbeit sind der zentrale Forschungsgegenstand dieser Arbeit. Dabei steht ein E‑Commerce-Team (EC-Team) von Otto im Fokus der Untersuchungen.
Das Ziel unseres Artikels ist es, die Kontextfaktoren zu analysieren, die dazu führen, dass gute Arbeit ermöglicht wird. Dabei ist eine auf Dauer funktionierende Arbeitsweise gesucht, welche eine hohe Arbeitsqualität und -quantität ermöglicht. Dazu sind die beiden primären Ziele zu definieren, was gutes Arbeiten ausmacht und zum anderen die Kontextfaktoren für gutes Arbeiten innerhalb des EC-Teams bei Otto zu identifizieren.
Unsere Forschungsfrage lautet: Welche Kontextfaktoren sind für gutes Arbeiten bei Otto im EC-Team in der derzeitigen Remote-Arbeit besonders relevant und entsprechend gestaltbar?
Um die Forschungsfrage beantworten zu können, wird zunächst eine Literaturrecherche zur Definition von guter Arbeit vorgenommen. Anschließend wird untersucht, welche Faktoren laut Literatur zu einer guten Arbeit beitragen, um aus den resultierenden Faktoren Cluster zu bilden.
Die Cluster werden dem Otto EC-Team zur Abstimmung mit der Mehrpunktabfrage über das virtuelle Kollaborations-Tool MiroFootnote 2 zur Verfügung gestellt. Aufbauend auf dem Ergebnis der Abstimmung, werden ein Gamification Board, Erinnerungsmails und ein Stimmungsbarometer erstellt, um die Auswirkungen des Clusters im Rahmen eines Experiments zu analysieren.
Diese Maßnahmen werden innerhalb von zwei Wochen durchgeführt. Um die Erfahrungen der Probanden zu sammeln, werden anschließend Interviews durchgeführt und ausgewertet. Die Ergebnisse der Interviews fließen in die anschließende Handlungsempfehlung ein.
Nur wenn eine klebgerecht ausgeführte Konstruktion mit dem richtigen Klebstoff nach optimaler Oberflächenbehandlung und mit angepssten Abbindebedingungen gefertigt wird, sind Klebverbindungen von maximaler Festigkeit und Alterungsbeständigkeit zu erzielen. Am Beispiel von Bremsbelägen wird gezeigt, dass bei einer entsprechenden Erprobung auch sogenannte Sicherheitsteile durch Kleben hergestellt werden könne.
Obwohl die Klebtechnik eines der ältesten Fügeverfahren der Welt ist, sind die Kenntnisse über diese Technik häufig noch sehr gering. Dies zeigt sich an vielen Stellen, beim Verkaufsgespräch von Klebstoffen, aber auch in Beiträgen zu klebtechnischen Seminaren. Es werden manchmal "Merk"würdige Ansichten über das Kleben geäußert.
Klebverbindungen werden häufig dem Zugscherversuch nach DIN 53 238, dem wohl wichtigsten Versuch der Klebtechnik, unterzogen. Die Belastung jedoch entspricht nicht den in der Praxis verkommenden Bedingungen. Es stellt sich die Frage, ob die im Zugscherversuch ermittelten Kenndaten zur Dimensionierung von Klebverbindungen überhaupt geeignet sind.
Am 12. und 13. Juni 1986 fand in Konstanz das Symposium Haftung von Verbundwerkstoffen und Werkstoffverbunden statt. Die Veranstaltung wird in vierjährigem Turnus von der Deutschen Gesellschaft für Metallkunde (DGM) in Zusammenarbeit mit dem Fraunhofer-Institut für angewandte Materialforschung (IFAM) in Bremen ausgerichtet. Als interdisziplinäres Thema stand die Haftung zwischen unterschiedlichen Stoffen auf dem Programm. In 18 Referaten sind Erkenntnisse und Probleme aus unterschiedlichen Arbeitsbereichen vorgetragen worden. Insgesamt nahmen etwas 100 Fachleute aus dem In- und Ausland teil.
Das Versagen von Klebungen kann durch ungenügende Adhäsion, Alterungsprozesse oder mechanische Spannungen erfolgen. In der SMD-Technologie werden Werkstoffe geklebt, die verschiedene Ausdehnungskoeffizienten besitzen. Bei SMD-Klebverbindungen gewährleistet die nachfolgende Lötung deren Langzeitfestigkeit. Wurde für eine gute Adhäsion reichlich Vorsorge getroffen und die Klebung versagt trotzdem, stellt sich die Frage: Spielen mechanische Eigenschaften für den Einsatz von SMD-Klebstoffen eine Rolle?
Der Zugscherversuch ist die am häufigsten angewandte Prüftechnik für Klebverbindungen. Die dabei ermittelte Klebfestigkeit ist jedoch eine wenig aussagefähige Größe. In keinem Fall kann sie als Werkstoffkennwert den Klebstoff charakterisieren. Als Ausgangsgröße für Berechnungen bei der Dimensionierung von Klebverbindungen ist das Ergebnis des Zugscherversuchs deshalb nicht geeignet.
Die Prüfung von Klebverbindungen erfolgt häufig im Zugscherversuch. Bei der Anwendung dieser Prüfmethode bei Polymer-Metall-Klebverbindungen tritt oft ein Bruch im Polymerteil auf. Dadurch wird die Aussagefähigkeit des Zugscherversuchs stark eingeschränkt. Das gilt vor allem für die Optimierung der Oberflächenvorbehandlung von Polymerteilen. Der vorliegende Beitrag untersucht die Beanspruchungsparameter von Polymer-Metall-klebverbindungen im Zugscherversuch und leitet daraus Forderungen an geeignete Prüfanordnungen ab.
Viele Kunststoffe besitzen nur schlechte Adhäsionseigenschaften. So lassen sich viele technisch wichtige Kunststoffe adhäsiv nur dann zufriedenstellend mit Adhäsionsklebstoffen kleben, wenn die Kunststoffteile vorbehandelt worden sind. Versuche mit einer Niederdruckplasmabehandlung führten zu brauchbaren Ergebnissen.
Kleben im Kraftfahrzeugbau
(1987)
Klebemöglichkeiten von PTFE
(1990)
Die hohe Beständigkeit und die antiadhäsiven Eigenschaften von Polytetrafluorethylen (PTFE) erschweren das Kleben dieses Kunststoffes beträchtlich. Da PTFE praktisch unlöslich ist, können Diffusionsklebverbindungen nicht hergestellt werden und Adhäsionsklebverbindungen haben nur eine geringe Festigkeit. Es ist jedoch durch entsprechende Behandlungen möglich, die Oberfläche so zu verändern, dass hochfeste Adhäsionsklebverbindungen möglich sind.
Der noch relativ junge Begriff Gemeinwesendiakonie signalisiert das notwendige Nachdenken über ein neues Verhältnisses zwischen Kirchengemeinde, Diakonie und weiteren Akteuren im Gemeinwesen. Es geht um die Entwicklung eines neuen Zusammenwirkens von diakonischer Gemeinde und gemeinwesenorientierter Diakonie, in Kooperation mit anderen gesellschaftlichen Akteuren.
Diakonie bildet Gemeinde, dies gilt dabei in zweierlei Hinsicht: Zum einen kann gemeinwesendiakonisches Engagement eine Bildungswirkung für die in Projekten und Initiativen Beteiligten entfalten wie auch den Prozess der Gemeindebildung befördern. Zum anderen bilden die in gemeinwesendiakonischen Projekten und Initiativen Beteiligten selbst Gemeinde.
Inwiefern eignet sich Gemeinde als Ort intergenerationeller Lern- und Bildungsprozesse? Zur Beantwortung dieser Frage werden drei Formen des Generationenverhältnisses sowie drei Grundkonzeptionen intergenerationellen Lernens beschrieben, um anschließend nach den didaktischen Herausforderungen und begünstigenden Rahmenbedingungen zu fragen.
Kirche und Religion begleiten Menschen an bestimmten biografischen Wendepunkten ihres Lebens, sie sind traditionelle Übergangsbegleiter insbesondere in Form der Kasualien. Angesichts zahlreicher weiterer Lebensübergänge auch jenseits der Kasualien, für die es typisch ist, dass sie individuell höchst ungleichzeitig auftreten, stellt sich die Frage, wie die gemeindepädagische Bildungsarbeit Menschen in biografischen Lebensumbrüchen bei der Bewältigung und Gestaltung solcher Lebensübergänge begleiten kann.
Szenisches Spiel
(2009)
Die alltägliche Konfrontation mit gesellschaftlichen Tabus wie Alter, Krankheit, Tod, die Arbeit zwischen "Macht und Ohnmacht" verlangt von den Pflegenden ein hohes Maß an sozialer und personaler Kompetenz. Das szenische Lernen bzw. Spiel ist ein Ansatz, der sich hervorragend zur Förderung dieser Schlüsselqualifikationen eignet. In diesem Aufsatz werden zunächst die allgemein didaktischen Ursprünge und Hintergründe szenischen Lernens bzw. Spiels dargestellt, um anschließend seine pflegedidaktische Auslegung und Akzentuierung zu charakterisieren. Zum Schluss wird anhand der Lerneinheit „Reflexion der praktischen Ausbildung“ aufgezeigt, wie mit ausgewählten szenischen Spielverfahren in der pflegepädagogischen Praxis gearbeitet werden kann.
Ausgehend von der Theorie der digitalen Signalsynthese wird in diesem Beitrag ein rechnergestützter Funktionsgenerator vorgestellt, der den Entwickler in die Lage versetzt, diverse periodische Zeitfunktionen mit beliebig komplizierten spektralen Eigenschaften zu generieren. Die dabei relevanten Hard- und Softwaregesichtspunkte, die zur Berechnung einer Stützstellenfolge über Fouriersynthese mit einem IBM-PC in Turbo-Pascal erforderlich sind, werden in der folgenden Abhandlung näher erläutert.
Auch für das Teilnehmeranschlußnetz werden neben dem heute üblichen „Sternnetz" neuerdings „Ring-" und „Verzweigungsnetze" genannt, und es wird die Frage diskutiert, ob damit geringere Kosten zu erwarten sind. Mit Begriffen der Graphentheorie werden hier z.B. die Strukturen Stern, Ring, Baum definiert. Ein gedachtes Ortsnetz wird dann in quadratische Bereiche mit der Seitenlänge l und mit M Teilnehmern aufgeteilt. Für verschiedene Strukturen des Leiternetzes in der Teilnehmerebene werden die Mindestlängen der Leiter und der Kabelkanäle berechnet. Unter anderem zeigt sich, daß unabhängig von der Struktur des Leiternetzes die Kabelkanäle, ein dominierender Kostenanteil in der Teilnehmerebene, praktisch gleich lang sind, nämlich l/M^0,5 je Teilnehmer.
Innerhalb digitaler Nebenstellenanlagen können kurzfristig die verbesserten Kommunikationsmöglichkeiten eines „Integrated Services Digital Network" unabhängig von der Existenz eines nur langfristig realisierbaren, durchgehend digitalen öffentlichen Netzes angeboten werden. Beim Anschluß an die bestehenden öffentlichen Netze ergeben sich jedoch einige Probleme: Z. B. müssen die Bedingungen des bestehenden Dämpfungsplans eingehalten werden, auch im ungünstigsten Fall sind ausreichend hohe Signal-Quantisierungsgeräusch-Abstände sicherzustellen, für die Text- und Datenkommunikation mit den derzeit bestehenden öffentlichen Netzen sind u. U. zusätzliche Einrichtungen in der Nebenstellenanlage erforderlich. Diese Einführungsprobleme werden diskutiert und Lösungsmöglichkeiten hierzu vorgeschlagen.
In Zeitmultiplex-Vielfachzugriff-(TDMA-)Durchschalte-Vermittlungsnetzen mit verteilter Steuerung können Kollisionen von Zugriffsvorgängen auftreten. Es wird unterstellt, daß die den kollidierenden Zugriffsvorgängen zugehörigen Verbindungswünsche nicht weiterbehandelt werden und deshalb wegen Kollision zu Verlust gehen. Die zugehörige Verlustwahrscheinlichkeit -genannt Kollisionsverlust BK - wird allgemein berechnet. Die numerische Auswertung zeigt, daß für Fernsprechverkehr diese - gegenüber Systemen mit konzentrierter Steuerung - zusätzlichen Kollisionsverluste vernachlässigt werden können gegenüber den üblichen Planungsverlusten wegen Abnehmermangels.
"Coded Mark Inversion" (CMI) und "Manchester" (MAN) sind häufig verwendete binäre Leitungscodes. Die Synthese von Decodierer-Schaltungen kann mit Booleschen Funktionstabellen und Automatendiagrammen erfolgen. Diese Daten lassen sich in ein Logiksynthese-Softwarepaket eingeben und liefern als Ergebnis eine standardisierte Datei zur Programmierung eines geeigneten Logikbausteins. Die einzelnen Entwicklungsschritte von der umgangssprachlichen Problembeschreibung bis zur Programmierung sind hier erläutert.
Der vorliegende Beitrag beschreibt Einsatzpotenziale des Energiemanagementprofils PROFIenergy in der Prozessindustrie.
Der Blick auf den Status von Energieeffizienzmaßnahmen in der Prozessindustrie zeigt, dass diese im Wesentlichen innerhalb der verfahrenstechnischen Optimierung angesiedelt sind. Noch hat sich der durchgängige Einsatz von technischen Energiemanagementsystemen
(tEnMS) nicht etabliert. Diese Arbeit fokussiert Vorteile des tEnMS-Einsatzes und präsentiert „Best Practice“- Beispiele in der Prozessindustrie. Abschließend wird aufgezeigt, welches Potenzial das Energiemanagementprofil PROFIenergy liefern kann und welche Anwendungsfälle sich damit abdecken lassen.
Das PROFINET Protokoll wurde in der aktuellen Version um Security-Funktionen erweitert. Damit können für PROFINET flexible Netzwerkarchitekturen unter Berücksichtigung von OT-Security Anforderungen entworfen werden, die durch die bisher erforderliche Netzwerksegmentierung nicht möglich waren. Neben den Herstellern der Protokollstacks sind nachfolgend auch die Komponentenhersteller gefordert, eine sichere Implementierung in ihren Geräten umzusetzen. Die erforderlichen Maßnahmen gehen dabei über die Nutzung eines sicheren Protokollstacks hinaus. Der Beitrag zeigt am Beispiel eines Ethernet-APL Messumformers mit PROFINET-Kommunikation die künftig von PROFINET-Geräteherstellern zu berücksichtigenden technischen und organisatorischen Rahmenbedingungen.
Die Konvergenz von Netzwerken ist ein zunehmender Trend im Bereich der Automatisierung. Immer mehr Anlagenbetreiber streben eine Vereinheitlichung der Netzwerke in ihren Anlagen an. Dies führt zu einer nahtlosen Netzwerkstruktur, einer vereinfachten Überwachung und einem geringeren Schulungsaufwand für das Personal, da nur eine einheitliche Netzwerktechnologie gehandhabt werden muss. Ethernet-APL ist ein Teil des Puzzles für ein solches konvergentes Netzwerk und unterstützt verschiedene Echtzeitprotokolle wie PROFINET, EtherNet, HART-IP sowie das Middleware-Protokoll OPC UA. Dieses Papier gibt einen Überblick über die Auswirkungen von Ethernet-APL-Feldgeräten auf die OT-Sicherheit und schlägt vor, wie die OT-Sicherheit für diese Geräte gewährleistet werden kann.
Betreiber von Produktionsanlagen stehen oft vor der Frage, welche Norm für die Absicherung der Anlage gegen Cyberangriffe heranzuziehen ist. Aus dem IT-Bereich ist die Normreihe ISO 27000 bekannt. Im Produktionsbereich wird häufig die Normreihe IEC 62443 herangezogen. Dieser Beitrag gibt einen Überblick über beide Normreihen und schlägt einen Ansatz zur gemeinsamen Nutzung beider Standards vor.
Das Thema Elektromagnetische Verträglichkeit (EMV) ist noch immer ein wesentlicher Aspekt bei der Planung, bei der Installation und beim Betrieb von Automatisierungssystemen. Kommunikationsnetzwerke wie zum Beispiel PROFIBUS und PROFINET sind als robuste und zuverlässige Übertragungssysteme bekannt. Dennoch ist für deren Funktion die Beachtung einiger grundlegender Prinzipien wichtig, um einen störungsfreien Betrieb über ein langes Anlagenleben zu gewährleisten. Der Beitrag beschreibt zunächst einige Grundlagen der EMV. Basierend auf diesen Grundlagen werden dann sechs Handlungsempfehlungen abgeleitet, die bei der Planung eines Automatisierungssystems für den Einsatz in der Fertigungsindustrie zu beachten sind. Abschließend wird ein Ausblick auf die weiterführenden Arbeiten für Anlagen der Prozessindustrie gegeben.
Organisation der IT-Sicherheit in der Produktion : in zehn Schritten zur sicheren Produktionsanlage
(2018)
Der folgende Beitrag befasst sich mit der IT-Sicherheit von Produktionsanlagen aus Betreibersicht. Hierbei liegt der Fokus auf den organisatorischen Aspekten der IT-Sicherheit. In einer Bestandsaufnahme werden zunächst die Probleme herausgearbeitet, die entstehen, sofern sich eine Organisation im Wesentlichen auf technische Aspekte der IT-Sicherheit konzentriert. Daraus wird die Notwendigkeit organisatorischer Maßnahmen abgeleitet. Eine Betrachtung von Normen und Standards, die sich mit den organisatorischen Aspekten der IT-Sicherheit in der Produktion befassen, liefert das Grundgerüst für die Ableitung eines Maßnahmenplans. Der daraus resultierende 10-Punkte-Plan zur Umsetzung der IT-Sicherheit in der Produktion schließt den Beitrag ab.