Refine
Year of publication
- 2023 (39)
- 2022 (115)
- 2021 (104)
- 2020 (76)
- 2019 (76)
- 2018 (77)
- 2017 (64)
- 2016 (55)
- 2015 (28)
- 2014 (41)
- 2013 (42)
- 2012 (37)
- 2011 (42)
- 2010 (37)
- 2009 (35)
- 2008 (30)
- 2007 (16)
- 2006 (13)
- 2005 (13)
- 2004 (6)
- 2003 (17)
- 2002 (10)
- 2001 (8)
- 2000 (8)
- 1999 (5)
- 1998 (4)
- 1997 (2)
- 1996 (3)
- 1995 (4)
- 1994 (12)
- 1993 (19)
- 1992 (15)
- 1991 (12)
- 1990 (20)
- 1989 (13)
- 1988 (12)
- 1987 (9)
- 1986 (12)
- 1985 (10)
- 1984 (5)
- 1983 (3)
- 1981 (5)
- 1980 (5)
- 1979 (3)
- 1978 (1)
- 1977 (4)
- 1976 (5)
- 1975 (8)
Document Type
- Article (470)
- Conference Proceeding (142)
- Bachelor Thesis (139)
- Report (89)
- Working Paper (83)
- Book (70)
- Master's Thesis (57)
- Part of a Book (38)
- Periodical Part (38)
- Study Thesis (20)
- Course Material (18)
- Doctoral Thesis (11)
- Preprint (11)
- Review (5)
- Lecture (4)
- Other (2)
Has Fulltext
- yes (1197)
Is part of the Bibliography
- no (1197)
Keywords
- Bibliothek (41)
- Digitalisierung (36)
- Milchwirtschaft (36)
- Molkerei (27)
- E-Learning (24)
- Ausbildung (23)
- Informationsmanagement (21)
- Herbarium (20)
- Logistik (20)
- Euterentzündung (19)
Aim:
The most suitable method for assessment of response to peptide receptor radionuclide therapy (PRRT) of neuroendocrine tumors (NET) is still under debate. In this study we aimed to compare size (RECIST 1.1), density (Choi), Standardized Uptake Value (SUV) and a newly defined ZP combined parameter derived from Somatostatin Receptor (SSR) PET/CT for prediction of both response to PRRT and overall survival (OS).
Material and Methods:
Thirty-four NET patients with progressive disease (F:M 23:11; mean age 61.2 y; SD ± 12) treated with PRRT using either Lu-177 DOTATOC or Lu-177 DOTATATE and imaged with Ga-68 SSR PET/CT approximately 10–12 weeks prior to and after each treatment cycle were retrospectively analyzed. Median duration of follow-up after the first cycle was 63.9 months (range 6.2–86.2). A total of 77 lesions (2–8 per patient) were analyzed. Response assessment was performed according to RECIST 1.1, Choi and modified EORTC (MORE) criteria. In addition, a new parameter named ZP, the product of Hounsfield unit (HU) and SUVmean (Standard Uptake Value) of a tumor lesion, was tested. Further, SUV values (max and mean) of the tumor were normalized to SUV of normal liver parenchyma. Tumor response was defined as CR, PR, or SD. Gold standard for comparison of baseline parameters for prediction of response of individual target lesions to PRRT was change in size of lesions according to RECIST 1.1. For prediction of overall survival, the response after the first and second PRRT were tested.
Results:
Based on RECIST 1.1, Choi, MORE, and ZP, 85.3%, 64.7%, 61.8%, and 70.6% achieved a response whereas 14.7%, 35.3%, 38.2%, and 29.4% demonstrated PD (progressive disease), respectively. Baseline ZP and ZPnormalized were found to be the only parameters predictive of lesion progression after three PRRT cycles (AUC ZP 0.753; 95% CI 0.6–0.9, p 0.037; AUC ZPnormalized 0.766; 95% CI 0.6–0.9; p 0.029). Based on a cut-off-value of 1201, ZP achieved a sensitivity of 86% and a specificity of 67%, while ZPnormalized reached a sensitivity of 86% and a specificity of 76% at a cut-off-value of 198. Median OS in the total cohort was not reached. In univariate analysis amongst all parameters, only patients having progressive disease according to MORE after the second cycle of PRRT were found to have significantly shorter overall survival (median OS in objective responders not reached, in PD 29.2 months; p 0.015). Patients progressive after two cycles of PRRT according to ZP had shorter OS compared to those responding (median OS for responders not reached, for PD 47.2 months, p 0.066).
Conclusions:
In this explorative study, we showed that Choi, RECIST 1.1, and SUVmax-based response evaluation varied significantly from each other. Only patients showing progressive disease after two PRRT cycles according to MORE criteria had a worse prognosis while baseline ZP and
ZPnormalized performed best in predicting lesion progression after three cycles of PRRT.
Die nachhaltige Verschiebung der Wachstumsmärkte in Richtung Emerging Markets (und hier insbesondere in die BRIC-Staaten) infolge der Wirtschaftskrise 2008/2009 hat die bereits weit reichend konsolidierte Nutzfahrzeugindustrie der Triadenmärkte in Nordamerika, Europa und Japan vor eine Vielzahl von Herausforderungen gestellt. Strategische Ziele wie die Festigung und Steigerung von Absatzvolumina sowie eine bessere Ausbalancierung von zyklischen Marktentwicklungen, die die Ertragssicherung und eine weitestgehend kontinuierliche Auslastung existenter Kapazitäten sicherstellen soll, sind in Zukunft ohne eine Marktbearbeitung in den ex-Triade Wachstumsmärkten kaum noch erreichbar. Dies verlangt eine Auseinandersetzung der betroffenen Unternehmen mit dem veränderten unternehmerischen Umfeld. Es gilt neue, bisher größtenteils unbekannte Märkte zu erobern und sich dabei neuen – teilweise ebenfalls wenig bekannten - Wettbewerbern und deren teilweise durchaus unkonventionellen Strategien zu stellen. Die Triade-Unternehmen sehen sich dabei Informationsdefiziten und einer zunehmenden Gesamtkomplexität ausgesetzt, die zu für sie zu nachteiligen und ungünstigen nformationsasymmetrien führen können. Die Auswirkungen, dieser Situation unangepasst gegenüberzutreten wären deutlich unsicherheits- und risikobehaftetere Marktbearbeitungsstrategien bzw. im Extremfall die Absenz von Internationalisierungsaktivitäten in den betroffenen Unternehmen. Die Competitive Intelligence als Instrument zur unternehmerischen Umfeldanalyse kann unterstützen diese negativen Informationsasymmetrien zu beseitigen aber auch für das Unternehmen günstige Informationsasymmetrien in Form von Informationsvorsprüngen generieren, aus denen sich Wettbewerbsvorteile ableiten lassen. Dieser Kontext Competitive Intelligence zur Beseitigung von Informationsdefiziten bzw. Schaffung von bewussten, opportunistischen Informationsasymmetrien zur erfolgreichen Expansion durch Internationalisierungsstrategien in den Emerging Markets wird im Rahmen dieses Arbeitspapieres durch die Verbindung von wissenschaftstheoretischen und praktischen Implikationen näher beleuchtet. Die sich aus dem beschriebenen praktischen Anwendungsbeispiel Competitive intelligence für afrikanische Marktbearbeitung ergebenden Erkenntnisse der erfolgreichen Anwendung von Competitive Intelligence als Entscheidungshilfe für Internationalisierungsstrategien sind wie folgt angelegt: - Erweiterung der Status-quo, häufig Stammmarkt-zentristisch angelegten Betrachtungsweisen von Märkten und Wettbewerbern in Hinblick auf das reale Marktgeschehen oder Potentialmärkte - bias-freie Clusterung von Märkten bzw. Wettbewerbern, oder Verzicht auf den Versuch der Simplifizierung durch Clusterbildung - differenzierte Datenerhebungsverfahren wie lokale vs. zentrale / primäre vs. sekundäre Datenerhebung für inhomogene, unterentwickelte oder sich entwickelnde Märkte - Identifizierung und Hinzuziehung von Experten mit dem entscheidenden Wissensvorsprung für den zu bearbeitenden Informationsbedarf - Überprüfung der Informationen durch Datentriangulation
In the context of modern mobility, topics such as smart-cities, Car2Car-Communication, extensive vehicle sensor-data, e-mobility and charging point management systems have to be considered. These topics of modern mobility often have in common that they are characterized by complex and extensive data situations. Vehicle position data, sensor data or vehicle communication data must be preprocessed, aggregated and analyzed. In many cases, the data is interdependent. For example, the vehicle position data of electric vehicles and surrounding charging points have a dependence on one another and characterize a competition situation between the vehicles. In the case of Car2Car-Communication, the positions of the vehicles must also be viewed in relation to each other. The data are dependent on each other and will influence the ability to establish a communication. This dependency can provoke very complex and large data situations, which can no longer be treated efficiently. With this work, a model is presented in order to be able to map such typical data situations with a strong dependency of the data among each other. Microservices can help reduce complexity.
Using openEHR Archetypes for Automated Extraction of Numerical Information from Clinical Narratives
(2019)
Up to 80% of medical information is documented by unstructured data such as clinical reports written in natural language. Such data is called unstructured because the information it contains cannot be retrieved automatically as straightforward as from structured data. However, we assume that the use of this flexible kind of documentation will remain a substantial part of a patient’s medical record, so that clinical information systems have to deal appropriately with this type of information description. On the other hand, there are efforts to achieve semantic interoperability between clinical application systems through information modelling concepts like HL7 FHIR or openEHR. Considering this, we propose an approach to transform unstructured documented information into openEHR archetypes. Furthermore, we aim to support the field of clinical text mining by recognizing and publishing the connections between openEHR archetypes and heterogeneous phrasings. We have evaluated our method by extracting the values to three openEHR archetypes from unstructured documents in English and German language.
This paper deals with new job profiles in libraries, mainly systems librarians (German: Systembibliothekare), IT librarians (German: IT-Bibliothekare) and data librarians (German: Datenbibliothekare). It investigates the vacancies and requirements of these positions in the German-speaking countries by analyzing one hundred and fifty published job advertisements of OpenBiblioJobs between 2012-2016. In addition, the distribution of positions, institutional bearers, different job titles as well as time limits, scope of work and remuneration of the positions are evaluated. The analysis of the remuneration in the public sector in Germany also provides information on demands for a bachelor's or master's degree.
The average annual increase in job vacancies between 2012 and 2016 is 14.19%, confirming the need and necessity of these professional library profiles.
The higher remuneration of the positions in data management, in comparison to the systems librarian, proves the prerequisite of the master's degree and thus indicates a desideratum due to missing or few master's degree courses. Accordingly, the range of bachelor's degree courses (or IT-oriented major areas of study with optional compulsory modules in existing bachelor's degree courses) for systems and IT librarians must be further expanded. An alternative could also be modular education programs for librarians and information scientists with professional experience, as it is already the case for music librarians.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Schriftliche Nachlässe werden in deutschen Bibliotheken in einer langen Tradition ge-sammelt und verwaltet. In der vorliegenden Bachelorarbeit werden die Besonderheit von schriftlichen Nachlässen und die Entwicklung der Nachlassbearbeitung erläutert. Zunächst werden zur Einführung in die Thematik Begriffsdefinitionen, die Bedeutung sowie die Entwicklungen in der Bearbeitung von Nachlässen dargelegt. An die Einführungen werden die Frage nach der Zuständigkeit zur Übernahme eines Nachlasses und der damit zusammenhängende Kompetenzstreitfall angeknüpft. Im Folgenden wird die Erwerbung thematisiert. Dazu werden die verschiedenen Erwerbungsarten vorgestellt und die möglichen rechtlichen Probleme in der Erwerbung aufgezeigt. Die Bearbeitung von Nachlässen wird anhand von Kassation, Ordnung, Erschließung und Maßnahmen zur Bestandserhaltung dargestellt. Die Thematik der schriftlichen Nachlässe wird mit Aspekten und Fragen der Nutzung abgeschlossen. Der theoretischen Abhandlung folgt die Dokumentation der Ordnung und Erschließung der Fotografien-Sammlung aus dem Nachlass von Robert Michel und Ella Bergmann-Michel, die mit der Vorstellung des Künstlerpaares und dessen Nachlass beginnt. Danach folgt die Erläuterung der praktischen Aufgabe im Hinblick auf Zielsetzung, Ausgangssituation, Vorbereitung und Durchführung. Abgeschlossen wird die Dokumentation mit Empfehlungen für die zukünftige Bearbeitung der Fotografien und des gesamten Nachlasses.
Die empfindliche Verteuerung des Rohöls im Laufe der letzten Jahre und die in ihrem Sog erfolgten Preissteigerungen auch für die anderen Energieträger haben Energie zu einem besonders kostbaren Wirtschaftsgut werden lassen. Es ist ganz deutlich geworden, dass Energie in allen Lebens- und Produktionsbereichen äußerst sparsam verwendet und optimal genutzt werden muss. Mittel- und langfristig gesehen sind daher gezielt Anstrengungen zu unternehmen, nicht einen Brennstoff durch einen anderen zu ersetzen, sondern - wo immer auch möglich - die natürlcihen Energiequellen zu nutzem.
Fenster versorgen die Innenräume mit Tageslicht, dienen der Lufterneuerung in den Räumen und schützen vor Umwelteinflüssen wie Kälte, Wärme, Lärm, Wind und Niederschlägen. Entsprechend weitgefächert ist das Spektrum deer planungsrelevanten Aspekte. Sowohl licht-, lüftungs-, wärme-, schall und wohntechnische als auch hygienische, psychologische und nicht zuletzt wirtschaftliche Gesichtspunkte sind bei edr täglichen Arbeit zu beachten.
Die Funktion eines Gebäudes, seine flächenmäßige Ausdehnung und seine Gliederung sowie seine Einbettung in die Umgebung bestimmen letztendlich die Dachkonstruktion. Der Planer steht hierbei vor der Aufgabe, unter Beachtung aller bauphysikalischen wie bautechnischen Gegebenheiten ein Optimum an gestalterischer Qualität bei Respektierung wirtschaftlicher und baupraktischer Belange zu realisieren, wobei zu beachten ist, dass gerade das Dach von den die Gebäudehülle bildenden Bauteilen der größten und unmittelbarsten Beanspruchung unterliegt.
Methods for standard meta-analysis of diagnostic test accuracy studies are well established and understood. For the more complex case in which studies report test accuracy across multiple thresholds, several approaches have recently been proposed. These are based on similar ideas, but make different assumptions. In this article, we apply four different approaches to data from a recent systematic review in the area of nephrology and compare the results. The four approaches use: a linear mixed effects model, a Bayesian multinomial random effects model, a time-to-event model and a nonparametric model, respectively. In the case study data, the accuracy of neutrophil gelatinase-associated lipocalin for the diagnosis of acute kidney injury was assessed in different scenarios, with sensitivity and specificity estimates available for three thresholds in each primary study. All approaches led to plausible and mostly similar summary results. However, we found considerable differences in results for some scenarios, for example, differences in the area under the receiver operating characteristic curve (AUC) of up to 0.13. The Bayesian approach tended to lead to the highest values of the AUC, and the nonparametric approach tended to produce the lowest values across the different scenarios. Though we recommend using these approaches, our findings motivate the need for a simulation study to explore optimal choice of method in various scenarios.
In this study, we calculated the energetics of hydrogen atoms adsorbing on and diffusing into the first few layers of γ-Fe for the (100), (110) and (111) surfaces and for the non-magnetic (NM), ferromagnetic (FM), and antiferromagnetic single (AFM1) and double layer (AFMD) structures. These studies are relevant as they atomistically simulate the early stages of hydrogen embrittlement in steels. We employed density functional theory to establish adsorption sites and energies for each plane and the minimum energy pathways for diffusion through the first few layers with associated activation barriers. Adsorption energies for all cases vary between ∼3.7 and 4.4 eV, and the energy barriers to diffusion in the bulk region vary between ∼0.2 and 1.2 eV for the twelve cases, with the highest and lowest bulk diffusion barriers occurring in the NM(111) and the FM(100) case, respectively. We conclude that the texturing of steels in order to expose certain cleavage planes or magnetic structures can decrease the likelihood of hydrogen embrittlement.
Bei der Integration technischer Energiemanagementsysteme (tEnMS) in Automatisierungsanlagen fällt ein hoher Engineering-Aufwand an, besonders für die Steuerungsprogrammierung. Dieser Engineering-Aufwand ist für industrielle Anwender der Hauptgrund, integrierte tEnMS nicht einzusetzen. Im Rahmen des Forschungsprojektes „Integriertes Anlagenengineering zur Erhöhung der Energieeffizienz (IAE4)“ (Förderkennzeichen: ZN2948; Forschungsprofessur des Landes Niedersachsen/Volkswagenstiftung) wurde untersucht, wie sich dieser Engineering-Aufwand reduzieren lässt. Hierzu wurde ein Software-Werkzeug entwickelt, das die benötigten Steuerungsprogramme automatisch aus Engineering-Daten und Gerätebeschreibungsdateien generiert. Dieser Beitrag stellt die Ergebnisse des IAE4-Projektes vor.
In dieser Studie wurden Unternehmen, die Produktionsanlagen betreiben oder betreuen, zu ihrem Sicherheitsaufwand bei der Abfrage von Security Advisories für Automatisierungskomponenten befragt. Die befragten Unternehmen (vorwiegend KMU) machten Angaben zum zeitlichen, technischen und personellen Aufwand für die Auswertung von Security Advisories im Produktionsumfeld. Es wurde festgestellt, dass in vielen Unternehmen Defizite in Bezug auf diese Fragestellung bestehen. Dieses resultiert im Wesentlichen aus Mangel an Zeit und Mangel an qualifiziertem Personal. Eine in der Studie vorgeschlagene automatisierte Abfrage von Asset Inventories und eine automatisierte Zuordnung von Security Advisories zu den Assets wird von den befragten Unternehmen durchgehend als sinnvoll erachtet.
Self-directed learning is an essential basis for lifelong learning and requires constantly changing, target groupspecific and personalized prerequisites in order to motivate people to deal with modern learning content, not to overburden them and yet to adequately convey complex contexts. Current challenges in dealing with digital resources such as information overload, reduction of complexity and focus, motivation to learn, self-control or psychological wellbeing are taken up in the conception of learning settings within our QpLuS IM project for the study program Information Management and Information Management extra-occupational (IM) at the University of Applied Sciences and Arts Hannover. We present an interactive video on the functionality of search engines as a practical example of a medially high-quality and focused self-learning format that has been methodically produced in line with our agile, media-didactic process and stage model of complexity levels.
Although Corynebacterium spp. can be regularly associated with subclinical and clinical mastitis cases in dairy cows, knowledge on their reservoirs in dairy farms is sparse. Therefore, samples were collected at 10 visits with 14 day intervals from bedding material (n = 50), drinking troughs (n = 20), different walking areas (n = 60), cow brushes (n = 8), fly traps (n = 4), the passage to pasture (n = 9) as well as milking liners (n = 80) and milker gloves (n = 20) in one dairy cow farm. Additionally, quarter foremilk samples from all lactating cows (approximately 200) were collected at each visit. All samples underwent microbiological examination and cultured isolates were identified using MALDI-TOF MS. Most Corynebacterium spp. that were cultivated from milk were also isolated from the housing environment and milking-related niches (C. amycolatum, C. confusum, C. stationis, C. variabile, C. xerosis) or from milking-related niches only (C. frankenforstense, C. pilosum, C. suicordis). C. bovis was not cultivated from any environmental niche, while being the dominant species in milk samples. This study demonstrates that many Corynebacterium spp. present in milk samples can also be isolated from the cows’ environment. For C. bovis, the most relevant Corynebacterium species with regard to intramammary infections, it indicates that environmental reservoirs are of little relevance.
Open Access zu Textpublikationen und Forschungsdaten: Positionen politischer Parteien in Deutschland
(2016)
Die Arbeit beginnt mit einem Blick auf die Entstehung der Open-Access-Bewegung und erklärt die zentralen Begriffe Open Access zu Textpublikationen und Forschungsdaten und stellt das Zweitveröffentlichungsrecht vor. Die Vorstellung der beschlossenen Open-Access-Strategien, zusammen mit der Untersuchung von Wahlprogrammen und Koalitionsverträgen vermittelt einen Gesamteindruck zum aktuellen Open-Access-Stand in den Ländern. Bereits seit zehn Jahren ist die Forderung nach Open Access, dem freien Zugang zu wissenschaftlichen Informationen, Bestandteil der Wahlprogramme politischer Parteien. Trotzdem beschlossen erst in den Jahren 2014 und 2015 die Länder Baden-Württemberg, Berlin und Schleswig-Holstein landesweite Konzepte zur Open-Access-Förderung. Im Sommer 2016 wird unter den politischen Parteien in Deutschland eine schriftliche Befragung durchgeführt. Ziel der Befragung ist die Ermittlung der Positionen der Parteien, um Rückschlüsse auf die weitere Open-Access-Entwicklung in Deutschland zu ziehen.
This document describes the work done during the Research Semester in Summer 2006 of Prof. Dr. Stefan Wohlfeil. It is about Security Management tasks and how these tasks might be supported by Open Source software tools. I begin with a short discussion of general management tasks and describe some additional, security related management tasks. These security related tasks should then be added to a software tool which already provides the general tasks. Nagios is such a tool. It is extended to also perform some of the security related management tasks, too. I describe the new checking scripts and how Nagios needs to be configured to use these scripts. The work has been done in cooperation with colleagues from the Polytech- nic of Namibia in Windhoek, Namibia. This opportunity was used to also establish a partnership between the Department of Computer Science at FH Hannover and the Department of Information Technology at the Polytechnic. A first Memorandum of Agreement lays the groundwork for future staff or student exchange.
Der Aufsatz erläutert anschaulich, wie der Transport der elektrischen Energie vom Erzeuger zum Verbraucher im Detail erfolgt. Die Rechnung mit Hilfe grundlegender Beziehungen aus den Grundlagen der Elektrotechnik und dem Poynting-Vektor ermöglicht es, den physikalisch realen Transport der Energie räumlich quantitativ nachzuvollziehen und zu verstehen. An vereinfachten Beispielen wird gezeigt, wie die Energie über zwei Sammelschienen zu den Verbrauchern und insbesondere in die Verbraucher hinein gelangt. Bei den Verbrauchern handelt es sich exemplarisch um einen Widerstand, einen Kondensator, eine Spule und schließlich einen bewegten Leiter im magnetischen Feld als einfachste Form eines Gleichstrommotors. Es wird dargestellt, dass die Energie keinesfalls in den Zuleitungen transportiert wird, sondern durch den umgebenden Raum.
The optimization of lubricated sealing systems with respect to the stick-slip effect requires a friction model that describes the complex friction behavior in the lubricated contact area. This paper presents an efficient dynamic friction model based on the Stribeck curve, which allows to investigate the influencing parameters through finite element (FE) simulations. The simulation of a tribometer test using this friction model proofs that the model correlates well with the tribometer test results. It is shown that the system stiffness has a significant influence on the stick-slip tendency of the system.
Zum Abschluss des dreijährigen Forschungsprojektes "Flexible Plattform für Energiesammelsysteme für die Gebäudeautomation – MEH", gefördert durch das BMBF, wurde ein nachhaltiges Energiekonzept realisiert. Durch Nutzung unterschiedlicher energetischer Quellen, u.a. Rundfunkwellen (RF) und Solarstrahlung, können Aktoren und Sensoren der Gebäudeautomation autonom ohne zusätzliche Batterien umweltfreundlich und wartungsfrei betrieben werden.
Für Fachangestellte für Medien- und Informationsdienste (FaMIs) ist berufsbegleitendes Studieren eine erfolgreiche Maßnahme zur Höherqualifizierung. Bibliotheken können ihrerseits im Rahmen der Personalentwicklung mit der Unterstützung von studierenden Mitarbeitenden dem Fachkräftemangel entgegenwirken. Der Beitrag stellt die Personalentwicklungsmaßnahme am Beispiel des Bachelor-Studiengangs „Informationsmanagement – berufsbegleitend“ der Hochschule Hannover vor. Es werden Informationen aus der Beratungspraxis dargelegt und die mögliche Unterstützung durch die entsendenden Bibliotheken aufgezeigt.
Der zielorientierte Umgang mit Wissen bildet eine zentrale Herausforderung für Unternehmen und deren Mitarbeiter. Deren Kompetenzentwicklung ist für die Unternehmen unter dem Aspekt der Wettbewerbsfähigkeit ein lohnendes Ziel. Diese Arbeit stellt ein Werkzeug zur Messung von Kompetenzen im Persönlichen Wissensmanagement vor. Auf einer Literaturstudie basierend wurde ein Kompetenzkatalog erstellt und mit Hilfe einer Befragung von Fachleuten aus dem Bereichen Informations- und Wissensmanagement validiert. Dieser Kompetenzkatalog findet Eingang in einen Referenzrahmen für Kompetenzen für Persönliches Wissensmanagement. Zur Bestimmung der Niveaustufen Experte, Könner und Kenner im Persönlichen Wissensmanagement wurde ein Messwerkzeug erarbeitet und anhand von zwei Gruppen auf Gültigkeit überprüft. Die eine Gruppe bestand aus Mitarbeitern Exzellenter Wissensorganisationen, die andere aus interessierten Mitarbeitern aus nicht-explizit wissensorientierten Unternehmen. Es konnte nachgewiesen werden, dass beide Gruppen in acht Einzelkompetenzen signifikante Unterschiede besaßen. Auch für weitere Kompetenzen konnten Messdimensionen aus den Rückmeldungen der Umfrage hergeleitet werden. In einigen Fällen allerdings konnten die Niveaustufen Könner und Kenner nicht unterschieden werden.
Within the HiGHmeducation consortium various online learning modules shall be developed by members of the consortium to address the increasing need for skilled professionals in a networked and digitalized healthcare system. Transferability of these modules to other locations is one main objective for the design of online learning modules. Thus, a didactical framework for online learning modules was developed. To ensure feasibility of the framework, the participating universities were analyzed concerning availability of e-learning support structures and infrastructures including learning management systems (LMS). The analysis especially focuses on the various LMS learning tools and their suitability for the framework. The framework is the basis for 12 HiGHmeducation online learning modules of which a part has firstly been conducted in winter 2019/20 and leads to a comparable structure of the modules.
Radioisotope-guided sentinel lymph node dissection (sLND) has shown high diagnostic reliability in prostate (PCa) and other cancers. To overcome the limitations of the radioactive tracers, magnetometer-guided sLND using superparamagnetic iron oxide nanoparticles (SPIONs) has been successfully used in PCa. This prospective study (SentiMag Pro II, DRKS00007671) determined the diagnostic accuracy of magnetometer-guided sLND in intermediate- and high-risk PCa. Fifty intermediate- or high-risk PCa patients (prostate-specific antigen (PSA) >= 10 ng/mL and/or Gleason score >= 7; median PSA 10.8 ng/mL, IQR 7.4–19.2 ng/mL) were enrolled. After the intraprostatic SPIONs injection a day earlier, patients underwent magnetometer-guided sLND and extended lymph node dissection (eLND, followed by radical prostatectomy. SLNs were detected in in vivo and in ex vivo samples. Diagnostic accuracy of sLND was assessed using eLND as the reference. SLNs were detected in all patients (detection rate 100%), with 447 sentinel lymph nodes SLNs (median 9, IQR 6–12) being identified and 966 LNs (median 18, IQR 15–23) being removed. Thirty-six percent (18/50) of patients had LN metastases (median 2, IQR 1–3). Magnetometer-guided sLND had 100% sensitivity, 97.0% specificity, 94.4% positive predictive value, 100% negative predictive value, 0.0% false negative rate, and 3.0% additional diagnostic value (LN metastases only in SLNs outside the eLND template). In vivo, one positive SLN/LN-positive patient was missed, resulting in a sensitivity of 94.4%. In conclusion, this new magnetic sentinel procedure has high accuracy for nodal staging in intermediate- and high-risk PCa. The reliability of intraoperative SLN detection using this magnetometer system requires verification in further multicentric studies.
The velocity distribution of He atoms evaporating from a slab of liquid dodecane has been simulated. The distribution composed of ∼10 000 He trajectories is shifted to fractionally faster velocities as compared to a Maxwell–Boltzmann distribution at the temperature of the liquid dodecane with an average translational energy of 1.05 × 2RT (or 1.08 × 2RT after correction for a cylindrical liquid jet), compared to the experimental work by Nathanson and co-workers (1.14 × 2RT) on liquid jets. Analysis of the trajectories allows us to infer mechanistic information about the modes of evaporation, and their contribution to the overall velocity distribution.
Gemeinwesendiakonie und Digitalisierung: Ein kirchlicher Megatrend und ein gesellschaftlicher Megatrend. Zu beiden Themen einzeln wurde in den vergangenen Jahren viel publiziert. Zu beiden Themen gemeinsam jedoch kaum etwas. Isabelle Willemsen füllt diese Lücke mit dem vorliegenden Band fachkundig und differenziert und liefert zahlreiche Anregungen zum Weiterdenken.
Dieses Buch richtet sich an alle, die sich wissenschaftlich oder praktisch mit dem Thema Gemeinwesendiakonie beschäftigen.
Das Verhalten von Fußgängern wird seit einigen Jahrzehnten mit dem Ziel erforscht, Empfehlungen zur Reduzierung von Verletzten und Toten im Straßenverkehr auszusprechen. Diese Studie befasst sich mit ausgewählten Ergebnissen nationaler und internationaler Studien zum Fußgängerverhalten und verfolgt das Ziel, die bisherigen Forschungsergebnisse anhand einer verdeckten Beobachtung von Fußgängern im Straßenverkehr zu überprüfen. Hierzu wurde das Verhalten an einer Fußgängerampel in Hannover an zwei Wochentagen mehrere Stunden lang beobachtet. Bei der Auswertung der Ergebnisse konnten signifikante Zusammenhänge zwischen den untersuchten Einflussgrößen und dem Verhalten der beobachteten Personen festgestellt werden. Insbesondere deren Alter, die Anwesenheit weiterer Personen und das Fehlverhalten weiterer Personen erwiesen sich als die wichtige Prädiktoren für die Entscheidung, selbst bei Rot zu gehen.
In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.
Die Milchwirtschaft will höhere Preise für Speisequark erlösen. Begründet wird dies mit der in der Bundesrepublik Deutschland gesetzlich verordneten Trockenmasseanhebung des Speisequarks von 17% auf 18%. Da diese Änderung zum 1. Januar 1987 bereits in Kraft trat und den Molkereiunternehmen lange vorher bekannt war, ist die Frage zu stellen, warum eine Änderung der variablen Kosten, von der alle Hersteller gleichermaßen betroffen sind, so schwer am Markt in entsprechende Preisanhebungen umzusetzen ist.
Methodische Weiterentwicklungen der Modellabteilungsrechnung für milchwirtschaftliche Betriebe
(1990)
Vor 15 Jahren wurde der erste Beitrag einer Serie von Modellabteilungsrechnungen mit dem Ziel veröffentlicht, der Praxis und Wissenschaft nachvollziehbare Planungshilfen
für die Gestaltung optimaler Produktionsstrukturen in der Milchwirtschaft an die Hand zu geben. Dieses Ziel gilt auch heute noch, jedoch hat sich im Laufe der Zeit immer
deutlicher herauskristallisiert, daß eine Fortschreibung der Faktorpreise sowie eine gelegentliche Aktualisierung der Faktormengenverbräuche in Anpassung an neue technologische Entwicklungen allein nicht ausreichen, die selbstgesetzen Ansprüche an die Modellabteilungsrechnung zu erfüllen.
In der Bundesrepublik Deutschland gibt es rund 200000 Lieferstellen für Molkereiprodukte vom industriellen Großverbraucher bis zum Facheinzelhändler mit Milchproduktenangebot. Gut die Hälfte der gesamten Nachfrage schöpfen die Zentralläger sowie die Geschäfte des Lebensmitteleinzelhandels ab, wobei die Belieferung des LEH weitestgehend auf Strecke erfolgt. - Dipl.-Wirtsch.-Ing. Heinrich Wietbrauk von der Bundesanstalt für Milchforschung in Kiel analysiert für „dynamik im handel" die milchwirtschaftlichen Warenströme in Deutschland.
Durch den demographischen Wandel und den damit verbundenen Fachkräftemangel stehen für Unternehmen immer weniger qualifizierte Fachkräfte zur Verfügung. Um in diesem sogenannten "War for Talents" wettbewerbsfähig zu bleiben, müssen Arbeitgebende für ihre Zielgruppe als attraktiv wahrgenommen werden. Dafür setzen immer mehr Unternehmen darauf, ihre Werte deutlich zu kommunizieren, um so eine starke, emotionalisierte Marke als Arbeitgebende aufzubauen. Denn: Nach der Theorie des "Person-Organization-Fit" bevorzugen Mitarbeitende Unternehmen als Arbeitgebende, die ähnliche Werteidentitäten aufweisen.
Neben diesen Entwicklungen fordern immer mehr Konsument:innen, aber auch Mitarbeitende, dass Unternehmen und Arbeitgebende Haltung zeigen und Verantwortung für Gesellschaft und Umwelt übernehmen, zum Beispiel in Form von Corporate Social Responsibility (CSR). Insbesondere Angehörige der Generationen Y und Z (zwischen 1980 und 2010 Geborene) wünschen sich eine emotionale Bindung und übereinstimmende Werte zu bzw. mit ihren Arbeitgebenden. Als informierte Generationen erwarten sie mehr als andere eine deutliche Positionierung von Unternehmen zu aktuellen Missständen: Ethisches Verhalten ist wichtiger als Gehalt und Glück schlägt Geld.
Ein Lösungsansatz, dem Fachkräftemangel und dieser Forderung zu begegnen, könnte dabei die Anwendung und Integration von Brand Activism sein, indem es der Steigerung der Arbeitgebendenattraktivität dient und Arbeitgebende die Rolle als "Agents of Change" einnehmen. Mit den Unternehmenswerten als Treiber umfasst Brand Activism sowohl die Kommunikation als auch spezifische aktivistische Handlungen, meist in Form von Kampagnen, die die eigene Haltung verdeutlichen.
In diesem Zusammenhang untersucht die vorliegende Experimentalstudie, inwiefern Brand Activism die wahrgenommene Arbeitgebendenattraktivität bei den Generationen Y und Z, insbesondere im Vergleich zu CSR, beeinflusst. Zudem wurde der moderierende Einfluss von bestimmten Persönlichkeitseigenschaften und Wertvorstellungen auf den Effekt von Brand Activism auf die Attraktivität von Arbeitgebenden untersucht. Die Ergebnisse der quantitativen Online-Befragung mit drei Experimentalgruppen zeigten, dass Brand Activism einen signifikant positiven Einfluss auf die wahrgenommene Arbeitgebendenattraktivität bei den Generationen Y und Z hat; im Detail auf den Innovations-, Entwicklungs- und Transferwert sowie auf einen Teil des ökonomischen Wertes und die Absichten gegenüber dem Unternehmen. Die untersuchten Persönlichkeitsmerkmale (Ausprägung der prosozialen Persönlichkeit und Communion) sowie Wertevorstellungen (Selbst-Überwindung) verstärken diesen Effekt von Brand Activism dabei nicht. Hierbei wurde lediglich in Zusammenhang mit dem sozialen Wert der Marke eine disordinale Wechselwirkung zwischen der Manipulation von Brand Activism und der Ausprägung der prosozialen Persönlichkeit aufgedeckt, die sich jedoch ausschließlich auf Personen mit geringer prosozialer Persönlichkeit in Verbindung mit der Beurteilung des sozialen Wertes der CSR-Marke bezieht und nicht pauschalisiert werden kann.
Die Serie von Modellabteilungsrechnungen wird mit der Untersuchung des Kostenverlaufs in der Abteilung Weichkäse fortgefuhrt, um einen weiteren Baustein zur Bestimmung optimaler Produktionsstrukturen zu erhalten. Als Ausgangsposition dieser Themenstellung soll im folgenden die Modellabteilung Weichkäse Gestalt annehmen. Dazu sind drei Arbeitsschritte notwendig: die Festlegung des zu untersuchenden Produktes, die inhaltliche Abgrenzung der zu bildenden Modellabteilung und die Auswahl des Fertigungsverfahrens.
In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.
In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.
Im zweiten Teil dieser Arbeit bilden gemäß den allgemeinen technischen Prozeßbedingungen die maschinellen und baulichen Ausrüstungen der vier Modelle, deren Investitionsbeträge, Nutzungsdauer und Instandhaltungsquote unterabteilungsweise dargestellt sind, den Ausgangspunkt dieses Themenbereiches. Eine Anpassung der technischen Auslegung an eine verringerte Auslastung erfolgte bei einer 65%igen und 33%igen Beschäftigung. Die zu tätigenden Investitionen für die Grundversion (100 % Beschäftigung) betragen im Modell 1 25,0 Mio. DM und im Modell 4 54,5 Mio. DM. Die Mengenverbräuche der Produktionsfaktoren Rohstoff, Personal, Energie, Betriebs- und Hilfsstoffe sowie Reparaturen sind von den spezifischen Modellausstattungen abgeleitet. Es ergeben sich Faktoreinsatzmengen, die mengenproportional auftreten und den Produkten zugeordnet sind, sowie periodenabhängige fixe Verbrauche, die der Abteilung angelastet werden. Anhand einer ausgewählten Beschäftigungssituation, die einem 2-Schichtbetrieb bei 250 Produktionstagen entspricht, wird aufgezeigt, wie sich die auf Abteilungsebene aggregierten Faktoreinsatzmengen in Abhängigkeit von der Modellgröße gestalten. So ergibt sich z.B. im Bereich des Produktionsfaktors Personal, daß für das Modell 1 eine Beschäftigungszahl an Arbeitskräften von 25 und im Modell 4 von 40 vorgesehen ist.
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.