Refine
Year of publication
Document Type
- Article (153)
- Conference Proceeding (22)
- Report (12)
- Periodical Part (9)
- Book (7)
- Part of a Book (5)
- Course Material (1)
- Master's Thesis (1)
- Working Paper (1)
Has Fulltext
- yes (211)
Is part of the Bibliography
- no (211)
Keywords
- Euterentzündung (22)
- Logistik (20)
- Milchwirtschaft (20)
- Molkerei (13)
- bioplastics (9)
- biopolymers (9)
- land use (9)
- market data facts (9)
- Klebeverbindung (8)
- PPS (8)
Institute
- Fakultät II - Maschinenbau und Bioverfahrenstechnik (211) (remove)
Against the background of climate change and finite fossil resources, bio-based plastics have been in the focus of research for the last decade and were identified as a promising alternative to fossil-based plastics. Now, with an evolving bio-based plastic market and application range, the environmental advantages of bio-based plastic have come to the fore and identified as crucial by different stakeholders. While the majority of assessments for bio-based plastics are carried out based on attributional life cycle assessment, there have been only few consequential studies done in this area. Also, the application of eco-design strategies has not been in the focus for the bio-based products due to the prevailing misconceptions of renewable materials (as feedstock for bio-based plastics) considered in itself as an ‘eco-design strategy’. In this paper, we discuss the life cycle assessment as well as eco-design strategies of a bio-based product taking attributional as well as consequential approaches into account.
Staphylococcus aureus is recognized worldwide as one of the major agents of dairy cow intra-mammary infections. This microorganism can express a wide spectrum of pathogenic factors used to attach, colonize, invade and infect the host. The present study evaluated 120 isolates from eight different countries that were genotyped by RS-PCR and investigated for 26 different virulence factors to increase the knowledge on the circulating genetic lineages among the cow population with mastitis. New genotypes were observed for South African strains while for all the other countries new variants of existing genotypes were detected. For each country, a specific genotypic pattern was found. Among the virulence factors, fmtB, cna, clfA and leucocidins genes were the most frequent. The sea and sei genes were present in seven out of eight countries; seh showed high frequency in South American countries (Brazil, Colombia, Argentina), while sel was harboured especially in one Mediterranean country (Tunisia). The etb, seb and see genes were not detected in any of the isolates, while only two isolates were MRSA (Germany and Italy) confirming the low diffusion of methicillin resistance microorganism among bovine mastitis isolates. This work demonstrated the wide variety of S. aureus genotypes found in dairy cattle worldwide. This condition suggests that considering the region of interest might help to formulate strategies for reducing the infection spreading.
A nonblinded, positively controlled, noninferiority trial was conducted to evaluate the efficacy of an alternative, nonantibiotic therapy with Masti Veyxym® to reduce ineffective antibiotic usage in the treatment of nonsevere clinical mastitis (CM) in cows with longer lasting udder diseases. The solely intramammary treatment with Masti Veyxym® (three applications, 12 hr apart) and the combined treatment with Masti Veyxym® and antibiotics as usual on the farm according to label of the respective product were compared with the reference treatment of solely antibiotic therapy. The matched field study was conducted on eight free-stall dairy farms located in Eastern Germany. Cases of mild-to-moderate CM in cows with longer lasting high somatic cell counts in preceding dairy herd improvement test days and with previous CM cases in current lactation were randomly allocated to one of the three treatment groups. A foremilk sample of the affected quarter was taken before treatment and again approximately 14 days and 21 days after the end of therapy for cyto-bacteriological examination. Primary outcomes were clinical cure (CC) and no CM recurrence within 60 days after the end of treatment (no R60). Bacteriological cure (BC) and quarter somatic cell count (QSCC) cure were chosen as secondary outcomes although low probabilities of BC and QSCC cure for selected cows were expected. The study resulted in the following findings: the pathogens mostly cultured from pretreatment samples were Streptococcus uberis, followed by Staphylococcus aureus and coagulase-negative staphylococci. There were no significant differences between the two test treatments in comparison with the reference treatment regarding all outcome variables. The sole therapy with Masti Veyxym® resulted in a numerically lower likelihood of BC without significant differences to the reference treatment. The combined therapy group showed a numerically higher nonrecurrence rate than the two other treatment groups and noninferiority compared to the reference treatment was proven. Having regard to the selection criteria of cows in this study, the findings indicated that sole treatment with Masti Veyxym® in nonsevere CM cases may constitute an alternative therapy to reduce antibiotics. However, noninferiority evaluations were mostly inconclusive. Further investigations with a larger sample size are required to confirm the results and to make a clear statement on noninferiority.
One of the main concerns of this publication is to furnish a more rational basis for discussing bioplastics and use fact-based arguments in the public discourse. Furthermore, “Biopolymers – facts and statistics” aims to provide specific, qualified answers easily and quickly for decision-makers in particular from public administration and the industrial sector. Therefore, this publication is made up like a set of rules and standards and largely foregoes textual detail. It offers extensive market-relevant and technical facts presented in graphs and charts, which means that the information is much easier to grasp. The reader can expect comparative market figures for various materials, regions, applications, process routes, agricultural land use, water use or resource consumption, production capacities, geographic distribution, etc.
One of the main concerns of this publication is to furnish a more rational basis for discussing bioplastics and use fact-based arguments in the public discourse. Furthermore, “Biopolymers – facts and statistics” aims to provide specific, qualified answers easily and quickly for decision-makers in particular from public administration and the industrial sector. Therefore, this publication is made up like a set of rules and standards and largely foregoes textual detail. It offers extensive market-relevant and technical facts presented in graphs and charts, which means that the information is much easier to grasp. The reader can expect comparative market figures for various materials, regions, applications, process routes, agricultural land use, water use or resource consumption, production capacities, geographic distribution, etc.
This paper describes the latest accomplishments on the current research that is based on the master’s thesis “Ein System zur Erstellung taktiler Karten für blinde und sehbehinderte Menschen” (German for “A system creating tactile maps for blind and visually impaired people”) (Hänßgen, 2012). The system consists of two parts. The first part is new software especially designed and developed for creating tactile maps addressing the needs of blind and visually impaired people on tactile information. The second is an embossing device based on a modified CNC (computer numerical control) router. By using OpenStreetMap-data, the developed system is capable of embossing tactile maps into Braille paper and writing film.
Streptococcus (S.) uberis is a causative agent for clinical and subclinical bovine mastitis which significance for the udder health has increased over the last decades. Molecular diagnosis methods revealed that S. uberis may be subdivided into many different varieties with different epidemiological properties. In addition, some varieties were reclassified as Streptococcus parauberis and Globicatella sanguinis. The present paper reviews S. uberis and its role in modern dairy farming. This pathogen is ubiquitous for which it is considered as environment- associated. Straw bedding and pasture, but also the bovine skin and digestive mucosae are typical localizations inhabited by S. uberis. Due to its capacity to persist within the mammary tissue, some infections may eventually turn cow-associated. In other cases, the infection is short, but in any case, there is a high risk of re-infection. Although many varieties remain susceptible to most antimicrobial agents, the problem for the dairy farm lies in the high rate of re-infection. This paper also reviews risk factors, therapies and measures to control S. uberis at farm level.
The technical, environmental and economic potential of hemp fines as a natural filler in bioplastics to produce biocomposites is the subject of this study – giving a holistic overview. Hemp fines are an agricultural by-product of the hemp fibres and shives production. Shives and fibres are for example used in the paper, animal bedding or composite area. About 15 to 20 wt.-% per kg hemp straw results in hemp fines after processing. In 2010 about 11,439 metric tons of hemp fines were produced in Europe. Hemp fines are an inhomogeneous material which includes hemp dust, shives and fibre. For these examinations the hemp fines are sieved in a further step with a tumbler sieving machine to obtain more specified fractions. The untreated hemp fines (ex work) as well as the sieved fractions are combined with a polylactide polymer (PLA) using a co-rotating twin screw extruder to produce biocomposites with different hemp fine content. By using an injection moulding machine standard test bars are produced to conduct several material tests. The Young’s modulus is increased and the impact strength reduced by hemp fines. With a content of above 15 wt.-% hemp fines are also improving the environmental (global warming potential) and economic performance in comparison to pure PLA.
Of late, decrease in mineral oil supplies has stimulated research on use of biomass as an alternative energy source. Climate change has brought problems such as increased drought and erratic rains. This, together with a rise in land degeneration problems with concomitant loss in soil fertility has inspired the scientific world to look for alternative bio-energy species. Euphorbia tirucalli L., a tree with C3/CAM metabolism in leaves/stem, can be cultivated on marginal, arid land and could be a good alternative source of biofuel.
We analyzed a broad variety of E. tirucalli plants collected from different countries for their genetic diversity using AFLP. Physiological responses to induced drought stress were determined in a number of genotypes by monitoring growth parameters and influence on photosynthesis. For future breeding of economically interesting genotypes, rubber content and biogas production were quantified.
Cluster analysis shows that the studied genotypes are divided into two groups, African and mostly non-African genotypes. Different genotypes respond significantly different to various levels of water. Malate measurement indicates that there is induction of CAM in leaves following drought stress. Rubber content varies strongly between genotypes. An investigation of the biogas production capacities of six E. tirucalli genotypes reveals biogas yields higher than from rapeseed but lower than maize silage.
The IfBB – Institute for Bioplastics and Biocomposites is a research institute within the Hochschule Hannover, University of Applied Sciences and Arts, which was established in 2011 to respond to the growing need for expert knowledge in the area of bioplastics. With its practice-oriented research and its collaboration with industrial partners, the IfBB is able to shore up the market for bioplastics and, in addition, foster unbiased public awareness and understanding of the topic. As an independent research-led expert institution for bioplastics, the IfBB is willing to share its expertise, research findings and data with any interested party via the Internet, online and offline publications or at fairs and conferences. In carrying on these efforts, substantial information regarding market trends, processes and resource needs for bioplastics is being presented here in a concise format, in addition to the more detailed and comprehensive publication and “Engineering Biopolymers”1.
One of our main concerns is to furnish a more rational basis for discussing bioplastics and use fact-based arguments in the public discourse. Furthermore, “Biopolymers – facts and statistics” aims to provide specific, qualified answers easily and quickly for decision-makers in particular from public administration and the industrial sector. Therefore, this publication is made up like a set of rules and standards and largely foregoes textual detail. It offers extensive market-relevant and technical facts presented in graphs and charts, which means that the information is much easier to grasp. The reader can expect comparative market figures for various materials, regions, applications, process routes, agricultural land use or resource consumption, production capacities, geographic distribution, etc.
In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.
Im zweiten Teil dieser Arbeit bilden gemäß den allgemeinen technischen Prozeßbedingungen die maschinellen und baulichen Ausrüstungen der vier Modelle, deren Investitionsbeträge, Nutzungsdauer und Instandhaltungsquote unterabteilungsweise dargestellt sind, den Ausgangspunkt dieses Themenbereiches. Eine Anpassung der technischen Auslegung an eine verringerte Auslastung erfolgte bei einer 65%igen und 33%igen Beschäftigung. Die zu tätigenden Investitionen für die Grundversion (100 % Beschäftigung) betragen im Modell 1 25,0 Mio. DM und im Modell 4 54,5 Mio. DM. Die Mengenverbräuche der Produktionsfaktoren Rohstoff, Personal, Energie, Betriebs- und Hilfsstoffe sowie Reparaturen sind von den spezifischen Modellausstattungen abgeleitet. Es ergeben sich Faktoreinsatzmengen, die mengenproportional auftreten und den Produkten zugeordnet sind, sowie periodenabhängige fixe Verbrauche, die der Abteilung angelastet werden. Anhand einer ausgewählten Beschäftigungssituation, die einem 2-Schichtbetrieb bei 250 Produktionstagen entspricht, wird aufgezeigt, wie sich die auf Abteilungsebene aggregierten Faktoreinsatzmengen in Abhängigkeit von der Modellgröße gestalten. So ergibt sich z.B. im Bereich des Produktionsfaktors Personal, daß für das Modell 1 eine Beschäftigungszahl an Arbeitskräften von 25 und im Modell 4 von 40 vorgesehen ist.
In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.
Struktureffekte bei der Schnittkäseproduktion. Thesen und Argumente zur Molkereistruktur Teil III
(1990)
Im Rahmen dieses Beitrages wird die Wechselwirkung zwischen abteilungsspezifischen Produktionskosten und der Struktur von Produktionsabteilungen für die Herstellung von Schnittkäse untersucht. Die Analyse eventueller Struktureffekte geschieht in zwei Schritten: zuerst wird der Einfluß unterschiedlicher Kapazitätsgrößen und -auslastungen von Käsereiabteilungen auf die Produktionskosten bestimmt. Danach wird der Frage nachgegangen, wie die Produktionsstrukturen für Schnittkäse in der BR Deutschland aussehen und welche Kosteneinsparungspotentiale sich bei moderaten Strukturveränderungen ergeben.
Die Serie von Modellabteilungsrechnungen wird mit der Untersuchung des Kostenverlaufs in der Abteilung Weichkäse fortgefuhrt, um einen weiteren Baustein zur Bestimmung optimaler Produktionsstrukturen zu erhalten. Als Ausgangsposition dieser Themenstellung soll im folgenden die Modellabteilung Weichkäse Gestalt annehmen. Dazu sind drei Arbeitsschritte notwendig: die Festlegung des zu untersuchenden Produktes, die inhaltliche Abgrenzung der zu bildenden Modellabteilung und die Auswahl des Fertigungsverfahrens.
In der vorliegenden Arbeit, deren erster Teil in Heft 2 dieser Zeitschrift veröffentlicht wurde, werden die Kosten der “Schnittkäserei” am Beispiel der Herstellung von Gouda-Käse modellhaft bestimmt, wobei die vor 17 Jahren durchgeführten Modellkalkulationen für Edamerkäse hinsichtlich der Funktionsinhalte der Abteilung ausgedehnt und dem neuesten Stand der Technik sowie heutigen Schnittkäsereiproduktionsstrukturen angepaßt wurden. Zudem sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung und Pressen, Salzbad, Käsebehandlung und Reifungslager, Abpackung sowie Versandkühlraum und Expedition wird ein rindengereifter Gouda-Käse (12-kg-Laib) hergestellt und hinsichtlich seiner Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 48.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 21 und 100% simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 5.100 und 30.8001 Käse/Jahr bestimmt werden. Gemäß den vorgegebenen Kapazitäten müssen die technischen Voraussetzungen für die Ausgestaltung der einzelnen Unterabteilungen modellspezifisch festgelegt werden, wobei eine Anpassung der technischen Auslegung an eine verringerte Auslastung bei 33%iger Beschäftigung erfolgt. Die zu tätigenden Investitionen für die Grundversion betragen 10,6 Mio. DM in Modell 1 und 40,3 Mio. DM in Modell 4. Bezogen auf die jeweilige Rohstoffeinsatzmenge ergeben sich hieraus spezifische Investitionen, die mit zunehmender Modellgröße erheblich sinken: Machen sie im Modell 1 noch 215,6 Tsd. DM/1 Mio. kg jährlicher Rohstoffeinsatzmenge aus, so verringern sie sich im Modell 4 auf 135,3 Tsd. DM/1 Mio. kg.
Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten des Produktes Gouda, die je nach Modellgröße und Beschäftigungsgrad zwischen 510,8 und 538,5 Pf/kg Käse liegen. Die Gesamtkosten der “Schnittkäserei”, die sich aus den Einzelkosten des Produktes Gouda und den Einzelkosten der Abteilung zusammensetzen, betragen 530,9 bis 654,3 Pf/kg Käse. Den größten Anteil an den Gesamtkosten haben die Rohstoffkosten (73 bis 90%). Der Anteil der Anlagekosten schwankt je nach Beschäftigung zwischen 4 und 18%, während die Personal- und sonstige Betriebskosten im Vergleich zu den beiden vorgenannten Kostenartengruppen in allen Modellen nur eine geringere Bedeutung haben. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die höchsten Kosten in der Unterabteilung Bruchbereitung und Pressen anfallen: Bei einer 100%igen Beschäftigung betragen sie z.B. in Modell 3 42% der Gesamtkosten (ohne Rohstoff). Die geringsten Kosten (2%) fallen dagegen in der Unterabteilung Versandkühlraum und Expedition an. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendegression deutlich höher ist als derjenige der Modellgröße.
In dem vorliegenden 1. Teil der Arbeit werden die Grundlagen und der spezifische Faktoreinsatz der Modellabteilung „Schnittkäserei” dargestellt.
In den sechs Unterabteilungen Vorstapelung, Bruchbereitung und Pressen, Salzbad, Käsebehandlung und Reifungslager, Abpackung sowie Versandkühlraum und Expedition wird ein rindengereifter Gouda-Käse (12-kg-Laib) hergestellt und hin sichtlich seiner Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 48.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 21 und 100% simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 5.100 und 30.800 l Käse/Jahr bestimmt werden.
Gemäß den vorgegebenen Kapazitäten müssen die technischen Voraussetzungen für die Ausgestaltung der einzelnen Unterabteilungen modellspezifisch festgelegt werden, wobei eine Anpassung der technischen Auslegung an eine verringerte Auslastung bei 33%iger Beschäftigung erfolgt.
Diese Arbeit wird fortgesetzt mit dem Teil 2 „Ergebnisse und Interpretation der Modellkalkulationen” in Heft 3 (1993) dieser Zeitschrift.
Die Analyse von Struktureffekten in der „Allgemeine Milchbehandlung“ wird anhand zweier Fragen vorgenommen:
1. Welche Effekte hat die Größe der Abteilung auf die Produktionskosten?
2. Welche Kosteneinsparungen hätten - ausgehend von der bundesdeutschen Ist-Struktur milchverarbeitender Betriebsstätten - moderate Strukturveränderungen zur
Folge?
Methodische Weiterentwicklungen der Modellabteilungsrechnung für milchwirtschaftliche Betriebe
(1990)
Vor 15 Jahren wurde der erste Beitrag einer Serie von Modellabteilungsrechnungen mit dem Ziel veröffentlicht, der Praxis und Wissenschaft nachvollziehbare Planungshilfen
für die Gestaltung optimaler Produktionsstrukturen in der Milchwirtschaft an die Hand zu geben. Dieses Ziel gilt auch heute noch, jedoch hat sich im Laufe der Zeit immer
deutlicher herauskristallisiert, daß eine Fortschreibung der Faktorpreise sowie eine gelegentliche Aktualisierung der Faktormengenverbräuche in Anpassung an neue technologische Entwicklungen allein nicht ausreichen, die selbstgesetzen Ansprüche an die Modellabteilungsrechnung zu erfüllen.
Die Milchwirtschaft will höhere Preise für Speisequark erlösen. Begründet wird dies mit der in der Bundesrepublik Deutschland gesetzlich verordneten Trockenmasseanhebung des Speisequarks von 17% auf 18%. Da diese Änderung zum 1. Januar 1987 bereits in Kraft trat und den Molkereiunternehmen lange vorher bekannt war, ist die Frage zu stellen, warum eine Änderung der variablen Kosten, von der alle Hersteller gleichermaßen betroffen sind, so schwer am Markt in entsprechende Preisanhebungen umzusetzen ist.
In der vorliegenden Arbeit werden die Kosten für die Produktion von Speisequark mager und Speisequark 40 % F.i.Tr. für zwei Kapazitätsgrößen von 4.800 bzw. 9.500 kg Km/h nach einer speziellen Form der Teilkostenrechnung bestimmt. Bei Variationen der Kapazitätsauslastung (Pro
duktionstage X Produktionsstunden/Tag) und der Produktanteile ergeben sich Kosten zwischen 11,99 und 18,95 Pf pro Becher Speisequark mager bzw. 11,73 und 18,45 Pf je Becher Speisequark 40% F.i.Tr. Das entspricht einer Differenz in den Stückkosten von durchschnittlich 27,5 Pf/kg Speisequark. Es zeigt sich dabei, daß die Kostendegression bedeutend stärker durch den Grad der Kapazitätsauslastung als durch die Kapazitätsgröße beeinflußt wird.
Für die Produktion von drei Sorten stichfestem Joghurt (Natur, mit unterlegter Frucht und Mix) werden die Kosten nach einer speziellen Form der Teilkostenrechnung in Abhängigkeit von der Kapazitätsauslastung bestimmt. Es werden drei Modelle mit unterschiedlicher Kapazitätsgröße dargestellt: 6500, 13.000 und 26.000 Becher/h. Durch Variationen der Produktmenge, Produktionstage und Produktanteile ergeben sich Kosten zwischen 12,6 und 9,3 Pf/Becher Joghurt Natur bzw. 18,7 und 15,5 Pf/Becher Joghurt mit unterlegter Frucht bzw. 17,0 und 14,0 Pf/Becher Joghurt Mix. Je nach Produktionsbedingungen können Stückkostendifferenzen von über 20 Pfennig je kg Produkt auftreten.
In der vorliegenden Arbeit werden die Kosten der Sprühtrocknung bei drei verschiedenen Kapazitätsgrößen mit jeweils variierender Kapazitätsauslastung nach einer speziellen Form der Teilkostenrechnung bestimmt. Die Kapazitätsgrößen betragen 10800, 21600 und 32400 kg Magermilch pro Stunde. Die verarbeiteten Milchmengen liegen
zwischen 12,8 Mio. und 256,6 Mio. kg im Jahr; dabei variieen die Stückkosten zwischen 4,80 und 1,78 Pf/kg Mm. Es hat sich dabei gezeigt, daß die Kostendegression bedeutend stärker durch den Grad der Kapazitätsauslastung als durch die Kapazitätsgröße beeinflußt wird.
In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.
In diesem Beitrag wird die Möglichkeit dargestellt, wie Belastungsspitzen beim Betrieb von Flussturbinen in Inselnetzen durch die kinetische Energie des Wassers abgedeckt werden können. Als Beispiel dienen dabei Kühlgeräte für Lebensmittel. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Sie stellen eine Möglichkeit zur Energieversorgung von kleinen Siedlungen ohne öffentliche Stromversorgung dar. Der besondere Vorteil ist, dass sie ohne aufwändige Bauwerke zur Wasserführung auskommen.
Bei der Versorgung von Inselnetzen muss die Turbine alleine die benötigte Leistung bereitstellen. Dies gilt auch für die Abdeckung von Belastungsspitzen. In diesem Beitrag wird anhand von Beispielrechnen dargestellt, welches Potenzial die kinetische Energie des Wassers in der Turbine hat, um die Belastungsspitzen abzudecken. Die Berechnungen an Kühlgeräten zeigen, dass das Einschalten der Kühlaggregate ein kritischer Betriebspunkt beim Betrieb von Flussturbinen in Inselnetzen sein kann. Dies gilt besonders dann, wenn die stationäre Leistung bereits nahe an der verfügbaren Leistung ist.
Hier muss in recht kurzer Zeit eine große elektrische Arbeit zur Verfügung gestellt werden, die Leistung also in kurzer Zeit ansteigen und anschließend wieder abfallen. Die Abschätzung der elektrischen Arbeit, die sich aus der kinetischen Energie des Wassers in der Turbine gewinnen lässt, zeigt aber, dass durch Absenken der Fließgeschwindigkeit kurzfristig die benötigte elektrische Leistung und Arbeit bereit gestellt werden kann.
In diesem Beitrag wird der Energieertrag von Flussturbinen abgeschätzt. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Die Energieberechnung erfolgt an den Flüssen Oberrhein, Weser, Werra und Unterelbe. Unter der Annahme von mittleren Fließgeschwindigkeiten und Werten zum Ausnutzungsgrad von frei fahrenden Wasserturbinen wird der Energieertrag ermittelt. Bei Einsatz von Flussturbinen mit einem Laufraddurchmesser D = 2,5 m und im Mittel 33 Turbinen je km ergibt sich eine jährliche Gesamtenergie von 1,2 TWh. Dies sind mehr als 10% des in einer BMBF-Studie ermittelten Energiepotenzials der frei fließenden Strecken von Fließgewässern in Deutschland mit einem Einzugsgebiet von mehr als 10 km2.
In der vorliegenden Arbeit wurde für die Erhebung von rheologischen Parametern ein großmaßstäbliches Rohrviskosimeter verwendet. Originalproben aus fünf Biogasfermentern und Nachgärern wurden mit variiertem Volumenstrom durch verschieden dimensionierte Messrohrstrecken im Kreis gefördert. Über definierte Längen der Messrohrstrecken konnte der Differenzdruck bei laminarem Strömungsverhalten aufgenommen werden. Aus den geometrischen Größen sowie den Wertepaaren Volumenstrom und Differenzdruck ließen sich nach einer Korrektur der Schergeschwindigkeit die Parameter für die Abbildung der absoluten Fließ- und Viskositätseigenschaften nach dem Potenzansatz approximieren.
Fahrradfahren ist für viele Menschen ein wichtiger Mobilitätsfaktor. Sie können sich mit eigener Kraft in einem Umkreis von mehreren Kilometern bewegen. Im Alter wird das Fahrradfahren jedoch durch nachlassende Kraft und eingeschränkte Motorik zum Gleichgewichthalten eingeschränkt. Erschwerend kommt hinzu, dass diese Personen aus Vorsicht in der Regel kleinere Fahrgeschwindigkeiten bevorzugen. Bei niedrigen Geschwindigkeiten nimmt aber die Gleichgewichtsstabilität des Fahrrads ab und der Fahrer muss intensiver mit dem Lenker das Gleichgewicht kontrollieren. Moderne E-Bikes können die nachlassende körperliche Kraft kompensieren. Es bleibt aber das Problem des Gleichgewichthaltens beim Radfahren. Im folgenden Beitrag wird die Gleichgewichtsregelung von Fahrädern betrachtet. Dabei werden verschiedene Möglichkeiten der Gleichgewichtsregelung behandelt. Die Beurteilung der Verfahren erfolgt anhand der Stabilität und der Eigenschwingungen des geregelten Systems. Besonderes Augenmerk wird dabei auf die Stabilisierung des Bereichs geringer Fahrgeschwindigkeiten gelegt, da mit der nachlassenden Motorik oft auch eher geringere Fahrgeschwindigkeiten gewählt werden.
The speed control system for a concept for cost effective drives with high precision is presented. The drive concept consists of two parallel working drives. The concept is an alternative to direct drives. One big advantage is the use of standard gear boxes with economical components. This paper deals with the control of the drive system consisting of two parts: one drive produces the power for the machine, another drive makes the motion precice and dynamic. Both drives are combined to one double drive by a control system. The drive system is usefull for printing machines and other machines with high power consumption at a nearly constant speed and high accuracy requirements. The calculation for a drive system with 37 kW shows, that the control drive has to supply only about 20 % of the total torque and power needed to compensate the errors of the power drive. The stability of the system is shown by a simulation of the double drive.
The speed control system for a concept for cost effective drives with high precision is presented. The drive concept consists of two parallel working drives. The concept is an alternative to direct drives. One big advantage is the use of standard gear boxes with economical components. This paper deals with the control of the drive system consisting of two parts: one drive produces the power for the machine, another drive makes the motion precice and dynamic. Both drives are combined to one double drive by a control system. The drive system is usefull for printing machines and other machines with high power consumption at a nearly constant speed and high accuracy requirements. The calculation for a drive system with 37 kW shows, that the control drive has to supply only about 20 % of the total torque and power needed to compensate the errors of the power drive. The stability of the system is shown by a simulation of the double drive.
Die Funktion eines Gebäudes, seine flächenmäßige Ausdehnung und seine Gliederung sowie seine Einbettung in die Umgebung bestimmen letztendlich die Dachkonstruktion. Der Planer steht hierbei vor der Aufgabe, unter Beachtung aller bauphysikalischen wie bautechnischen Gegebenheiten ein Optimum an gestalterischer Qualität bei Respektierung wirtschaftlicher und baupraktischer Belange zu realisieren, wobei zu beachten ist, dass gerade das Dach von den die Gebäudehülle bildenden Bauteilen der größten und unmittelbarsten Beanspruchung unterliegt.
Nur wenn eine klebgerecht ausgeführte Konstruktion mit dem richtigen Klebstoff nach optimaler Oberflächenbehandlung und mit angepssten Abbindebedingungen gefertigt wird, sind Klebverbindungen von maximaler Festigkeit und Alterungsbeständigkeit zu erzielen. Am Beispiel von Bremsbelägen wird gezeigt, dass bei einer entsprechenden Erprobung auch sogenannte Sicherheitsteile durch Kleben hergestellt werden könne.
Fenster versorgen die Innenräume mit Tageslicht, dienen der Lufterneuerung in den Räumen und schützen vor Umwelteinflüssen wie Kälte, Wärme, Lärm, Wind und Niederschlägen. Entsprechend weitgefächert ist das Spektrum deer planungsrelevanten Aspekte. Sowohl licht-, lüftungs-, wärme-, schall und wohntechnische als auch hygienische, psychologische und nicht zuletzt wirtschaftliche Gesichtspunkte sind bei edr täglichen Arbeit zu beachten.
Die empfindliche Verteuerung des Rohöls im Laufe der letzten Jahre und die in ihrem Sog erfolgten Preissteigerungen auch für die anderen Energieträger haben Energie zu einem besonders kostbaren Wirtschaftsgut werden lassen. Es ist ganz deutlich geworden, dass Energie in allen Lebens- und Produktionsbereichen äußerst sparsam verwendet und optimal genutzt werden muss. Mittel- und langfristig gesehen sind daher gezielt Anstrengungen zu unternehmen, nicht einen Brennstoff durch einen anderen zu ersetzen, sondern - wo immer auch möglich - die natürlcihen Energiequellen zu nutzem.
In den letzten Jahren hat sich der Trend zu forcierter Rationalisierung, zur Automatisierung und Mechanisierung der Produktion beschleunigt. Automatisierung erfordert aber hohe Inverstitionen und lässt so den Fixkostenblock wachsen. Bei einem Rückgang der Kapazitätsauslastung rutscht das Unternehmen aber rasch in die Verlustzone. Deshalb erscheint eine Rückbesinnung auf eher flexiblere, arbeitsorientierte Organisationskonzepte sinnvoll. Vorgestellt wird ein kybernetisches Regelkreismodell mit flacher Hierarchie als "Klammer" und sich weitgehend selbstregulierenden Unternehmenseinheiten.
Die Flexibilitätsanforderungen des Marktes werden zu einer Dezentralisierung von Unternehmensbereichen führen. Eigenständigen, teilautonomen Einheiten gehört die Zukunft. Diese Entwicklung hat für die PPS eine erhöhte Informationsdichte zur Folge, auf die mit individuellen Feinsteuerungskonzepten und zusätzlichen Steuerungsparametern reagiert werden muss. Die Art und Weise der Datenverarbeitung ist dementsprechend zu modifizieren.
Kleine Losgrößen, bedingt durch immer neue Kundenanforderungen nach speziellen Produktausführungen, lassen aus Wettbewerbsgründen eine konventionelle Massenproduktion mit unfelxiblen Produktionsabläufen nicht mehr zu. Neue Wege sind nötig, um gegenüber der Konkurrenz - besonders aus Fernost - auch in Zukunft wettbewerbsfähig zu bleiben. Dabei hat gerade diese Konkurrenz mnachen Anstoss zur Veränderung durch für uns ungewohnte Wettbewerbsstrategien gegeben. Auch wenn viele der Grundlagen und Methoden dieser Strategien aus Europa stammen, wurden sie sehr geschickt und innovativ den dortigen gesellschaftlichen und technologischen Randbedingungen angepasst. Nun sind sie in anderer Form bei uns wieder ins Bewusstsein zurückgekehrt. Dies gilt insbesondere für Lean Production, die "schlanke" Produktion. Hier können die Fachleute bei uns lernen, wie sich durch Mitarbeitermotivierung, Vereinfachung und Dezentralisierung der Abläufe der Weltkostenstand wieder erreichen lässt.
Drucktrennen ist ein Verfahren zum spanlosen Trennen zylindrischer oder prismatischer Bauteile durch in einem Teilbereich der Mantelfläche auf das Werkstück wirkenden Fluidhochdruck. In der vorliegenden Arbeit werden die Wirkzusammenhänge zwischen der Bearbeitung sprödharter zylindrischer Werkstücke und den resultierenden Oberflächen- und Randzoneneigenschaften theoretisch analysiert und die Ergebnisse mit denen experimenteller Untersuchungen verglichen. Der Fluidhochdruck bewirkt einen hauptsächlich von der Werkstückgeometrie und dem Aufbau der für die Versuchsdurchführung entwickelten Trennkammer abhängigen Spannungszustand des Werkstücks. Gleichzeitig dringt das Trennmedium in Oberflächenanrisse ein und ruft dort lokale Zugspannungen im Bereich der Rißspitze hervor. Erreicht der Fluiddruck einen vom Spannungszustand und der Rißlänge abhängigen kritischen Wert, so wird die Bruchzähigkeit des Werkstoffs überschritten und ein Sprödbruch des Werkstücks ausgelöst. Durch gezielt eingebrachte Kerben kann der Ort der Trennung exakt vorgegeben werden. Die Werkstücktrennung erfolgt senkrecht zur Richtung der größten Hauptspannung, welche stets ungefähr parallel zur Werkstückmittelachse orientiert ist. Um eine völlig ebene Bruchfläche zu erreichen, muß eine Ankerbung in Kammermitte erfolgen und das Werkstück absolut symmetrisch zur Trennfläche ausgerichtet sein. Der vom nachdrängenden Fluid vorangetriebene Bruch wird durch Druckspannungen in bestimmten Bereichen des belasteten Bauteils gehemmt. Die Bruchgeschwindigkeit ist demzufolge in der Regel so niedrig, daß für amorphe und einkristalline Werkstoffe keine Bruchverzweigung erfolgt. Dadurch ist beispielsweise für optisches Glas und einkristallines Silizium die Herstellung spiegelglatter Oberflächen möglich. Die Trennflächen vielkristalliner Werkstoffe weisen dagegen eine geringe Oberflächengüte auf, da der Energieüberschuß im Bereich der Rißspitze nicht ausreicht, um einen transkristallinen Sprödbruch voranzutreiben, sondern stets erhebliche interkristalline Bruchanteile vorliegen.
Die Einführung von EDV-Systemen zur Steuerung und Überwachung des Produktionsprozesses, also in erster Linie PPS (Produktions-Planungs- und -Steuerungs-Systeme) und BDE (Betriebsdatenerfassungs-Systeme) ist im allgemeinen mit einem grossen Arbeits- und Kostenaufwand verbunden, wobei die Effizienz der implementierten Systeme häufig nicht den Erwartungen der Nutzer entspricht. Dies trifft besonders auf die Klein- und Mittelbetriebe zu, weil dort innerhalb der Betriebsorganisation keine Planstellen für EDV-Spezialisten vorgesehen sind, die bei der Umstellung auf eine EDV-Organisation helfen könnten. Diese Stellen liessen sich mit der alleinigen Erledigung von betrieblichen EDV-Aufgaben bei dieser Betriebsgrösse auch nicht wirtschaftlich rechnen. Es muss also vor einer solchen Einführung bereits klar sein, wie aus betriebsorganisatorischer Sicht die EDV mit den vorhandenen Mitarbeitern in den Betriebsprozess einzugliedern ist.
Standen bisher bei den umfassend in der Literatur behandelten Logistikansätzen mehr die Materialwirtschaftsprobleme hinsichtlich der zeitgerechten Beschaffung und der Bestandshöhe im Vordergrund der Betrachtung, so meldet sich jetzt die Zeitwirtschaft mit den damit verbundenen Anstößen auf die Unternehmensstrategie zurück. Der Zeitfaktor ist bei kapitalintensiver Produktion schon immer ein knappes Gut gewesen, mit dem gut gewirtschaftet werden musste, um wettbewerbsfähig zu bleiben. Die derzeitige Wettbewerbssituation mit immer kürzeren Produkt-Entwicklungszeiten, Produkt-Lebenszeiten, Produkt-Herstellzeiten, Produkt-Lieferzeiten verstärkt die enorme Bedeutung des Zeitfaktors als Wert oder Bezugsgröße für Kosten, Termine oder Kapazitäten.
Aus den Veröffentlichungen über CIM-Projekte geht immer häufiger hervor, dass der von den Anbietern vertretene hohe Anspruch einer umfassenden CIM-Anwendung und die Ergebnisse durchgeführter CIM-Realisierungen in der Praxis nicht übereinstimmen. Es wäre jedoch falsch, aufgrund dieser Beobachtungen die CIM-Strategie als solche in Frage zu stellen. Der Ausweg aus diesem Missstand ist vielmehr über geeignete CIM-Einführungsstrategien zu suchen.
Die Umsetzung der an sich seit längerem bekannten Logistikkonzepte stößt in vielen Unternehmen auf Schwierigkeiten. Oft fehlen durchgängige, prozessorientierte Gesamtlösungen. Zum Teil liegt dies daran, dass die üblichen PPS-Systeme im Feinplanungs- und Steuerungsbereich die gestiegenen logistischen Anforderungen nicht erfüllen können.
Die Marktentwicklung zu kleineren Losgrößen mit zunehmender Variantenvielfalt stellt gerade an einen Programmfertiger erhebliche Anfordungen, um immer das richtige Lieferspektrum in seinem Fertigwarenlager bereitzuhalten. Die einfachste Möglichkeit, dieses Problem zu lösen, besteht in einer hochflexiblen Produktion, bei der die nachgefragten Artikel in der Kundenausführung sofort nach Auftragseingang gefertigt werden. In der Praxis entstehen aber erhebliche Rückstände, weil keine unbegrenzte Kapazität zur Erledigung dieses Aufgabenberges vorhanden wäre.
Die Schaffung eines marktorientierten Lieferspektrums für eine optimale Marktversorgung stellt erhöhte Anforderungen an die Planung und Steuerung des Auftragsabwicklungsprozesses. Über ein betriebsspezifisch entwickeltes Logistikkonzept mit einer anforderungsgerechten CIM-Werkzeuganwahl lassen sich die vorhandenen Probleme, ein volles Fertigwarenlager mit nicht nachgefragten Fertigartikeln, lösen.
Da mit wachsender Verwendung von Kunststoffen für konstruktive Anwendungen deren Klebbarkeit immer größere Bedeutung erhält und Vorbehandlungen mit umweltbelastenden Verfahren nur mit Vorbehalt eigesetzt werden können, dürften umweltfreundliche Verbehandlungen, wie die Vorbehandlung im Niederdruckplasma, im Folgenden kurz NDP-Vorbehandlung genannt, eine steigende Bedeutung erlangen. Die Umweltfreundlichkeit des Verfahrens ist darin begründet, dass keine verbrauchten Beizbäder anfallen, die mit hohem Aufwand beseitigt werden müssen, und dass der Prozess in einem geschlossenem System abläuft und somit ein unkontrolliertes Entweichen von Schadstoffen nicht möglich ist. Bei der Ndp-Behandlung gegebenenfalls entstehende Schadstoffe fallen nur in sehr geringem Umfang an und können leicht abgefangen und nachbehandelt werden. Da die verwendeten Gase nicht giftig sind, geht von ihnen keine Gefährdung aus.
Nach wie vor ist die seit langem bekannte Forderung nach einer durchgängigen Transparenz des betrieblichen Werteflusses zur Überprüfung der vorgegebenen logistischen Zielvereibarungen und als Hilfe zur Entscheidungsfindung über ein funktionierendes Produktions-Controlling nur sehr schwierig zu erfüllen. Hier hilft der Einsatz von anforderungsgerecht eingeführten BDE-Systemen und die exakte Definition der Zielgrößen in Form von Kennzahlen.
Die Anpassungsfähigkeit eines Unternehmens an rasch wechselnde Wettbewerbssituationen bei kundenwunschorientierter Produktion mit veränderlichen Losgrößen und unterschiedlichen Terminrestriktoren kann nur über ausgefeilte Strategien und durch DV-Einsatz erzeugt werden. Anforderungsgerechte CIM- und Logistik-Konzepte sind eine wesentliche Vorraussetzung, damit die geforderte Flexibilität erreicht wird. Den unabdingbaren Informationsfluss schafft hierbei die Betriebsdatenerfassung.
Obwohl durchgängige CIM- und Logistik-Konzepte zur Erfüllung der permanent steigenden Kundenforderungen hinsichtlich spezifischer Produktausführungen bei qualitätsgerechter und termintreuer Auslieferung in den meisten Unternehmen noch nicht realisiert sind, beginnt bereits die Diskussion um eine neue Unternehmensstrategie: die "Lean Production". Das Ziel heißt diesmal, in allen Bereichen Ressourcen zu minimieren, um mit Hilfe einer schlanken Fertigung bei den Kosten Weltstandard zu erreichen.
Einige Kunststoffe wie die Massenkunststoffe Polypropylen (PP) und Polyethylen (PE) aber auch Polyoximethylen (POM) und Polytetrafluorethylen (PTFE) weisen eine schlechte Klebeignung auf. Werden diese Werkstoffe ohne Vorbehandlung geklebt, so können nur geringe Klebfestigkeiten erzielt werden. Aber auch bei der Herstellung von Bauteilen aus gut klebbaren Kunststoffen, wie z.B. ABS, kann eine Oberfläche entstehen, die die Klebbarkeit beeinträchtigt. Dies kann beispielsweise durch anhaftende Formtrennmittel geschehen. Auch in diesen Fällen wird beim Kleben ohne Vorbehandlung nicht die maximal mögliche Klebfestigkeit erreicht. In den aufgeführten Fällen kann jedoch durch eine geeignete Klebflächenbehandlung, in Verbindung mit einem entsprechenden Klebstoff, die Festigkeit so gesteigert werden, dass bei einer Prüfung die Verbindung im Kunststoffteil versagt.
Wegen der Vielzahl unterschiedlicher Teile in variierenden Losgrößen ist es in der spanenden Fetigung besonders wichtig, Hardware und Software für logistische Aufgaben anforderungsgerecht auszuwählen. Ausgehend von den logistischen Grundfunktionen im Betrieb sind die Grunddatenbereitstellung, die Prozessstruktur, die Produktgestaltung, das Beschaffen und das Lagern auf die rechnergestützte Logistik auszurichten.
Unternehmen, die schnell auf veränderte Marktsituationen reagieren müssen, benötigen eine funktionierende Logistik, die eine Klammerfunktion für alle betrieblichen Bereiche ausübt. Kernstück eines Logistikkonzepts ist das PPS-System, das sich mit Hilfe zeitgemäßer Software immer mehr zur maßgeschneiderten Lösung entwickelt. Ein Weg, um Logistikmodule anforderungsgerecht einzuführen, lässt sich anhand eines besonderen Cim-Modells verdeutlichen, dessen letzter Arbeitsschritt das Auswählen von Hardware und Software ist.
Obwohl die Klebtechnik eines der ältesten Fügeverfahren der Welt ist, sind die Kenntnisse über diese Technik häufig noch sehr gering. Dies zeigt sich an vielen Stellen, beim Verkaufsgespräch von Klebstoffen, aber auch in Beiträgen zu klebtechnischen Seminaren. Es werden manchmal "Merk"würdige Ansichten über das Kleben geäußert.
Klebemöglichkeiten von PTFE
(1990)
Die hohe Beständigkeit und die antiadhäsiven Eigenschaften von Polytetrafluorethylen (PTFE) erschweren das Kleben dieses Kunststoffes beträchtlich. Da PTFE praktisch unlöslich ist, können Diffusionsklebverbindungen nicht hergestellt werden und Adhäsionsklebverbindungen haben nur eine geringe Festigkeit. Es ist jedoch durch entsprechende Behandlungen möglich, die Oberfläche so zu verändern, dass hochfeste Adhäsionsklebverbindungen möglich sind.
Kleben im Kraftfahrzeugbau
(1987)
Viele Kunststoffe besitzen nur schlechte Adhäsionseigenschaften. So lassen sich viele technisch wichtige Kunststoffe adhäsiv nur dann zufriedenstellend mit Adhäsionsklebstoffen kleben, wenn die Kunststoffteile vorbehandelt worden sind. Versuche mit einer Niederdruckplasmabehandlung führten zu brauchbaren Ergebnissen.
Die Prüfung von Klebverbindungen erfolgt häufig im Zugscherversuch. Bei der Anwendung dieser Prüfmethode bei Polymer-Metall-Klebverbindungen tritt oft ein Bruch im Polymerteil auf. Dadurch wird die Aussagefähigkeit des Zugscherversuchs stark eingeschränkt. Das gilt vor allem für die Optimierung der Oberflächenvorbehandlung von Polymerteilen. Der vorliegende Beitrag untersucht die Beanspruchungsparameter von Polymer-Metall-klebverbindungen im Zugscherversuch und leitet daraus Forderungen an geeignete Prüfanordnungen ab.
Der Zugscherversuch ist die am häufigsten angewandte Prüftechnik für Klebverbindungen. Die dabei ermittelte Klebfestigkeit ist jedoch eine wenig aussagefähige Größe. In keinem Fall kann sie als Werkstoffkennwert den Klebstoff charakterisieren. Als Ausgangsgröße für Berechnungen bei der Dimensionierung von Klebverbindungen ist das Ergebnis des Zugscherversuchs deshalb nicht geeignet.
Das Versagen von Klebungen kann durch ungenügende Adhäsion, Alterungsprozesse oder mechanische Spannungen erfolgen. In der SMD-Technologie werden Werkstoffe geklebt, die verschiedene Ausdehnungskoeffizienten besitzen. Bei SMD-Klebverbindungen gewährleistet die nachfolgende Lötung deren Langzeitfestigkeit. Wurde für eine gute Adhäsion reichlich Vorsorge getroffen und die Klebung versagt trotzdem, stellt sich die Frage: Spielen mechanische Eigenschaften für den Einsatz von SMD-Klebstoffen eine Rolle?
Am 12. und 13. Juni 1986 fand in Konstanz das Symposium Haftung von Verbundwerkstoffen und Werkstoffverbunden statt. Die Veranstaltung wird in vierjährigem Turnus von der Deutschen Gesellschaft für Metallkunde (DGM) in Zusammenarbeit mit dem Fraunhofer-Institut für angewandte Materialforschung (IFAM) in Bremen ausgerichtet. Als interdisziplinäres Thema stand die Haftung zwischen unterschiedlichen Stoffen auf dem Programm. In 18 Referaten sind Erkenntnisse und Probleme aus unterschiedlichen Arbeitsbereichen vorgetragen worden. Insgesamt nahmen etwas 100 Fachleute aus dem In- und Ausland teil.
Klebverbindungen werden häufig dem Zugscherversuch nach DIN 53 238, dem wohl wichtigsten Versuch der Klebtechnik, unterzogen. Die Belastung jedoch entspricht nicht den in der Praxis verkommenden Bedingungen. Es stellt sich die Frage, ob die im Zugscherversuch ermittelten Kenndaten zur Dimensionierung von Klebverbindungen überhaupt geeignet sind.
In vielen Fällen muss vor dem Kleben eine Klebflächenbehandlung durchgeführt werden, da Klebverbindungen mit unvorbehandelten Teilen häufig zu geringe Klebfestigkeiten und/oder eine unzureichende Alterungsbeständigkeit aufweisen. Zur Klebflächenbehandlung stehen unterschiedliche Verfahren zur Verfügung. Wenn mit mehreren Behandlungen klebtechnisch einwandfreie Verbindungen hergestellt werden können, gilt es, das Verfahren zu ermitteln, welches am besten in den Fertigungsfluss integriert werden kann und die geringsten Kosten verursacht. Dabei muss auch die Arbeitssicherheit und der Umweltschutz mit beachtet werden. Zur Beurteilung der Verfahren werden Bewertungskriterien gegeben. Die Verfahren werden abschließend kurz charakterisiert.
Dienstleisters Vollzugmelder
(1989)
Für Produktionslogistiker ist der Leitstand bereits ein Selbstverständnis. Er verschafft Übersicht, ermöglicht gezieltes Eingreifen und hilft Termine halten. Das Steuern komplexer Abläufe ist in der Produktion ohne Leitstand kaum mehr denkbar. Im folgenden Beitrag wird der Frage nachgegangen, was Dienstleister vom Leitstand erhoffen können.
Bei Qualitätsmängeln ist es mit der reihenfolgegerechten und zeitgenauen Anlieferung direkt in den Produktionsbereich nicht mehr möglich, auf Ersatzmaterial zurückzugreifen. Ein wichtiger Schritt zu der daher geforderten Null-Fehler-Rate in der Produktion ist die informationstechnische Einbindung der Qualitätssicherung in das Logistik-Konzept des Unternehmens. der Artikel beschreibt, wie eine solche Einbindung aussieht.
PPS-Anbieter herausfordern
(2008)
Wer die Einführung eines PPS- oder Logistik-Systems plant, sollte mit einer exakten Beschreibung der Soll-Abläufe die Anbieter auffordern, konkret Stellung zu beziehen, was ihr System kann und nicht kann. Der Artikel beschreibt, wie ein solches Anforderungsprofil aussehen soll, wie man es aufbaut und wie man bei der Einführung eines PPS-Systems vorgeht.
Die Durchsetzung der Flexibilität als wesentlicher Faktor zur Absicherung der Wettbewerbsposition eines Unternehmens beinhaltet die konsequente Hinwendung zur Markt- beziehungsweise Kundenorientierung. Denn es geht im Kern darum, alle Anstrengungen im Unternehmen darauf zu konzentrieren, dass der Kunde das nach seinen Vorgaben erstellte Produkt in kürzester Zeit ausgeliefert bekommt, wobei die Qualitätsziele nach Gebrauchstauglichkeit und Zuverlässigkeit des Produktes voll erfüllt sein müssen. Die dafür notwendige Qualitätssicherung muss deshalb im Sinne einer Prozesskette in die Leistungserstellung eingebunden werden, was im Artikel verdeutlicht wird.
Logistische Funktionsketten mit der Integration von Information, Arbeits- und Materialflüssen für einen durchgängigen Auftragsabwicklungsprozeß müssen auch Qualitätssicherungsfunktionen mit beinhalten. Dies ist nur über eine entsprechende QS-Systemarchitektur zu realisieren, die an jeder Stelle im dispositiven und operativen Ablauf im Sinne der Fehlervermeidung dafür sorgt, daß die angestrebten Qualitätsziele erreicht werden.
Ausfall- und Ausfallfolgekosten sowie Wiederanlauf- und Zusatzlaufkosten zwingen auch nach betriebswirtschaftlichen Gesichtspunkten die Unternehmen, die Bedeutung und den Umfang der Instandhaltungsaktivitäten höher als bisher einzuschätzen. Der Artikel befasst sich mit der Fragen, warum die Wartung mit in das Logistik-Konzept aufgenommen werden soll.
Matrizen ordnen Behälterlauf
(1989)
Eine schnelle Erfassung aller Wartezeiten und Störungen im Produktionsablauf und ihre richtige kostenmäßige Bewertung zu einer wirksamen Kontrolle der Gemeinkosten in der Produktion ist schon seit langem eine betriebliche Forderung. Ihre Erfüllung scheiterte bisher häufig an fehlenden organisatorischen Voraussetzungen und den nicht für diese Zwecke geeigneten EDV-Sachmitteln. Mit Hilfe von online konzipierten, im Dialog arbeitenden BDE-Systemen können diese Mängel jetzt behoben werden. Schwachstellen im Prozess lassen sich aktuell lokalisieren und damit auch rasch beseitigen. Das im folgenden hier vorgestellte Programm zur Erfassung der benötigten Daten ist gleichzeitig die Kernzelle eines zur Planung und Steuerung des Auftragsbearbeitungsprozesses eingesetzten Logistiksystems, mit dem noch eine große Anzahl weiterer organisatorischer Aufgaben gelöst werden kann. Betrachtungsschwerpunkt in diesem Beitrag ist die verursachungsgerechte Erfassung von Gemeinkosten im Prozess.
Mit BDE immer dicht am Ball
(1989)
Wer Logistikabläufe unter Kontrolle halten will, gliedert sie hierzu in Teilabläufe und sorgt dafür, daß am Ende jedes wichtigen Teilablaufs festgestellt wird, ob alles nach Plan läuft oder nicht. Die Computertechnik hält hierfür sogenannte BDE-Terminals bereit, also Eingabestationen für Betriebsdaten. Verbindet man die Stationen mit einem zentralen Computer, kann man den gesamten Ablauf lückenlos überwachen. Der folgende Artikel beschreibt, wie BDE das Erreichen der Logistikziele, kurze Auftragsdurchlaufzeit bei minimalen Beständen und hoher Termintreue, fördert.
Flexibel mit „make or buy"
(1989)
Erfolgsfaktoren im Griff
(1993)
In der Bundesrepublik Deutschland gibt es rund 200000 Lieferstellen für Molkereiprodukte vom industriellen Großverbraucher bis zum Facheinzelhändler mit Milchproduktenangebot. Gut die Hälfte der gesamten Nachfrage schöpfen die Zentralläger sowie die Geschäfte des Lebensmitteleinzelhandels ab, wobei die Belieferung des LEH weitestgehend auf Strecke erfolgt. - Dipl.-Wirtsch.-Ing. Heinrich Wietbrauk von der Bundesanstalt für Milchforschung in Kiel analysiert für „dynamik im handel" die milchwirtschaftlichen Warenströme in Deutschland.
Die in den Betrieben häufig mit hohem gerätetechnischen und organisatorischem Aufwand installierten EDV-gestützten Informationssysteme zur Planung und Steuerung des Fertigungsprozesses genügen im allgemeinen nicht den an sie gestellten Anforderungen. Die Gründe dafür liegen in der Hauptsache in einem falschen Modellansatz und der mangelnden Datenqualität der eingesetzten Daten, verbunden mit einer unzureichenden Rückkopplung zwischen Vorgabe und Rückmeldung. Hinzu kommen das Fehlen geeigneter Aussagen (Kenngrößen) zur gezielten Beeinflussung des Prozesses und Akzeptanzprobleme der Mitarbeiter beim Umgang mit der EDV. Die genannten Schwachstellen geben die Richtung der Zielsetzung dieser Arbeit vor. Dieses Ziel bestand zunächst darin, eine Methode zu entwickeln, mit der die Anforderungen an die in einem Industriebetrieb zur Planung, Steuerung und Überwachung verwendeten Daten zu formulieren sind, um dann eine anforderungsgerechte Abstimmung dieser Daten im betrieblichen Datenfluß im Sinne eines kybernetischen Regelkreises vorzunehmen und Aussagen über die betrieblichen Zielgrößen zu erhalten. Aus der Vielzahl betrieblicher Vorgänge und Funktionsbereiche wurde der Fertigungsprozeß bei der Werkstättenfertigung im Produktionsbetrieb deshalb ausgewählt, weil hier in der Praxis wegen der Komplexität der Abläufe die höchsten Anforderungen an die Daten gestellt werden und deshalb auch die meisten Probleme bei der Erfüllung dieser Anforderungen auftreten. Außerdem ist die Fertigung nach dem Werkstättenprinzip am häufigsten in der Praxis anzutreffen. Als erstes war es nötig, die zeitlichen, quantitativen und qualitativen Anforderungen an die Daten aus einer Vielzahl durchgeführter Schwachstellenanalysen herauszuarbeiten und zu definieren. Die nächste Aufgabe bestand darin, die Einflußgrößen auf die Datenanforderungen, hier unterteilt in innere (datumsbezogene) und äußere (prozeßbezogene) zu bestimmen und in ihren Auswirkungen zu untersuchen. Die Betrachtung der Einflußgrößen ergab, daß die Aufgabe und die Verwendung des Datums im Prozeß für die Ermittlung der Anforderungen exakt bestimmt werden müssen. Aus diesem Grund war der Prozeß primär- und sekundärseitig in Abhängigkeit der Aufgabenstellung ausführlich zu beschreiben. Die Einflüsse der Aufbauorganisation waren ebenso wie die der Ablauforganisation zu berücksichtigen, darunter fielen auch die Auswirkungen der Automatisierungsansätze, z.B. durch den Einsatz flexibler Fertigungssysteme im Primärprozeß. Der Ansatz, von dem hier ausgegangen wurde, baut sich deshalb im ersten Schritt der vorgeschlagenen Vorgehensweise auf dem Modell eines Produktionssystems auf, das aus den Erkenntnissen von in mehreren Firmen durchgeführten Prozeßanalysen entwickelt wurde. In diesem Modell ist der Datenfluß und organisatorische Ablauf im Fertigungsprozeß in Matrixform festgehalten. Für jedes einzelne Prozeßdatum sind in der Matrix, bezogen auf die Aufgabenstellung, detailliert die Verwendungs- und Verflechtungsbeziehungen aufgezeichnet. Im zweiten Schritt erfolgt auf der Grundlage dieses Modells eine bedarfsgerechte Prozeßdatenauswahl. Die zeitliche Struktur des Datenflusses im Prozeß wird in Schritt drei mit Hilfe eines Ereignis-Zeitgraphens dargestellt. Die eigentliche zeitliche, quantitative und qualitative Anforderungsermittlung findet im vierten und gleichzeitig letzten Schritt anhand einer dafür entworfenen Datenanforderungsliste statt. Die Ergebnisse dieser anforderungsgerechten Datenanalyse nach der hier entwikkelten Systematik können in vielerlei Hinsicht Verwendung finden. Im Hinblick auf die eingangs genannten Problemstellungen sind beispielsweise folgende Einsatzmöglichkeiten denkbar und an Beispielen im einzelnen erläutert. - Verbesserung der Datenqualität - Rückkopplung im Sinne des kybernetischen Regelkreismodells - Bilden von Prozeßkenngrößen - Transparenz der EDV-Prozeßabläufe
Innerhalb der vereinfachten Logistikformel "Das richtige Material in richtiger Höhe und richtiger Qualität zum richtigen Zeitpunkt am richtigen Platz zur Verfügung zu stellen" spielt die Festlegung des richtigen Zeitpunktes bei der Durchsetzung der logistischen Zielsetzung eine besonders wichtige Rolle. Es ist damit der Bedarfszeitpunkt gemeint, diesen exakt zu bestimmen und dann im Ablauf auch einzuhalten, bereitet häufig große Schwierigkeiten. Dieser Bedarfszeitpunkt legt den genauen Termin im zeitlichen Prozessablauf innerhalb der gesamten betrieblichen Vorsorgungskette fest, an dem die benötigten Materialien und Produktionsmittel zur Verfügung stehen müssen. Seine Bedeutung erhält der Bedarfzeitpunkt dadurch, dass Interessen oder Zielsetzungen der Beschaffungs-, Produktions- und Vertriebslogistik hier zusammentreffen.
l. Einleitung/Ausgangssituation - Auswirkungen unabgestimmter Prozesse - Prozeßnahe Werkstattsteuerungen 2. Defizite, Prozeßanforderungen - Daten-Anforderungsprofil - Datenvolumen-Trichtermodell - Argumente für Leitstand-Einsatz 3. Integrierter Leitstandeinsatz - Top-Down-Ansatz - Integrierte Regelkreise - Hierarchisches Planungs- und Steuerungskonzept 4. Abgrenzung zwischen Leitstand-, PPS und BDE-Funktionen - Ressourcen-Verfügbarkeitsanforderungen - Leitstand-Funktionsumfang - Integrierter Logistik-Sollablauf 5. Kennzeichen der 2ten Leitstandgeneration - Wissensbasierter LS-Einsatz - Event-Steuerungen 6. Anforderungsgerechte Leitstandeinführung - CIM-house-Modell - Mitarbeiter-Anforderungen