620 Ingenieurwissenschaften und Maschinenbau
Refine
Year of publication
Document Type
- Article (36)
- Conference Proceeding (24)
- Report (12)
- Book (5)
- Part of a Book (4)
- Working Paper (3)
- Bachelor Thesis (1)
- Doctoral Thesis (1)
- Master's Thesis (1)
Has Fulltext
- yes (87)
Is part of the Bibliography
- no (87)
Keywords
- Energiemanagement (9)
- Energieeffizienz (7)
- Klebeverbindung (7)
- Adhäsion (6)
- Computersicherheit (5)
- Ethernet (5)
- Kleben (5)
- Erneuerbare Energien (4)
- Ethernet-APL (4)
- Gießerei (4)
In industrial production facilities, technical Energy Management Systems are used to measure, monitor and display energy consumption related information. The measurements take place at the field device level of the automation pyramid. The measured values are recorded and processed at the control level. The functionalities to monitor and display energy data are located at the MES level of the automation pyramid. So the energy data from all PLCs has to be aggregated, structured and provided for higher level systems. This contribution introduces a concept for an Energy Data Aggregation Layer, which provides the functionality described above. For the implementation of this Energy Data Aggregation Layer, a combination of AutomationML and OPC UA is used.
Betreiber von Produktionsanlagen stehen oft vor der Frage, welche Norm für die Absicherung der Anlage gegen Cyberangriffe heranzuziehen ist. Aus dem IT-Bereich ist die Normreihe ISO 27000 bekannt. Im Produktionsbereich wird häufig die Normreihe IEC 62443 herangezogen. Dieser Beitrag gibt einen Überblick über beide Normreihen und schlägt einen Ansatz zur gemeinsamen Nutzung beider Standards vor.
Bürstenlose Generatorsysteme mit doppelt gespeisten Kaskadenmaschinen werden zurzeit für die regenerative Energieerzeugung z. B. mit Windkraftanlagen untersucht. Sie sind eine Alternative zu Generatorsystemen mit doppelt gespeisten Induktionsmaschinen. Kaskadenmaschinen arbeiten mit zwei Drehfeldern verschiedener Polpaarzahl. Im Stator befinden sich zwei Wicklungen für die beiden Polpaarzahlen oder eine Wicklung zur gleichzeitigen Erzeugung der beiden Drehfelder mit getrennten Anschlüssen für die beiden Drehfelder. Der Rotor trägt eine in sich kurzgeschlossene Wicklung, die gleichzeitig mit beiden Drehfeldern verkettet ist und deren Strom beide Drehfelder gleichzeitig erzeugt. Der vorliegende Beitrag beschreibt wie die elektromagnetischeWirkung unsymmetrischer Rotorwicklungen für Kaskadenmaschinen mit der Drehfeldanalyse behandelt werden kann. Die Rotorwicklungen dienen dazu, gleichzeitig beide Grundfelder der Kaskadenmaschine zu erzeugen. Dazu sind sie z. T. mit Wicklungszweigen aufgebaut, die in verschiedenen Knoten zusammen geschaltet sind. Aus Sicht der Statorwicklungen sind sie unsymmetrisch aufgebaut. Unsymmetrische Rotorwicklungen treten auch in Induktions- und Synchronmaschinen auf, z. B. bei Wicklungsfehlern, Stabbrüchen oder bei unsymmetrischen Anlaufkäfigen. Mit dem hier dargestellten Rechenverfahren wird die elektromagnetische Kopplung zwischen den Wicklungszweigen und zur Statorwicklung erfasst.
Bürstenlose Generatorsysteme mit doppelt gespeisten Kaskadenmaschinen werden zzt. für die regenerative Energieerzeugung z. B. mit Windkraftanlagen untersucht. Sie sind eine Alternative zu Generatorsystemen mit doppelt gespeisten Induktionsmaschinen. Kaskadenmaschinen arbeiten mit zwei Drehfeldern verschiedener Polpaarzahl. Im Stator befinden sich zwei Wicklungen für die beiden Polpaarzahlen oder eine Wicklung zur gleichzeitigen Erzeugung der beiden Drehfelder mit getrennten Anschlüssen für die beiden Drehfelder. Der Rotor trägt eine in sich kurzgeschlossene Wicklung, die gleichzeitig mit beiden Drehfeldern verkettet ist und deren Strom beide Drehfelder gleichzeitig erzeugt. Dieser Bericht behandelt die Flussdichte- und Durchflutungsverhältnisse der Wicklungen in Stator und Rotor für Kaskadenmaschinen. Dazu werden die Durchflutungen der Statorwicklungen und der Rotorwicklung für die beiden Polpaarzahlen bestimmt und die für die Wicklungsverluste wirksame Gesamtdurchflutung für verschiedene Polzahlkombinationen ermittelt. Die Ergebnisse werden mit Induktionsmaschinen für eine Polzahl verglichen.
Techno-economic analysis that allocate costs to the energy flows of energy systems are helpful to understand the formation of costs within processes and to increase the cost efficiency. For the economic evaluation, the usefulness or quality of the energy is of great importance. In exergy-based methods, this is considered by allocating costs to the exergy instead of energy. As exergy represents the ability of performing work, it is often named the useful part of energy. In contrast, the anergy, the part of energy, which cannot perform work, is often assumed to be not useful.
However, heat flows as used e.g. in domestic heating are always a mixture of a relative small portion of exergy and a big portion of anergy. Although of lower quality, the anergy is obviously useful for these applications. The question is, whether it makes sense to differentiate between exergy and anergy and take both properties into account for the economic evaluation.
To answer this question, a new methodical concept based on the definition of an anergy-exergy cost ratio is compared to the commonly applied approaches of considering either energy or exergy as the basis for economic evaluation. These three different approaches for the economic analysis of thermal energy systems are applied to an exemplary heating system with thermal storages. It is shown that the results of the techno-economic analysis can be improved by giving anergy an economic value and that the proposed anergy-cost ratio allows a flexible adaptation of the evaluation depending on the economic constraints of a system.
The increasing variety of combinations of different building technology components offers a high potential for energy and cost savings in today's buildings. However, in most cases, this potential is not yet fully exploited due to the lack of intelligent supervisory control systems that are required to manage the complexity of the resulting overall systems. In this article, we present the implementation of a mixed-integer nonlinear model predictive control approach as a smart realtime building energy management system. The presented methodology is based on a forward-looking optimization of the overall energy costs. It takes into account energy demand forecasts and varying electricity market prices. We achieve real-time capability of the controller by applying a decomposition approach, which approximates the optimal solution of the underlying mixed-integer optimal control problem by convexification and rounding of the relaxed solution. The quality of the suboptimal solution is evaluated by comparison with the globally optimal solution obtained by the dynamic programming method. Based on a real-world scenario, we demonstrate that utilization of the real-time capable mixedinteger nonlinear model predictive control approach in a building control system leads to savings of 16% in the total operating costs and 13% in primary energy compared to the state-of-the-art control strategy without any loss of comfort for the residents.
Bürstenlose Generatorsysteme mit doppelt gespeisten Kaskadenmaschinen werden zzt. für die regenerative Energieerzeugung z. B. mit Windkraftanlagen untersucht. Sie sind eine Alternative zu Generatorsystemen mit doppelt gespeisten Induktionsmaschinen. Kaskadenmaschinen arbeiten mit zwei Drehfeldern verschiedener Polpaarzahl. Im Stator befinden sich zwei Wicklungen für die beiden Polpaarzahlen oder eine Wicklung zur gleichzeitigen Erzeugung der beiden Drehfelder mit getrennten Anschlüssen für die beiden Drehfelder. Der Rotor trägt eine in sich kurzgeschlossene Wicklung, die gleichzeitig mit beiden Drehfeldern verkettet ist und deren Strom beide Drehfelder gleichzeitig erzeugt. Dieser Bericht behandelt die sinnvollen Polpaarzahlen für Kaskadenmaschinen. Dazu werden die Polpaarzahlkombinationen hinsichtlich ihrer parasitären Effekte und Ausführungsmöglichkeiten qualitativ bewertet.
Aufgrund der klimatischen Veränderungen und steigender Energiepreise hat das nachhaltige und umweltbewusste Handeln in den letzten Jahren an Bedeutung gewonnen. Um dieses Handeln zu unterstützen, können Unternehmen Energiemanagementsysteme nach dem ISO-Standard 50001 einführen. Diese Systeme ermöglichen es u. a. Energieverbräuche in einem Energie-Monitoring visuell aufzubereiten und auf Basis der Ergebnisse Analysen durchzuführen. Aus den Ergebnissen der Analyse können Energieeffizienzmaßnahmen abgeleitet werden. Nach einer Überprüfung der energetischen Optimierung kann der Zyklus erneut beginnen, sodass eine kontinuierliche Verbesserung der Energieeffizienz erfolgen kann. Im industriellen Umfeld bestehen jedoch noch Hindernisse in Bezug auf eine einheitliche Auswertung von Energiedaten für ein effektives Energiemanagement. Verschiedene semantische Interpretationen von Energiedaten und proprietäre Datenformate erschweren die Einrichtung und Erweiterung von Energiemanagementsystemen. Im Rahmen des IGF-Vorhabens "IoT_EnRG" wurde ein universelles Energieinformationsmodell entwickelt. Dieses Modell ermöglicht es, Energiedaten eine einheitliche Semantik zu geben, damit diese einfacher interpretierbar werden. Durch die Anwendung des Energieinformationsmodells können Energiedaten schneller und mit weniger Engineering-Aufwand in technische Energiemanagementsysteme integriert werden. Diese Integration war bisher erschwert, denn konventionelle Lösungen konnten für die Interpretation der Energiedaten aus unterschiedlichen Quellen der Feldebene verschiedene proprietäre Semantiken unterschiedlicher Kommunikationsprotokolle verwenden. Der Ansatz des universellen Energieinformationsmodells reduziert den Engineering-Aufwand technischer Energiemanagement-Systeme und unterstützt die Industrie bei der Installation von Energiemanagementsystemen für eine sparsame und klimaneutrale Produktion. Die Ergebnisse des Vorhabens wurden der Joint Working Group "Power Consumption Management" [1] übergeben, die sich das Ziel gesetzt hat, einen einheitlichen OPC UA-Standard für Energieinformationen auf Basis des entwickelten Modells in Form einer OPC UA Companion Spezifikation zu erarbeiten. Durch die Übergabe der Forschungsergebnisse in die Joint Working Group konnte eine nachhaltige Nutzung der Forschungsergebnisse sichergestellt werden, die deutlich über den Keis der Unternehmen im projektbegleitenden Ausschuss hinausgeht. Das Ziel des Vorhabens wurde erreicht.
The miniaturized Mössbauer-spectrometer (MIMOS II), originally devised by Göstar Klingelhöfer, is further developed by the Renz group at the Leibniz University Hanover in cooperation with the Hanover University of Applied Sciences and Arts. A new processing unit with a two-dimensional (2D) data acquisition was developed by M. Jahns. The advantage of this data acquisition is that no thresholds need to be set before the measurement. The energy of each photon is determined and stored with the velocity of the drive. After the measurement, the relevant area can be selected for the Mössbauer spectrum. Now we have expanded the evaluation unit with a power supply for a MIMOS drive and a MIMOS PIN detector. So we have a very compact MIMOS transmissions measurement setup. With this setup it is possible to process the signals of two detectors serially. Currently we are working on a parallel signal processing.
Mixed-integer NMPC for real-time supervisory energy management control in residential buildings
(2023)
In recent years, building energy supply and distribution systems have become more complex, with an increasing number of energy generators, stores, flows, and possible combinations of operating modes. This poses challenges for supervisory control, especially when balancing the conflicting goals of maximizing comfort while minimizing costs and emissions to contribute to global climate protection objectives. Mixed-integer nonlinear model predictive control is a promising approach for intelligent real-time control that is able to properly address the specific characteristics and restrictions of building energy systems. We present a strategy that utilizes a decomposition approach, combining partial outer convexification with the Switch-Cost Aware Rounding procedure to handle switching behavior and operating time constraints of building components in real-time. The efficacy is demonstrated through practical applications in a single-family home with a combined heat and power unit and in a multi-family apartment complex with 18 residential units. Simulation studies show high correspondence to globally optimal solutions with significant cost savings potential of around 19%.
Kleine und mittlere Unternehmen (KMU), die dem Bereich der Automatisierungstechnik zuliefern, stehen vor der wachsenden Herausforderung, dass Kundinnen und Kunden vermehrt Produkte fordern, die im Sinne der IT-Sicherheit „sicher“ entwickelt werden. Die Norm IEC 62443-4-1 beschreibt einen solchen sichereren Produkt-Entwicklungslebenszyklus. Derartige Standards stellen hohe Anforderungen an die Organisation der Prozesse. Um die Umsetzung dieses Prozesses auch KMU zu ermöglichen, werden im folgenden Dokument Musterprozesse beschrieben, die Unternehmen befähigen die Anforderungen zu verstehen und im eigenen Unternehmen ein-, bzw. fortzuführen.
The shift towards RES introduces challenges related to power system stability due to the characteristics of inverter-based resources (IBRs) and the intermittent nature of renewable resources. This paper addresses these challenges by conducting comprehensive time and frequency simulations on the IEEE two-area benchmark power system with detailed type 4 wind turbine generators (WTGs), including turbines, generators, converters, filters, and controllers. The simulations analyse small-signal and transient stability, considering variations in active and reactive power, short-circuit events, and wind variations. Metrics such as rate of change of frequency (RoCoF), frequency nadir, percentage of frequency variation, and probability density function (PDF) are used to evaluate the system performance. The findings emphasise the importance of including detailed models of RES in stability analyses and demonstrate the impact of RES penetration on power system dynamics. This study contributes to a deeper understanding of RES integration challenges and provides insights for ensuring the reliable and secure operation of power systems in the presence of high levels of RES penetration.
The growing importance of renewable generation connected to distribution grids requires an increased coordination between transmission system operators (TSOs) and distribution system operators (DSOs) for reactive power management. This work proposes a practical and effective interaction method based on sequential optimizations to evaluate the reactive flexibility potential of distribution networks and to dispatch them along with traditional synchronous generators, keeping to a minimum the information exchange. A modular optimal power flow (OPF) tool featuring multi-objective optimization is developed for this purpose. The proposed method is evaluated for a model of a real German 110 kV grid with 1.6 GW of installed wind power capacity and a reduced order model of the surrounding transmission system. Simulations show the benefit of involving wind farms in reactive power support reducing losses both at distribution and transmission level. Different types of setpoints are investigated, showing the feasibility for the DSO to fulfill also individual voltage and reactive power targets over multiple connection points. Finally, some suggestions are presented to achieve a fair coordination, combining both TSO and DSO requirements.
Operators of production plants are increasingly emphasizing secure communication, including real-time communication, such as PROFINET, within their control systems. This trend is further advanced by standards like IEC 62443, which demand the protection of realtime communication in the field. PROFIBUS and PROFINET International (PI) is working on the specification of the security extensions for PROFINET (“PROFINET Security”), which shall fulfill the requirements of secure communication in the field.
This paper discusses the matter in three parts. First, the roles and responsibilities of the plant owner, the system integrator, and the component provider regarding security, and the basics of the IEC 62443 will be described. Second, a conceptual overview of PROFINET Security, as well as a status update about the PI specification work will be given. Third, the article will describe how PROFINET Security can contribute to the defense-in-depth approach, and what the expected operating environment is. We will evaluate how PROFINET Security contributes to fulfilling the IEC 62443-4-2 standard for automation components.
Two of the authors are members of the PI Working Group CB/PG10 Security.
We present a methodology based on mixed-integer nonlinear model predictive control for a real-time building energy management system in application to a single-family house with a combined heat and power (CHP) unit. The developed strategy successfully deals with the switching behavior of the system components as well as minimum admissible operating time constraints by use of a special switch-cost-aware rounding procedure. The quality of the presented solution is evaluated in comparison to the globally optimal dynamic programming method and conventional rule-based control strategy. Based on a real-world scenario, we show that our approach is more than real-time capable while maintaining high correspondence with the globally optimal solution. We achieve an average optimality gap of 2.5% compared to 20% for a conventional control approach, and are faster and more scalable than a dynamic programming approach.
We present a novel long short-term memory (LSTM) approach for time-series prediction of the sand demand which arises from preparing the sand moulds for the iron casting process of a foundry. With our approach, we contribute to qualify LSTM and its combination with feedback-corrected optimal scheduling for industrial processes.
The sand is produced in an energy intensive mixing process which is controlled by optimal scheduling. The optimal scheduling is solved for a fixed prediction horizon. One major influencing factor is the sand demand, which is highly disturbed, for example due to production interruptions. The causes of production interruptions are in general physically unknown. We assume that information about the future behavior of the sand demand is included in current and past process data. Therefore, we choose LSTM networks for predicting the time-series of the sand demand.
The sand demand prediction is performed by our multi model approach. This approach outperforms the currently used naive estimation, even when predicting far into the future. Our LSTM based prediction approach can forecast the sand demand with a conformity up to 38 % and a mean value accuracy of approximately 99%. Simulating the optimal scheduling with sand demand prediction leads to an improvement in energy savings of approximately 1.1% compared to the naive estimation. The application of our novel approach at the real production plant of a foundry proves the simulation results and verifies the capability of our approach.
This paper proposes an extended Petri net formalism as a suitable language for composing optimal scheduling problems of industrial production processes with real and binary decision variables. The proposed approach is modular and scalable, as the overall process dynamics and constraints can be collected by parsing of all atomic elements of the net graph. To conclude, we demonstrate the use of this framework for modeling the moulding sand preparation process of a real foundry plant.
Die Konvergenz von Netzwerken ist ein zunehmender Trend im Bereich der Automatisierung. Immer mehr Anlagenbetreiber streben eine Vereinheitlichung der Netzwerke in ihren Anlagen an. Dies führt zu einer nahtlosen Netzwerkstruktur, einer vereinfachten Überwachung und einem geringeren Schulungsaufwand für das Personal, da nur eine einheitliche Netzwerktechnologie gehandhabt werden muss. Ethernet-APL ist ein Teil des Puzzles für ein solches konvergentes Netzwerk und unterstützt verschiedene Echtzeitprotokolle wie PROFINET, EtherNet, HART-IP sowie das Middleware-Protokoll OPC UA. Dieses Papier gibt einen Überblick über die Auswirkungen von Ethernet-APL-Feldgeräten auf die OT-Sicherheit und schlägt vor, wie die OT-Sicherheit für diese Geräte gewährleistet werden kann.
In dieser Studie wurden Unternehmen, die Produktionsanlagen betreiben oder betreuen, zu ihrem Sicherheitsaufwand bei der Abfrage von Security Advisories für Automatisierungskomponenten befragt. Die befragten Unternehmen (vorwiegend KMU) machten Angaben zum zeitlichen, technischen und personellen Aufwand für die Auswertung von Security Advisories im Produktionsumfeld. Es wurde festgestellt, dass in vielen Unternehmen Defizite in Bezug auf diese Fragestellung bestehen. Dieses resultiert im Wesentlichen aus Mangel an Zeit und Mangel an qualifiziertem Personal. Eine in der Studie vorgeschlagene automatisierte Abfrage von Asset Inventories und eine automatisierte Zuordnung von Security Advisories zu den Assets wird von den befragten Unternehmen durchgehend als sinnvoll erachtet.
The authors describe the application of a combination of velocity map imaging and time-of-flight (TOF) techniques to obtain three-dimensional velocity distributions for surface photodesorption. They have established a systematic alignment procedure to achieve correct and reproducible experimental conditions. It includes four steps: (1) optimization of the velocity map imaging ion optics’ voltages to achieve optimum velocity map imaging conditions; (2) alignment of the surface normal with the symmetry axis (ion flight axis) of the ion optics; (3) determination of TOF distance between the surface and the ionizing laser beam; (4) alignment of the position of the ionizing laser beam with respect to the ion optics. They applied this set of alignment procedures and then measured Br(²P₃/₂) (Br) and Br(²P₁/₂) (Br∗) atoms photodesorbing from a single crystal of KBr after exposure to 193 nm light. They analyzed the velocity flux and energy flux distributions for motion normal to the surface. The Br∗ normal energy distribution shows two clearly resolved peaks at approximately 0.017 and 0.39 eV, respectively. The former is slightly faster than expected for thermal desorption at the surface temperature and the latter is hyperthermal. The Br normal energy distribution shows a single broad peak that is likely composed of two hyperthermal components. The capability that surface three-dimensional velocity map imaging provides for measuring state-specific velocity distributions in all three dimensions separately and simultaneously for the products of surface photodesorption or surface reactions holds great promise to contribute to our understanding of these processes.
Network convergence is an increasing trend in the automation domain. More and more plant owners strive for a unification of networks in their plants. This yields a seamless network structure, simplified supervision, and reduced training effort for the personnel, as only one unified network technology needs to be handled. Ethernet-APL is one piece of the puzzle for such a converged network, supporting various real time protocols like PROFINET, EtherNet, HART-IP as well as the middleware protocol OPC UA. This paper gives an overview on the impact of Ethernet-APL field devices to OT security and proposes how to ensure OT security for them.
This paper presents a cascaded methodology for enhancing the path accuracy of industrial robots by using advanced control schemes. It includes kinematic calibration as well as dynamic modeling and identification. This is followed by a centralized model-based compensation of robot dynamics. The implemented feed-forward torque control shows the expected improvements of control accuracy. However, external measurements show the influence of joint elasticities as systematic path errors. To further increase the accuracy an iterative learning controller (ILC) based on external camera measurements is designed. The implementation yields to significant improvements of path accuracy. By means of a kind of automated ”Teach-In”, an overall effective concept for the automated calibration and optimization of the accuracy of industrial robots in high-dynamic path-applications is realized.
We present a feedback-corrected optimal scheduling approach to reduce the demand of electrical energy of batch processes, exemplified at the sand preparation in foundry. The main energy driver in the exemplary foundry is the idle time of the batch-wise working sand mixers. In this novel approach, we use linear integer programming to minimize the demand of energy of the sand mixers by scheduling the batches in real-time. For the optimization we use a physical model of the sand preparation, which takes dwell-times of the processes as dead-time systems into account. In this paper, we present the steps to make the optimal scheduling approach applicable for the production process. The application at the real production plant proves the performance of the suggested approach. Compared to the conventional control, the feedback-corrected optimal scheduling approach leads to an reduction in energy consumption of approximately 6.5 % without modifying the process or the aggregates.
A new type of rotary compressor, called “rotary-chamber compressor”, consists of two interlocking rotors with 4 wings each, that perform non-uniform rotary movements. Both rotors have the same direction of rotation, while one rotor is accelerating, the other rotor is retarding. After surpassing a specific mark, the sequence changes and the leading rotor begins to retard and vice versa. Due to the resulting relative phase difference, the volume between the two wings is changing periodically, which allows pulsating working chambers. The technology was first introduced by its founder Jürgen Schukey in 1987. Since then, no further development on this machine is known to us except our own. In this contribution, a study on the kinematics of the rotary-chamber-compressor is presented. Initial studies have shown that changes in the kinematics of the rotors will have a direct influence on the thermodynamical variables, which, if optimized, can lead to an increased performance of the machine. Therefore, a mathematical model has been developed to obtain the performance parameters from different kinematic concepts by using numerical CFD analysis. Furthermore, additional optimization possibilities will be listed and discussed.
Requirements for an energy data information model for a communication-independent device description
(2021)
With the help of an energy management system according to ISO 50001, industrial companies obtain the opportunities to reduce energy consumption and to increase plant efficiencies. In such a system, the communication of energy data has an important function. With the help of so-called energy profiles (e.g. PROFIenergy), energy data can be communicated between the field level and the higher levels via proven communication protocols (e.g. PROFINET). Due to the fact that in most cases several industrial protocols are used in an automation system, the problem is how to transfer energy data from one protocol to another with as less effort as possible. An energy data information model could overcome this problem and describe energy data in a uniform and semantically unambiguous way. Requirements for a unified energy data information model are presented in this paper.
In the area of manufacturing and process automation in industrial applications, technical energy management systems are mainly used to measure, collect, store, analyze and display energy data. In addition, PLC programs on the control level are required to obtain the energy data from the field level. If the measured data is available in a PLC as a raw value, it still has to be processed by the PLC, so that it can be passed on to the higher layers in a suitable format, e.g. via OPC UA. In plants with heterogeneous field device installations, a high engineering effort is required for the creation of corresponding PLC programs. This paper describes a concept for a code generator that can be used to reduce this engineering effort.
Die Vision „Industrial Ethernet bis zu den Sensoren und Aktoren“ wurde Realität. Auf der Achema im Juni 2021 wurde Ethernet-APL in den Markt eingeführt. Basis dieser Technologie ist ein 2-Draht-Ethernet (engl. 2-wire-Ethernet), das sowohl Informationen als auch Energie zu den Sensoren und Aktoren des Automatisierungssystems überträgt. Ethernet-APL basiert auf dem Ethernet-Standard IEEE 802.3cg und arbeitet mit einer Datenrate von 10 Mbit/s. Eine zusätzliche Spezifikation, die Ethernet-APL Port Profile Specification, definiert zusätzliche Parameter für den Einsatz in der Prozessindustrie, insbesondere in explosionsgefährdeten Bereichen. In einem nächsten Schritt müssen sich potenzielle Anwender mit dem Engineering-Prozess von Ethernet-APL-Netzwerken vertraut machen. Zu diesem Zweck stellt das Ethernet-APL-Projekt die Ethernet-APL-Engineering-Richtlinie zur Verfügung, welche die wichtigsten Bereiche der Planung, Installation und Abnahmeprüfung abdeckt. Dieser Artikel soll einen Überblick über den Ethernet-APL-Engineering-Prozess geben und die relevanten Planungsschritte aufzeigen.
Deutsche Übersetzung des englischen Beitrags, abrufbar unter https://doi.org/10.25968/opus-2087
With regard to climate change, increasing energy efficiency is still a significant issue in the industry. In order to acquire energy data at the field level, so-called energy profiles can be used. They are advantageous as they are integrated into existing industrial ethernet standards (e.g. PROFINET). Commonly used energy profiles such as PROFIenergy and sercos Energy have been established in industrial use. However, as the Industrial Internet of Things (IIoT) continues to develop, the question arises whether the established energy profiles are sufficient to fullfil the requirements of the upcoming IIoT communication technologies. To answer this question the paper compares and discusses the common energy profiles with the current and future challenges of energy data communication. Furthermore, this analysis examines the need for further research in this field.
The Ethernet-APL Engineering Process - A brief look at the Ethernet-APL engineering guideline
(2021)
The vision of an “Industrial Ethernet down to the sensors and actors” has become reality. At the Achema fair in June 2021 Ethernet-APL was introduced. This technology is based on a 2-wire Ethernet that conveys information as well as energy to the sensors and actuators of the automation system. Ethernet-APL is based on the 2-wire Ethernet standard IEEE 802.3cg running at 10 Mbit/s. An additional specification, the Ethernet-APL Port Profile Specification, defines additional parameters for the use of the technology in the process industry, especially in areas with potentially explosive atmospheres. As a next step, potential users need to become familiar with the engineering process of Ethernet-APL networks. For this purpose, the Ethernet-APL project provides the Ethernet-APL Engineering Guideline that covers the main areas of planning, installation and acceptance testing.
Flatness-based feedforward control is an approach for combining fast motion with low oscillations for nonlinear or flexible drive systems. Its desired trajectories must be continuously differentiable to the degree of the system order. Designing such trajectories, that also reach the dynamic system limits, poses a challenge. Common solutions, like Gevrey functions, usually require lengthy offline calculations. To achieve a quicker and simpler industrial-suited solution, this paper presents a new online trajectory generation scheme. The algorithm utilizes higher order s-curve trajectories created by a cyclic filtering process using moving average filters. An experimental validation proves the capability as well as industrial applicability of the presented approach for flexible structures like stacker cranes.
Worldwide, seagrass meadows are under threat. Consequently, there is a strong need for seagrass restoration to guarantee the provision of related ecosystem services such as nutrient cycling, carbon sequestration and habitat provision. Seagrass often grows in vast meadows in which the presence of seagrass itself leads to a reduction of hydrodynamic energy. By modifying the environment, seagrass thus serves as foundation species and ecosystem engineer improving habitat quality for itself and other species as well as positively affecting its own fitness. On the downside, this positive feedback mechanism can render natural recovery of vanished and destroyed seagrass meadows impossible. An innovative approach to promote positive feedback mechanisms in seagrass restoration is to create an artificial seagrass (ASG) that mimics the facilitation function of natural seagrass. ASG could provide a window of opportunity with respect to suitable hydrodynamic and light conditions as well as sediment stabilization to allow natural seagrass to re-establish. Here, we give an overview of challenges and open questions for the application of ASG to promote seagrass restoration based on experimental studies and restoration trials and we propose a general approach for the design of an ASG produced from biodegradable materials. Considering positive feedback mechanisms is crucial to support restoration attempts. ASG provides promising benefits when habitat conditions are too harsh for seagrass meadows to re-establish themselves.
This paper presents a novel approach for modelling the energy consumption of the coupled parallel moulding sand mixers of a foundry as an optimal control problem. The minimization of energy consumption is optimized by scheduling the mixing processes in a linear integer programming scheme. The sand flow through the foundry’s sand preparation is characterized by a physical model. This model considers the sand demand of the moulding machine as disturbance, the stored sand masses in the mixer hoppers and machine hoppers, respectively. The novel approach of handling dwell-times for dosing, mixing and transport processes using dead-time systems and constraint pushing allows the application of a linear model. The formulation of the optimal control problem aims at real-time application as model predictive control at the production plant. Initial application results indicate an improvement in energy consumption of approximately 8%.
Planer und Betreiber von Produktionsanlagen stehen vor der Frage, welche Normen für die IT-Sicherheitskonzepte und ggf. auch für eine Auditierung dieser Anlagen anzuwenden sind. Da die Verantwortlichkeit in Bezug auf die IT-Sicherheit für die Operational Technology (OT) oft in anderen Händen liegt, als die für Information Technology (IT), gibt es hier gelegentlich abweichende Auffassungen darüber welche Normen zu Grunde zu legen sind.
Personen aus dem IT-Umfeld fokussieren in der Regel auf die Normreihe ISO 27001, während Personen aus dem OT-Umfeld eher die Normreihe IEC 62443 favorisieren. Dieser Beitrag beschreibt die Grundlagen und Ausrichtung der beiden Normreihen und gibt Anregungen, in welchem Kontext welche die Normen sinnvoll und ggf. auch kombiniert nutzbar sind.
Das Dokument schließt mit einer Empfehlung für ein Vorgehen im Bereich von Produktionsanlagen für die Fertigungs- und Prozessindustrie (OT-Security). Abschließend wird im Anhang noch am Beispiel einer Abwasserbehandlungsanlage die Anwendbarkeit der Normen diskutiert.
Industrial Control Systems (ICS) succumb to an ever evolving variety of threats. Additionally, threats are increasing in number and get more complex. This requires a holistic and up-to-date security concept for ICS as a whole. Usually security concepts are applied and updated based on regularly performed ICS security assessments. Such ICS security assessments require high effort and extensive knowledge about ICS and its security. This is often a problem for small and mediumsized enterprises (SME), which do not have sufficient respective sufficiently skilled human resources. This paper defines in a first step requirements on the knowledge needed to perform an ICS security assessment and the life cycle of this knowledge. Afterwards the ICS security knowledge and its life cycle are developed and discussed considering the requirements and related work.
This paper presents a databased approach for improving the precision of the moulding sand compressibility in the moulding sand mixer of a foundry. In this approach, the deviation between the measured and the target compressibility is reduced by controlling the water addition. The complex dynamic behaviour of the process variables and their influence on the water addition is modelled with a long short-term memory (LSTM) network. Another LSTM network as control path simulates the impact of the water addition on the compressibility. Simulation and experimental results with the applied model for water prediction in a feedforward control yield relevant improvements of the moulding sand compressibility.
This paper presents the implementation of a GMVC-based WAPSS to damp the interarea modes of power systems. The choise for the GMVC to tackle this problem lies on the fact that it can be used to compensate the time delay due to the latency of the transmission system in a more natural way than other controllers. The paper shows that it is possible to improve system’s closed-loop stability since its behavior is the same as if the time delay is not regarded. Simulation results with Kundur’s System prove that a latency of 1 second at a conventional WAPSS might lead system’s power to oscillate for 50 seconds for a short-circuit at the transmission line, whereas the oscillation decreases to only 5 seconds if the GMVC-based WAPSS is implemented.
This paper presents the fundamental investigation on crack propagation rate (CPR) and Stress Intensity Factor (SIF) for a typical fatigue and welded specimens which are Compact Tension (CT) and Single Edge Notch Tension (SENT) as well as Butt and longitudinal T-joint. The material data of austenitic stainless steel SS316L was used to observe crack propagation rate with different initial crack length and different tensile load was used for the fracture mechanics investigation. The geometry of the specimens was modelled by using open source software CASCA while Franc 2D was used for post processing based on Paris Erdogan Law with different crack increment steps. The analysis of crack propagation using fracture mechanics technique requires an accurate calculation of the stress intensity factor SIF and comparison of the critical strength of the material (KIC) was used to determine the critical crack length of the specimens. it can be concluded that open source finite element method software can be used for predicting of fatigue life on simplified geometry.
Das Forschungscluster Industrie 4.0 stellt in acht Beiträgen aktuelle Ergebnisse aus seinen vielfältigen Forschungsprojekten vor. Es werden virtuelle Techniken in der Produktentwicklung, Lehrkonzepte für Industrie 4.0, Energy Harvesting bei Antennen, Energiemanagement in Produktionsanlagen, firmenübergreifende IT-Security Anforderungen, dezentral gesteuerte Produktionsprozesse und Spracherkennung mit Mikrocontrollern behandelt.
Der vorliegende Beitrag beschreibt Einsatzpotenziale des Energiemanagementprofils PROFIenergy in der Prozessindustrie.
Der Blick auf den Status von Energieeffizienzmaßnahmen in der Prozessindustrie zeigt, dass diese im Wesentlichen innerhalb der verfahrenstechnischen Optimierung angesiedelt sind. Noch hat sich der durchgängige Einsatz von technischen Energiemanagementsystemen
(tEnMS) nicht etabliert. Diese Arbeit fokussiert Vorteile des tEnMS-Einsatzes und präsentiert „Best Practice“- Beispiele in der Prozessindustrie. Abschließend wird aufgezeigt, welches Potenzial das Energiemanagementprofil PROFIenergy liefern kann und welche Anwendungsfälle sich damit abdecken lassen.
The bio-based plastic market is forecast to grow in the next years. With a growing market share and product range, the implementation of circular thinking is becoming more and more important also for bio-based plastics to enable a sound circular economy for these group of plastics. Therefore, it is important to assess the environmental performance for different end-of-life options of bio-based plastics from an early stage on. This review presents a comprehensive overview on the current status quo of different end-of-life options for bio-based plastics from an environmental perspective. Based on the status quo and the corresponding impact assessment results, the global plastic demand as well as the technical substitution potential of bio-based plastics, the environmental saving potential in case of the different end-of-life options was calculated. The review shows that there is a focus on polylactic acid (PLA) regarding end-of-life assessment, with studies covering all end-of-life options. The focus of the impact assessment has been set on global warming potential (GWP). With respect to GWP, the analysis of a future global potential of PLA showed, for mechanical recycling, the highest saving potential with 94.1 Mio. t CO2-eq. per year in comparison to virgin material.
Das Ziel dieser Bachelorarbeit ist es, ein einfach verständliches Simulationsmodell zur Darstellung der Wirkung von Kabelschirmen bei Betrachtung verschiedener Schirmauflageverfahren zu entwickeln. Die erarbeiteten Ergebnisse decken sich mit der allgemein vertretenen Meinung, dass die beste Schirmwirkung durch eine beidseitige und flächige Schirmauflage erzielt wird. Zuerst werden Grundlagen erklärt, wobei sich auf relevante Literatur bezogen wird. Daraus wird das Simulationsmodell hergeleitet, dessen Ergebnisse anhand von theoretischen Überlegungen und praktischen Messungen überprüft werden. Die vorliegende Arbeit ist interessant für Ingenieurinnen und Ingenieure der Automatisierungstechnik in der Prozess- und Fertigungsindustrie, die ein grundlegendes Verständnis für relevante Effekte der Kabelschirmung bilden wollen.
This feasibility study investigates the flexural properties of biocomposites containing woven flax textiles (plain, twill, satin) and woven twill patterned hybrid textiles containing flax-/glass or flax-/carbon mixture for lightweight applications. Synthetic fibers are integrated as weft and flax fibers are integrated as warp yarns using a double-rapier weaving machine with a Jacquard attachment. The corresponding biocomposites are manufactured via vacuum infusion process using a biobased epoxy resin as a matrix. The manufactured biocomposites are analyzed with regard to their density and flexural properties. The results show that the use of hybrid textiles offers a promising solution for the manufacture of biocomposites with a higher biobased content and significantly improved flexural properties. Furthermore, the introduction of high-performance synthetic fibers in textiles enables the manufacture of biocomposites with an isotropic mechanical performance.
Die folgende Studie befasst sich mit den Auswirkungen der Corona-Pandemie und deren Effekt – ein verminderter CO2-Ausstoß in Deutschland. Für einen übersichtlichen Vergleich wird im weiteren Verlauf in unterschiedlichen Szenarien darauf eingegangen, wie sich der CO2-Ausstoß im Vergleich zu 2020 ohne die Corona-Pandemie in Deutschland verändern könnte. Grundbasis für die Ermittlungen der folgenden Szenarien ist der CO2-Trend ohne die Corona-Pandemie im Jahr 2020, in dem Deutschland das Emissionsziel von -40 % gegenüber 1990 mit einer Reduktion von lediglich 37 % verfehlt hätte. Im zweiten Szenario wird dargestellt, wie sich die aktuelle Corona-Pandemie mit verschiedenen Lockdown-Phasen auf den CO2-Ausstoß auswirkt. Deutlich wird hierbei, dass trotz der aktuellen Maßnahmen eine längere Lockdown-Phase benötigt wird, um das Klimaziel von -40 % langfristig gesichert zu erreichen. In den Szenarien 3 und 4 liegt der Fokus auf möglichen Handlungs- und Verhaltensweisen nach der Pandemie. Das Szenario 3 betrachtet die Folgen von wirtschaftsfördernden Maßnahmen nach dem Lockdown und dem damit einhergehenden CO2-Anstieg. Wie viel CO2 zusätzlich aufgrund von nachhaltigem und klimaorientiertem Verhalten eingespart werden kann, erläutert das Szenario 4 „CO2 Entwicklung unter Berücksichtigung der Corona-Pandemie 2020 und möglicher positiver Umweltentwicklungen aus dem Lockdown“.
Faktoren, wie die wachsende Bevölkerung, sich verändernde Produktionsfaktoren oder Umwelteinflüsse wurden vernachlässigt. Die Studie zeigt, dass die Chancen, die durch die wirtschaftlichen Einschnitte und die Verhaltensänderungen, die durch die Corona-Pandemie bzw. deren Folgen hervorgerufen wurden, einen maßgeblichen Einfluss auf den CO2-Ausstoß der Bundesrepublik Deutschland haben können.
Das Forschungscluster Energie – Mobilität – Prozesse stellt in acht Beiträgen aktuelle Ergebnisse aus laufenden Forschungsprojekten vor. Es werden Aspekte der Urbanen Logistik, der Automatisierung von Energiemanagementsystemen, der Effizienz von neuen Kältemaschinen, der Entsäuerung von Kulturgütern, der Auslastung von Pedelec-Vermietsystemen und der Reichweite von Elektrofahrzeugen behandelt. Zusätzlich werden relevante Daten in Form von 17 Diagrammen kompakt zusammengestellt.
Bei der Integration technischer Energiemanagementsysteme (tEnMS) in Automatisierungsanlagen fällt ein hoher Engineering-Aufwand an, besonders für die Steuerungsprogrammierung. Dieser Engineering-Aufwand ist für industrielle Anwender der Hauptgrund, integrierte tEnMS nicht einzusetzen. Im Rahmen des Forschungsprojektes „Integriertes Anlagenengineering zur Erhöhung der Energieeffizienz (IAE4)“ (Förderkennzeichen: ZN2948; Forschungsprofessur des Landes Niedersachsen/Volkswagenstiftung) wurde untersucht, wie sich dieser Engineering-Aufwand reduzieren lässt. Hierzu wurde ein Software-Werkzeug entwickelt, das die benötigten Steuerungsprogramme automatisch aus Engineering-Daten und Gerätebeschreibungsdateien generiert. Dieser Beitrag stellt die Ergebnisse des IAE4-Projektes vor.
Dieser Beitrag adressiert einleitend die aktuelle Bedrohungslage aus Sicht der Industrie mit einem Fokus auf das Feld und die Feldgeräte. Zentral wird dann die Frage behandelt, welchen Beitrag Feldgeräte im Kontext von hoch vernetzten Produktionsanlagen für die künftige IT-Sicherheit leisten können und müssen. Unter anderem werden auf Basis der bestehenden Standards wie IEC 62443-4-1, IEC 62443-4-2 oder der VDI 2182-1 und VDI 2182-4 ausgewählte Methoden und Maßnahmen am Beispiel eines Durchflussmessgerätes vorgestellt, die zur künftigen Absicherung von Feldgeräten notwendig sind.
The topic of electromagnetic compatibility (EMC) remains an important aspect during the planning, installation and operation of automation systems. Communication networks, such as PROFIBUS and PROFINET, are known to be robust and reliable transmission systems. Nevertheless, it is important that a number of fundamental principles needs to be observed to ensure fault-free operation over a long plant lifetime. This paper first describes a number of principles of EMC. On the basis of these principles, six recommendations for action are then developed which are to be observed during the planning of an automation system for use in the manufacturing industry. Finally, an overview is provided of future work for systems in the process industry.
Quartz-crystal microbalances (QCMs) are commercially available mass sensors which mainly consist of a quartz resonator that oscillates at a characteristic frequency, which shifts when mass changes due to surface binding of molecules. In addition to mass changes, the viscosity of gases or liquids in contact with the sensor also shifts the resonance but also influences the quality factor (Q-factor). Typical biosensor applications demand operation in liquid environments leading to viscous damping strongly lowering Q-factors. For obtaining reliable measurements in liquid environments, excellent resonator control and signal processing are essential but standard resonator circuits like the Pierce and Colpitts oscillator fail to establish stable resonances. Here we present a lowcost, compact and robust oscillator circuit comprising of state-of-the-art commercially available surface-mount technology components which stimulates the QCMs oscillation, while it also establishes a control loop regulating the applied voltage. Thereby an increased energy dissipation by strong viscous damping in liquid solutions can be compensated and oscillations are stabilized. The presented circuit is suitable to be used in compact biosensor systems using custom-made miniaturized QCMs in microfluidic environments. As a proof of concept we used this circuit in combination with a customized microfabricated QCM in a microfluidic environment to measure the concentration of C-reactive protein (CRP) in buffer (PBS) down to concentrations as low as 5 μgmL -1.
Das Thema Elektromagnetische Verträglichkeit (EMV) ist noch immer ein wesentlicher Aspekt bei der Planung, bei der Installation und beim Betrieb von Automatisierungssystemen. Kommunikationsnetzwerke wie zum Beispiel PROFIBUS und PROFINET sind als robuste und zuverlässige Übertragungssysteme bekannt. Dennoch ist für deren Funktion die Beachtung einiger grundlegender Prinzipien wichtig, um einen störungsfreien Betrieb über ein langes Anlagenleben zu gewährleisten. Der Beitrag beschreibt zunächst einige Grundlagen der EMV. Basierend auf diesen Grundlagen werden dann sechs Handlungsempfehlungen abgeleitet, die bei der Planung eines Automatisierungssystems für den Einsatz in der Fertigungsindustrie zu beachten sind. Abschließend wird ein Ausblick auf die weiterführenden Arbeiten für Anlagen der Prozessindustrie gegeben.
Against the background of climate change and finite fossil resources, bio-based plastics have been in the focus of research for the last decade and were identified as a promising alternative to fossil-based plastics. Now, with an evolving bio-based plastic market and application range, the environmental advantages of bio-based plastic have come to the fore and identified as crucial by different stakeholders. While the majority of assessments for bio-based plastics are carried out based on attributional life cycle assessment, there have been only few consequential studies done in this area. Also, the application of eco-design strategies has not been in the focus for the bio-based products due to the prevailing misconceptions of renewable materials (as feedstock for bio-based plastics) considered in itself as an ‘eco-design strategy’. In this paper, we discuss the life cycle assessment as well as eco-design strategies of a bio-based product taking attributional as well as consequential approaches into account.
The automated transfer of flight logbook information from aircrafts into aircraft maintenance systems leads to reduced ground and maintenance time and is thus desirable from an economical point of view. Until recently, flight logbooks have not been managed electronically in aircrafts or at least the data transfer from aircraft to ground maintenance system has been executed manually. Latest aircraft types such as the Airbus A380 or the Boeing 787 do support an electronic logbook and thus make an automated transfer possible. A generic flight logbook transfer system must deal with different data formats on the input side – due to different aircraft makes and models – as well as different, distributed aircraft maintenance systems for different airlines as aircraft operators. This article contributes the concept and top level distributed system architecture of such a generic system for automated flight log data transfer. It has been developed within a joint industry and applied research project. The architecture has already been successfully evaluated in a prototypical implementation.
The technical, environmental and economic potential of hemp fines as a natural filler in bioplastics to produce biocomposites is the subject of this study – giving a holistic overview. Hemp fines are an agricultural by-product of the hemp fibres and shives production. Shives and fibres are for example used in the paper, animal bedding or composite area. About 15 to 20 wt.-% per kg hemp straw results in hemp fines after processing. In 2010 about 11,439 metric tons of hemp fines were produced in Europe. Hemp fines are an inhomogeneous material which includes hemp dust, shives and fibre. For these examinations the hemp fines are sieved in a further step with a tumbler sieving machine to obtain more specified fractions. The untreated hemp fines (ex work) as well as the sieved fractions are combined with a polylactide polymer (PLA) using a co-rotating twin screw extruder to produce biocomposites with different hemp fine content. By using an injection moulding machine standard test bars are produced to conduct several material tests. The Young’s modulus is increased and the impact strength reduced by hemp fines. With a content of above 15 wt.-% hemp fines are also improving the environmental (global warming potential) and economic performance in comparison to pure PLA.
Ziel des Projektes war es, nominative Grundlagen für die Kriterien eines Performace-Quality-Labels (PQL) für LED-Leuchten zu erarbeiten. Unter dem PQL wird ein Qualitäts- und Energielabel verstanden, das für LED-Produkte auf Grundlage der aktuellen und sich entwickelnden Normensituation erarbeitet werden soll. Durch das Bestimmen der für eine gute Produktqualität erforderlichen Faktoren, soll durch die beteiligten Forschungseinrichtungen ein Katalog von Mindestanforderungen für LED-Leuchten entwickelt werden. Auf der anderen Seite sollen der Leuchtenindustrie konkrete Hinweise für die Entwicklung und Optimierung von LED-Leuchten bezüglich der im Projekt geforderten Werte zur Verfügung gestellt werden.
Ergebnis: Es wurde die Alterung von Hoch- und Mittelleistungs-LEDs bei verschiedenen Strömen und Boardtemperaturen hinsichtlich Lichtstrom, Farbort, Spektren und Änderung des thermischen Widerstands untersucht, um die Lebensdauer der LEDs durch eine Extrapolation herstellerunabhängig ermitteln und den Leuchtenherstellern verfügbar zu machen. Durch umfangreiche Untersuchungen zu ESD und EMV-Eigenschaften sowie Temperatur- und Stromverhalten der LEDs, war eine thermische und elektrische Modellierung möglich. Ziel: ein korrektes Datenblatt für die LEDs seitens der LED-Hersteller zu erarbeiten sowie ein relevantes Binning-Schema mit Beurteilungskriterien für die verschiedenen Binning-Klassen zu erstellen. Zudem lassen sich Hinweise ableiten, wie zukünftige LED-Leuchten mit RGB- und weißen LEDs auf Farbort- und Lichtstromkonstanz bei verschiedenen Temperatur- und Stromänderungen geregelt werden können. Durch die Vergleichsmessungen von mehr als 70 LED-Leuchten konnten die Schwachstellen und Unzulänglichkeiten in der qualitätssicherenden Kette ermittelt und mit den Firmen besprochen werden. Die Auswertung der an der TU Darmstadt gealteten LED-Leuchten konnte der Leuchtenindustrie konkrete Hinweise über Alterungsmechanismen, thermisches Management bei verschiedenen Betriebstemperaturen und die Restwelligkeit der LED-Ströme geben. Zudem wurden Faktoren erarbeitet, wie die LED-Leuchte durch Materialauswahl (Wärmeleitpasten, Dichtungsring), durch konstruktive Kabelführung und Elektronik-Auswahl an Zuverlässigkeit gewinnen kann. Eine Datenbank mit einer Typisierung der LED-Fehler, Entstehungsorte, Ursachen und wirtschaftlicher Folge konnte erstellt und mit der Leuchtenindustrie und professionellen Anwendern ausgetauscht und gepflegt werden.
Die Grundlage für die Akzeptanz der LED-Beleuchtung durch die professionellen und privaten Anwender kann nur geschaffen werden, wenn die Licht- und Farbqualität untersucht und deren Mindestwerte für hochqualitive LED-Produkte definiert werden können. An Hand der Untersuchung der Farbwiedergabeskalierung konnte gezeigt werden, dass LED-Systeme mit guter Farbwiedergabe eine Ra-Wert von 86 und R9 für gesättigte rote Farben von mehr als 45 aufweisen sollten. Um die Detektierbarkeit der stroboskopischen Erscheinungen von PQWM-betriebenen LEDs zu minimieren sollte die Pulsfrequenz nicht weniger als als 350 Hz – 400 Hz betragen.
Alle gewonnenen optischen, lichttechnischen, thermischen und elektrischen Erkenntnisse und Erfahrungen wurden während der Projektarbeit systematisch zusammengestellt und mit Zielwerten bzw. Grenzwerten versehen, so dass sie über die Qualitätsmerkmale (Performance Quality Label) in drei Vorträgen der Leuchtenindustrie präsentiert werden konnten. Die Ziele des Projekts konnten im vollen Umfang erfüllt werden. Die Erkenntnisse vom Projekt konnten durch sechs reguläre Treffen, zwei Sonderworkshops, drei VDE/ZVEI Workshops und zahlreiche Publikationen, Buchbeiträge und Konferenzbeiträge an die Lichtindustrie, Lichtplaner und weitere Interessierte transferiert werden.
Das IGF-Vorhaben 14 LBG der Forschungsvereinigung Elektrotechnik wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Das Projekt SEC_PRO verfolgte die Möglichkeit der Erarbeitung einer neuartigen IT-Sicherheitslösung für Automatisierungssysteme. Die Ermittlung des Stands der Technik zeigte, dass die IT-Sicherheit in der Automatisierungstechnik von Lösungen der Standard-IT in Büronetzwerken geprägt ist, ohne auf spezielle Anforderungen der Automatisierungstechnik einzugehen. Eine Anforderungsanalyse erbrachte, dass IT-Sicherheitslösungen benötigt werden, die sich mit dem zunehmenden Vernetzungsgrad von Automatisierungssystemen in Einklang bringen lassen. Dazu ist eine IT-Sicherheitsschicht für das PROFINET-Protokoll konzipiert und implementiert worden, die einen integrierten Schutz der Kommunikation und der Komponenten selbst ermöglicht. Dabei kommen gezielt Security Token Technologien zum Einsatz. Eine Evaluierung der kryptografischen Funktionen zeigte, dass deren Verwendung unter gewissen Voraussetzungen möglich ist. Mit Hilfe eines Demonstrators ist konnte die Echtzeitfähigkeit der IT-Sicherheitsschicht validiert und dessen Schutzwirkung nachgewiesen werden. SEC_PRO kann als Ausgangspunkt für weitere Vorhaben bezüglich integrierter IT-Sicherheitsmaßnahmen gesehen werden, die auf eine Anwendung der Kryptografie in der Automatisierungstechnik abzielen.
An important part of computed tomography is the calculation of a three-dimensional reconstruction of an object from series of X-ray images. Unfortunately, some applications do not provide sufficient X-ray images. Then, the reconstructed objects no longer truly represent the original. Inside of the volumes, the accuracy seems to vary unpredictably. In this paper, we introduce a novel method to evaluate any reconstruction, voxel by voxel. The evaluation is based on a sophisticated probabilistic handling of the measured X-rays, as well as the inclusion of a priori knowledge about the materials that the object receiving the X-ray examination consists of. For each voxel, the proposed method outputs a numerical value that represents the probability of existence of a predefined material at the position of the voxel while doing X-ray. Such a probabilistic quality measure was lacking so far. In our experiment, false reconstructed areas get detected by their low probability. In exact reconstructed areas, a high probability predominates. Receiver Operating Characteristics not only confirm the reliability of our quality measure but also demonstrate that existing methods are less suitable for evaluating a reconstruction.
In der vorliegenden Arbeit wurde für die Erhebung von rheologischen Parametern ein großmaßstäbliches Rohrviskosimeter verwendet. Originalproben aus fünf Biogasfermentern und Nachgärern wurden mit variiertem Volumenstrom durch verschieden dimensionierte Messrohrstrecken im Kreis gefördert. Über definierte Längen der Messrohrstrecken konnte der Differenzdruck bei laminarem Strömungsverhalten aufgenommen werden. Aus den geometrischen Größen sowie den Wertepaaren Volumenstrom und Differenzdruck ließen sich nach einer Korrektur der Schergeschwindigkeit die Parameter für die Abbildung der absoluten Fließ- und Viskositätseigenschaften nach dem Potenzansatz approximieren.
Fahrradfahren ist für viele Menschen ein wichtiger Mobilitätsfaktor. Sie können sich mit eigener Kraft in einem Umkreis von mehreren Kilometern bewegen. Im Alter wird das Fahrradfahren jedoch durch nachlassende Kraft und eingeschränkte Motorik zum Gleichgewichthalten eingeschränkt. Erschwerend kommt hinzu, dass diese Personen aus Vorsicht in der Regel kleinere Fahrgeschwindigkeiten bevorzugen. Bei niedrigen Geschwindigkeiten nimmt aber die Gleichgewichtsstabilität des Fahrrads ab und der Fahrer muss intensiver mit dem Lenker das Gleichgewicht kontrollieren. Moderne E-Bikes können die nachlassende körperliche Kraft kompensieren. Es bleibt aber das Problem des Gleichgewichthaltens beim Radfahren. Im folgenden Beitrag wird die Gleichgewichtsregelung von Fahrädern betrachtet. Dabei werden verschiedene Möglichkeiten der Gleichgewichtsregelung behandelt. Die Beurteilung der Verfahren erfolgt anhand der Stabilität und der Eigenschwingungen des geregelten Systems. Besonderes Augenmerk wird dabei auf die Stabilisierung des Bereichs geringer Fahrgeschwindigkeiten gelegt, da mit der nachlassenden Motorik oft auch eher geringere Fahrgeschwindigkeiten gewählt werden.
The speed control system for a concept for cost effective drives with high precision is presented. The drive concept consists of two parallel working drives. The concept is an alternative to direct drives. One big advantage is the use of standard gear boxes with economical components. This paper deals with the control of the drive system consisting of two parts: one drive produces the power for the machine, another drive makes the motion precice and dynamic. Both drives are combined to one double drive by a control system. The drive system is usefull for printing machines and other machines with high power consumption at a nearly constant speed and high accuracy requirements. The calculation for a drive system with 37 kW shows, that the control drive has to supply only about 20 % of the total torque and power needed to compensate the errors of the power drive. The stability of the system is shown by a simulation of the double drive.
The speed control system for a concept for cost effective drives with high precision is presented. The drive concept consists of two parallel working drives. The concept is an alternative to direct drives. One big advantage is the use of standard gear boxes with economical components. This paper deals with the control of the drive system consisting of two parts: one drive produces the power for the machine, another drive makes the motion precice and dynamic. Both drives are combined to one double drive by a control system. The drive system is usefull for printing machines and other machines with high power consumption at a nearly constant speed and high accuracy requirements. The calculation for a drive system with 37 kW shows, that the control drive has to supply only about 20 % of the total torque and power needed to compensate the errors of the power drive. The stability of the system is shown by a simulation of the double drive.
Nur wenn eine klebgerecht ausgeführte Konstruktion mit dem richtigen Klebstoff nach optimaler Oberflächenbehandlung und mit angepssten Abbindebedingungen gefertigt wird, sind Klebverbindungen von maximaler Festigkeit und Alterungsbeständigkeit zu erzielen. Am Beispiel von Bremsbelägen wird gezeigt, dass bei einer entsprechenden Erprobung auch sogenannte Sicherheitsteile durch Kleben hergestellt werden könne.
Drucktrennen ist ein Verfahren zum spanlosen Trennen zylindrischer oder prismatischer Bauteile durch in einem Teilbereich der Mantelfläche auf das Werkstück wirkenden Fluidhochdruck. In der vorliegenden Arbeit werden die Wirkzusammenhänge zwischen der Bearbeitung sprödharter zylindrischer Werkstücke und den resultierenden Oberflächen- und Randzoneneigenschaften theoretisch analysiert und die Ergebnisse mit denen experimenteller Untersuchungen verglichen. Der Fluidhochdruck bewirkt einen hauptsächlich von der Werkstückgeometrie und dem Aufbau der für die Versuchsdurchführung entwickelten Trennkammer abhängigen Spannungszustand des Werkstücks. Gleichzeitig dringt das Trennmedium in Oberflächenanrisse ein und ruft dort lokale Zugspannungen im Bereich der Rißspitze hervor. Erreicht der Fluiddruck einen vom Spannungszustand und der Rißlänge abhängigen kritischen Wert, so wird die Bruchzähigkeit des Werkstoffs überschritten und ein Sprödbruch des Werkstücks ausgelöst. Durch gezielt eingebrachte Kerben kann der Ort der Trennung exakt vorgegeben werden. Die Werkstücktrennung erfolgt senkrecht zur Richtung der größten Hauptspannung, welche stets ungefähr parallel zur Werkstückmittelachse orientiert ist. Um eine völlig ebene Bruchfläche zu erreichen, muß eine Ankerbung in Kammermitte erfolgen und das Werkstück absolut symmetrisch zur Trennfläche ausgerichtet sein. Der vom nachdrängenden Fluid vorangetriebene Bruch wird durch Druckspannungen in bestimmten Bereichen des belasteten Bauteils gehemmt. Die Bruchgeschwindigkeit ist demzufolge in der Regel so niedrig, daß für amorphe und einkristalline Werkstoffe keine Bruchverzweigung erfolgt. Dadurch ist beispielsweise für optisches Glas und einkristallines Silizium die Herstellung spiegelglatter Oberflächen möglich. Die Trennflächen vielkristalliner Werkstoffe weisen dagegen eine geringe Oberflächengüte auf, da der Energieüberschuß im Bereich der Rißspitze nicht ausreicht, um einen transkristallinen Sprödbruch voranzutreiben, sondern stets erhebliche interkristalline Bruchanteile vorliegen.
Da mit wachsender Verwendung von Kunststoffen für konstruktive Anwendungen deren Klebbarkeit immer größere Bedeutung erhält und Vorbehandlungen mit umweltbelastenden Verfahren nur mit Vorbehalt eigesetzt werden können, dürften umweltfreundliche Verbehandlungen, wie die Vorbehandlung im Niederdruckplasma, im Folgenden kurz NDP-Vorbehandlung genannt, eine steigende Bedeutung erlangen. Die Umweltfreundlichkeit des Verfahrens ist darin begründet, dass keine verbrauchten Beizbäder anfallen, die mit hohem Aufwand beseitigt werden müssen, und dass der Prozess in einem geschlossenem System abläuft und somit ein unkontrolliertes Entweichen von Schadstoffen nicht möglich ist. Bei der Ndp-Behandlung gegebenenfalls entstehende Schadstoffe fallen nur in sehr geringem Umfang an und können leicht abgefangen und nachbehandelt werden. Da die verwendeten Gase nicht giftig sind, geht von ihnen keine Gefährdung aus.
Einige Kunststoffe wie die Massenkunststoffe Polypropylen (PP) und Polyethylen (PE) aber auch Polyoximethylen (POM) und Polytetrafluorethylen (PTFE) weisen eine schlechte Klebeignung auf. Werden diese Werkstoffe ohne Vorbehandlung geklebt, so können nur geringe Klebfestigkeiten erzielt werden. Aber auch bei der Herstellung von Bauteilen aus gut klebbaren Kunststoffen, wie z.B. ABS, kann eine Oberfläche entstehen, die die Klebbarkeit beeinträchtigt. Dies kann beispielsweise durch anhaftende Formtrennmittel geschehen. Auch in diesen Fällen wird beim Kleben ohne Vorbehandlung nicht die maximal mögliche Klebfestigkeit erreicht. In den aufgeführten Fällen kann jedoch durch eine geeignete Klebflächenbehandlung, in Verbindung mit einem entsprechenden Klebstoff, die Festigkeit so gesteigert werden, dass bei einer Prüfung die Verbindung im Kunststoffteil versagt.
Obwohl die Klebtechnik eines der ältesten Fügeverfahren der Welt ist, sind die Kenntnisse über diese Technik häufig noch sehr gering. Dies zeigt sich an vielen Stellen, beim Verkaufsgespräch von Klebstoffen, aber auch in Beiträgen zu klebtechnischen Seminaren. Es werden manchmal "Merk"würdige Ansichten über das Kleben geäußert.
Klebemöglichkeiten von PTFE
(1990)
Die hohe Beständigkeit und die antiadhäsiven Eigenschaften von Polytetrafluorethylen (PTFE) erschweren das Kleben dieses Kunststoffes beträchtlich. Da PTFE praktisch unlöslich ist, können Diffusionsklebverbindungen nicht hergestellt werden und Adhäsionsklebverbindungen haben nur eine geringe Festigkeit. Es ist jedoch durch entsprechende Behandlungen möglich, die Oberfläche so zu verändern, dass hochfeste Adhäsionsklebverbindungen möglich sind.
Kleben im Kraftfahrzeugbau
(1987)
Viele Kunststoffe besitzen nur schlechte Adhäsionseigenschaften. So lassen sich viele technisch wichtige Kunststoffe adhäsiv nur dann zufriedenstellend mit Adhäsionsklebstoffen kleben, wenn die Kunststoffteile vorbehandelt worden sind. Versuche mit einer Niederdruckplasmabehandlung führten zu brauchbaren Ergebnissen.
Die Prüfung von Klebverbindungen erfolgt häufig im Zugscherversuch. Bei der Anwendung dieser Prüfmethode bei Polymer-Metall-Klebverbindungen tritt oft ein Bruch im Polymerteil auf. Dadurch wird die Aussagefähigkeit des Zugscherversuchs stark eingeschränkt. Das gilt vor allem für die Optimierung der Oberflächenvorbehandlung von Polymerteilen. Der vorliegende Beitrag untersucht die Beanspruchungsparameter von Polymer-Metall-klebverbindungen im Zugscherversuch und leitet daraus Forderungen an geeignete Prüfanordnungen ab.
Der Zugscherversuch ist die am häufigsten angewandte Prüftechnik für Klebverbindungen. Die dabei ermittelte Klebfestigkeit ist jedoch eine wenig aussagefähige Größe. In keinem Fall kann sie als Werkstoffkennwert den Klebstoff charakterisieren. Als Ausgangsgröße für Berechnungen bei der Dimensionierung von Klebverbindungen ist das Ergebnis des Zugscherversuchs deshalb nicht geeignet.
Das Versagen von Klebungen kann durch ungenügende Adhäsion, Alterungsprozesse oder mechanische Spannungen erfolgen. In der SMD-Technologie werden Werkstoffe geklebt, die verschiedene Ausdehnungskoeffizienten besitzen. Bei SMD-Klebverbindungen gewährleistet die nachfolgende Lötung deren Langzeitfestigkeit. Wurde für eine gute Adhäsion reichlich Vorsorge getroffen und die Klebung versagt trotzdem, stellt sich die Frage: Spielen mechanische Eigenschaften für den Einsatz von SMD-Klebstoffen eine Rolle?
Am 12. und 13. Juni 1986 fand in Konstanz das Symposium Haftung von Verbundwerkstoffen und Werkstoffverbunden statt. Die Veranstaltung wird in vierjährigem Turnus von der Deutschen Gesellschaft für Metallkunde (DGM) in Zusammenarbeit mit dem Fraunhofer-Institut für angewandte Materialforschung (IFAM) in Bremen ausgerichtet. Als interdisziplinäres Thema stand die Haftung zwischen unterschiedlichen Stoffen auf dem Programm. In 18 Referaten sind Erkenntnisse und Probleme aus unterschiedlichen Arbeitsbereichen vorgetragen worden. Insgesamt nahmen etwas 100 Fachleute aus dem In- und Ausland teil.
Klebverbindungen werden häufig dem Zugscherversuch nach DIN 53 238, dem wohl wichtigsten Versuch der Klebtechnik, unterzogen. Die Belastung jedoch entspricht nicht den in der Praxis verkommenden Bedingungen. Es stellt sich die Frage, ob die im Zugscherversuch ermittelten Kenndaten zur Dimensionierung von Klebverbindungen überhaupt geeignet sind.
In vielen Fällen muss vor dem Kleben eine Klebflächenbehandlung durchgeführt werden, da Klebverbindungen mit unvorbehandelten Teilen häufig zu geringe Klebfestigkeiten und/oder eine unzureichende Alterungsbeständigkeit aufweisen. Zur Klebflächenbehandlung stehen unterschiedliche Verfahren zur Verfügung. Wenn mit mehreren Behandlungen klebtechnisch einwandfreie Verbindungen hergestellt werden können, gilt es, das Verfahren zu ermitteln, welches am besten in den Fertigungsfluss integriert werden kann und die geringsten Kosten verursacht. Dabei muss auch die Arbeitssicherheit und der Umweltschutz mit beachtet werden. Zur Beurteilung der Verfahren werden Bewertungskriterien gegeben. Die Verfahren werden abschließend kurz charakterisiert.
Die in den Betrieben häufig mit hohem gerätetechnischen und organisatorischem Aufwand installierten EDV-gestützten Informationssysteme zur Planung und Steuerung des Fertigungsprozesses genügen im allgemeinen nicht den an sie gestellten Anforderungen. Die Gründe dafür liegen in der Hauptsache in einem falschen Modellansatz und der mangelnden Datenqualität der eingesetzten Daten, verbunden mit einer unzureichenden Rückkopplung zwischen Vorgabe und Rückmeldung. Hinzu kommen das Fehlen geeigneter Aussagen (Kenngrößen) zur gezielten Beeinflussung des Prozesses und Akzeptanzprobleme der Mitarbeiter beim Umgang mit der EDV. Die genannten Schwachstellen geben die Richtung der Zielsetzung dieser Arbeit vor. Dieses Ziel bestand zunächst darin, eine Methode zu entwickeln, mit der die Anforderungen an die in einem Industriebetrieb zur Planung, Steuerung und Überwachung verwendeten Daten zu formulieren sind, um dann eine anforderungsgerechte Abstimmung dieser Daten im betrieblichen Datenfluß im Sinne eines kybernetischen Regelkreises vorzunehmen und Aussagen über die betrieblichen Zielgrößen zu erhalten. Aus der Vielzahl betrieblicher Vorgänge und Funktionsbereiche wurde der Fertigungsprozeß bei der Werkstättenfertigung im Produktionsbetrieb deshalb ausgewählt, weil hier in der Praxis wegen der Komplexität der Abläufe die höchsten Anforderungen an die Daten gestellt werden und deshalb auch die meisten Probleme bei der Erfüllung dieser Anforderungen auftreten. Außerdem ist die Fertigung nach dem Werkstättenprinzip am häufigsten in der Praxis anzutreffen. Als erstes war es nötig, die zeitlichen, quantitativen und qualitativen Anforderungen an die Daten aus einer Vielzahl durchgeführter Schwachstellenanalysen herauszuarbeiten und zu definieren. Die nächste Aufgabe bestand darin, die Einflußgrößen auf die Datenanforderungen, hier unterteilt in innere (datumsbezogene) und äußere (prozeßbezogene) zu bestimmen und in ihren Auswirkungen zu untersuchen. Die Betrachtung der Einflußgrößen ergab, daß die Aufgabe und die Verwendung des Datums im Prozeß für die Ermittlung der Anforderungen exakt bestimmt werden müssen. Aus diesem Grund war der Prozeß primär- und sekundärseitig in Abhängigkeit der Aufgabenstellung ausführlich zu beschreiben. Die Einflüsse der Aufbauorganisation waren ebenso wie die der Ablauforganisation zu berücksichtigen, darunter fielen auch die Auswirkungen der Automatisierungsansätze, z.B. durch den Einsatz flexibler Fertigungssysteme im Primärprozeß. Der Ansatz, von dem hier ausgegangen wurde, baut sich deshalb im ersten Schritt der vorgeschlagenen Vorgehensweise auf dem Modell eines Produktionssystems auf, das aus den Erkenntnissen von in mehreren Firmen durchgeführten Prozeßanalysen entwickelt wurde. In diesem Modell ist der Datenfluß und organisatorische Ablauf im Fertigungsprozeß in Matrixform festgehalten. Für jedes einzelne Prozeßdatum sind in der Matrix, bezogen auf die Aufgabenstellung, detailliert die Verwendungs- und Verflechtungsbeziehungen aufgezeichnet. Im zweiten Schritt erfolgt auf der Grundlage dieses Modells eine bedarfsgerechte Prozeßdatenauswahl. Die zeitliche Struktur des Datenflusses im Prozeß wird in Schritt drei mit Hilfe eines Ereignis-Zeitgraphens dargestellt. Die eigentliche zeitliche, quantitative und qualitative Anforderungsermittlung findet im vierten und gleichzeitig letzten Schritt anhand einer dafür entworfenen Datenanforderungsliste statt. Die Ergebnisse dieser anforderungsgerechten Datenanalyse nach der hier entwikkelten Systematik können in vielerlei Hinsicht Verwendung finden. Im Hinblick auf die eingangs genannten Problemstellungen sind beispielsweise folgende Einsatzmöglichkeiten denkbar und an Beispielen im einzelnen erläutert. - Verbesserung der Datenqualität - Rückkopplung im Sinne des kybernetischen Regelkreismodells - Bilden von Prozeßkenngrößen - Transparenz der EDV-Prozeßabläufe
Für das digitale Flugführungssystem des Versuchsflugzeugs HFB 320 wurde am Institut für Flugführung der DFVLR in Braunschweig eine Betriebsart zum automatischen zeitgenauen Fliegen im Flughafen-Nahbereich entwickelt und im Flugversuch erprobt. Der Bericht enthält die Beschreibung der eingesetzten Algorithmen zur Berechnung 4-dimensionaler Flugbahnen unter Berücksichtigung der momentanen Windsituation. Es werden verschiedene Verfahren zur Messung, Filterung und Vorhersage des Windvektors entwickelt und an Hand von Flugversuchsergebnissen diskutiert.
Für eine Dimensionierung flexibler Klebverbindungen sind mehr und andere Kenndaten als die im Kurzeitversuch ermittelte Klebfestigkeiten notwendig. Das wirkt abschreckend, da ein beträchtlicher Aufwand notwendig ist. Jedoch zeigt ein Blick auf andere Bereiche, zum Beispiel auf Berechnungsverfahren für Bauteilen aus Stahl, daß auch hier nicht mehr mit Ergebnissen des Zugversuches dimensioniert wird. Nur dank aufwendigerer Verfahren, beispielweise der Benutzung von Smith-Diagrammen, ist hier das exakte Dimensionieren möglich.