Refine
Year of publication
Document Type
- Article (31)
- Conference Proceeding (17)
- Report (13)
- Book (7)
- Course Material (6)
- Working Paper (5)
- Bachelor Thesis (4)
- Doctoral Thesis (3)
- Part of a Book (1)
Has Fulltext
- yes (87)
Is part of the Bibliography
- no (87)
Keywords
- Computersicherheit (10)
- Herbarium (9)
- Angewandte Botanik (8)
- Digitalisierung (8)
- Erkennungssoftware (8)
- Gepresste Pflanzen (8)
- Herbar Digital (8)
- IT-Sicherheit (8)
- Recognition software (8)
- Virtualisierung (8)
Institute
- Fakultät I - Elektro- und Informationstechnik (87) (remove)
Auch kleine und mittlere Unternehmen müssen aktive Öffentlichkeitsarbeit betreiben. Nur wenige können einen Profi einstellen, der diese Funktion übernimmt. Also muss jemand im Betrieb einspringen, Pläne entwickeln, die Pressemitteilungen schreiben und vergleichbare Aufgaben wahrnehmen. Dazu geben die Autoren praktische Hilfe mit vielen Checklisten. Sie zeigen Wege für den erfolgreichen Auftritt in der Öffentlichkeit und vor der Presse, führen in die aktuellen Themen der Öffentlichkeitsarbeit ein (Konzepte, Pressearbeit, interne Information, Krisen sowie Konflikte) und verzichten dabei auf allen Ballast, der in der Praxis des Klein- und Mittelbetriebs nicht interessiert.
Viele erwachsene Deutsche sind keine guten und geübten Leser. Sachtexte führen deswegen zu Unklarheiten, Fehlentscheidungen und Nachfragen. Diese Konzequenz stellt sich auch bei geübten aber fachfremden Lesern ein. Nur eine sprachliche Anpassung an Leser kann das ändern. Der Aufsatz vergleicht dazu zwei Ansätze, Einfache Sprache und Leichte Sprache. Der Autor vertritt die Auffassung, dass nur eine einfache Sprache als Lösung des genannten Dilemmas taugt. Leichte Sprache ist gegenwärtig das einzige Instrument, um Menschen mit neuronalen Schädigungen einen Inhalt zu übermitteln. Doch auch dafür nutzt sie nur eingeschränkt. Die Wissenschaft wird an diesen Themen arbeiten müssen. Sie steht erst am Anfang.
Einfluss des Akkus auf den Servicegrad von automatischen stationsbasierten Pedelec-Vermietsystemen
(2019)
Pedelecs sind in den letzten Jahren zu einem wichtigen Baustein der deutschen Elektromobilitätswende geworden. Durch den Einsatz von Pedelecs in automatischen stationsbasierten Vermietsystemen im urbanen Raum ist eine Verkehrsalternative gegeben, die den Autoverkehr in Städten entlasten kann. Die Kundenzufriedenheit solcher Vermietsysteme wird über den Servicegrad bewertet und bildet das Verhältnis von zufriedenen Kunden zur Anzahl potentieller Kunden ab. Der Servicegrad kann dabei von verschiedenen exogenen und endogenen Faktoren beeinflusst werden. Die Untersuchung beschäftigt sich mit der Frage, ob es sich bei dem Akku um einen weiteren Einflussfaktor handelt. Um die Auswirkungen auf den Servicegrad durch den Akku zu analysieren, werden zunächst mögliche Betriebs- und Ladekonzepte von Pedelec-Vermietsystemen dargestellt. Darauf aufbauend wird ein automatisches stationsbasiertes Pedelec-Vermietsystem definiert, welches in der nachfolgenden Untersuchung betrachtet wird. In diesem Zusammenhang wird der Servicegrad speziell für Pedelec-Vermietsysteme definiert und für die Untersuchung relevante Einflussfaktoren identifiziert. Über eine Modellentwicklung werden Rahmenbedingungen des betrachteten Vermietsystems festgelegt und die Beziehungen der identifizierten Einflussfaktoren untereinander visuell und anhand von Formeln dargestellt. Anschließend wird das Modell in eine Simulationsumgebung überführt, um den Servicegrad in verschiedenen Szenarien zu bewerten. Modellrelevante Eingangsgrößen werden hierbei auf Basis von vorhandenen Daten aus bestehenden Vermietsystemen und analysierten Fahrdaten quantifiziert und in das Modell integriert. Das Ladeverhalten bei verschiedenen Ladeströmen des in der Untersuchung betrachteten Akkus wird experimentell bestimmt und über den Verlauf des State of Charge ebenfalls modelliert. Hierdurch wird der Einfluss einer Schnelllademöglichkeit auf den Servicegrad analysiert. Die Ergebnisse der Untersuchung zeigen, dass der Akku des Pedelecs einen weiteren Faktor darstellt, der zusätzlich für unzufriedene Kunden verantwortlich sein und den Servicegrad von automatischen stationsbasierten Pedelec-Vermietsystemen reduzieren kann. Insbesondere bei hochfrequentierten Stationen wird der Servicegrad durch den Einfluss des Akkus reduziert. Die Auswirkungen können durch die Erhöhung des Energieinhaltes des Akkus, die Anpassung des minimal notwendigen State of Charge sowie die Steigerung des Ladestroms minimiert werden. Das Verbesserungspotential dieser Maßnahmen steigt mit Zunahme der Mietdauer und der durchschnittlichen Akkuleistung. Langfristig betrachtet ist insbesondere für hochfrequentierte Stationen die Anschaffung von zusätzlichen Pedelecs einer Erhöhung des Ladestroms vorzuziehen, da die Steigerung des Servicegrades durch diese Maßnahme höher ausfällt.
Quartz-crystal microbalances (QCMs) are commercially available mass sensors which mainly consist of a quartz resonator that oscillates at a characteristic frequency, which shifts when mass changes due to surface binding of molecules. In addition to mass changes, the viscosity of gases or liquids in contact with the sensor also shifts the resonance but also influences the quality factor (Q-factor). Typical biosensor applications demand operation in liquid environments leading to viscous damping strongly lowering Q-factors. For obtaining reliable measurements in liquid environments, excellent resonator control and signal processing are essential but standard resonator circuits like the Pierce and Colpitts oscillator fail to establish stable resonances. Here we present a lowcost, compact and robust oscillator circuit comprising of state-of-the-art commercially available surface-mount technology components which stimulates the QCMs oscillation, while it also establishes a control loop regulating the applied voltage. Thereby an increased energy dissipation by strong viscous damping in liquid solutions can be compensated and oscillations are stabilized. The presented circuit is suitable to be used in compact biosensor systems using custom-made miniaturized QCMs in microfluidic environments. As a proof of concept we used this circuit in combination with a customized microfabricated QCM in a microfluidic environment to measure the concentration of C-reactive protein (CRP) in buffer (PBS) down to concentrations as low as 5 μgmL -1.
Grundlage dieses Buches sind Vorträge und Veröffentlichungen, die in einem Zeitraum von etwa 10 Jahren entstanden. In dieser Zeit setzte sich die Digitalfotografie endgültig durch und die filmbasierte Fototechnik wurde zum Nischenprodukt.
Dieses Buch ist keine „Fotoschule“ und die Kenntnis der beschriebenen Zusammenhänge ist für die Bedienung digitaler Kameras nicht erforderlich. Die Zielgruppe sind Fotografen, welche die technischen Grundlagen verstehen möchten. Der Text entstand im Sinne einer populär-wissenschaftlichen Darstellung. Ziel ist die Erkenntnis: „Ach so geht das“.
Inhalt:
• Die Sache mit der Auflösung
• Scanner
• Digitalkameras
• Die Digitalisierung
• Grundbegriffe des Farbmanagements
• Speichern und Archivieren von Bilddaten
• Der Tinten(strahl)druck
• Glossar
Es wird der Fall des reinen Internverkehrs zwischen endlich vielen Teilnehmern bei voller Erreichbarkeit der Verbindungswege an einem einfachen Modell behandelt. Die Verkehrsgrößen werden berechnet. Der Verlust wird nach seinen verschiedenen möglichen Entstehungsursachen spezifiziert. Die entsprechenden Verlustwahrscheinlichkeiten werden exakt berechnet. Für die numerische Berechnung werden Rekursionsformeln abgeleitet. Unter den genannten Voraussetzungen sind die angegebenen Beziehungen auch für kleinste Teilnehmeranzahlen gültig. Ein aktueller Anwendungsfall liegt bei der Bemessung der Sprechkreisanzahl in einem Nachrichtensystem mit dezentraler Vermittlungstechnik und Vielfachzugriff zu den vorhandenen Sprechkreisen vor.
Das Forschungsprojekt „Herbar Digital” [JKS00] startete 2007 mit dem Ziel der Digitalisierung des Bestands von mehr als 3,5 Millionen getrockneter Pflanzen bzw. Pflanzenteile auf Papierbögen (Herbarbelege) des Botanischen Museums Berlin. Da gelegentlich der Sammler der Pflanze unbekannt ist, wurde in der vorliegenden Arbeit ein Verfahren entwickelt, um aus kursiv geschriebenen Buchstaben deren Schreiber zu bestimmen. Dazu muss der statische Buchstabe in eine dynamische Form gebracht werden. Dies geschieht mit dem Modell einer trägen Kugel, die durch den Schriftzug rollt. Bei dieser Offline-Schreibererkennung werden verschiedene Verfahren wie die Nachbildung der Schreiblinie einzelner Buchstaben durch z.B. Legendre-Polynome verwendet. Bei Verwendung nur eines Buchstabens der Schreiber wird eine Erkennungsrate von durchschnittlich 40% erreicht. Durch Kombination von mehreren Buchstaben steigt die Erkennungsrate stark an und beträgt bei 13 Buchstaben und 93 Schreibern einer internationalen Datenbank 98,6%.
An important part of computed tomography is the calculation of a three-dimensional reconstruction of an object from series of X-ray images. Unfortunately, some applications do not provide sufficient X-ray images. Then, the reconstructed objects no longer truly represent the original. Inside of the volumes, the accuracy seems to vary unpredictably. In this paper, we introduce a novel method to evaluate any reconstruction, voxel by voxel. The evaluation is based on a sophisticated probabilistic handling of the measured X-rays, as well as the inclusion of a priori knowledge about the materials that the object receiving the X-ray examination consists of. For each voxel, the proposed method outputs a numerical value that represents the probability of existence of a predefined material at the position of the voxel while doing X-ray. Such a probabilistic quality measure was lacking so far. In our experiment, false reconstructed areas get detected by their low probability. In exact reconstructed areas, a high probability predominates. Receiver Operating Characteristics not only confirm the reliability of our quality measure but also demonstrate that existing methods are less suitable for evaluating a reconstruction.
The methods developed in the research project "Herbar Digital" are to help plant taxonomists to master the great amount of material of about 3.5 million dried plants on paper sheets belonging to the Botanic Museum Berlin in Germany. Frequently the collector of the plant is unknown. So a procedure had to be developed in order to determine the writer of the handwriting on the sheet. In the present work the static character is transformed into a dynamic form. This is done with the model of an inert ball which is rolled through the written character. During this off-line writer recognition, different mathematical procedures are used such as the reproduction of the write line of individual characters by Legendre polynomials. When only one character is used, a recognition rate of about 40% is obtained. By combining multiple characters, the recognition rate rises considerably and reaches 98.7% with 13 characters and 93 writers (chosen randomly from the international IAM-database [3]). Another approach tries to identify the writer by handwritten words. The word is cut out and transformed into a 6-dimensional time series and compared e.g. by means of DTW-methods. A global statistical approach using the whole handwritten sentences results in a similar recognition rate of more than 98%. By combining the methods, a recognition rate of 99.5% is achieved.
Dieser Band ist eine Festschrift zum 68. Geburtstag von Klaus Schubert, der seit 30 Jahren – zunächst an der Fachhochschule Flensburg, dann an der Universität Hildesheim – als Professor im Bereich der Fachkommunikationswissenschaft starke Impulse gesetzt und das Fach nachhaltig geprägt hat. Nicht nur durch sein Modell der vier Dimensionen der Fachkommunikation, sondern auch durch umfassende Publikationstätigkeit, unerschöpfliche Einsatzbereitschaft in der Lehre und herausragendes Engagement für die Förderung des wissenschaftlichen Nachwuchses hat Klaus Schubert die eigenständige Disziplin der Fachkommunikationswissenschaft begründet, bekannt gemacht und fortentwickelt. Seine Studierenden, Promovierenden und Fachkolleginnen und -kollegen sind dadurch nachhaltig geprägt worden.
„Fachkommunikationswissenschaft gestern, heute, morgen“ versammelt Beiträge von Klaus Schuberts ehemaligen und aktuellen Doktorandinnen und Doktoranden, Mitarbeiterinnen und Mitarbeitern und Weggefährtinnen und Weggefährten, in denen die große Diversität der Fachkommunikationswissenschaft zum Ausdruck kommt.
Dieser Beitrag adressiert einleitend die aktuelle Bedrohungslage aus Sicht der Industrie mit einem Fokus auf das Feld und die Feldgeräte. Zentral wird dann die Frage behandelt, welchen Beitrag Feldgeräte im Kontext von hoch vernetzten Produktionsanlagen für die künftige IT-Sicherheit leisten können und müssen. Unter anderem werden auf Basis der bestehenden Standards wie IEC 62443-4-1, IEC 62443-4-2 oder der VDI 2182-1 und VDI 2182-4 ausgewählte Methoden und Maßnahmen am Beispiel eines Durchflussmessgerätes vorgestellt, die zur künftigen Absicherung von Feldgeräten notwendig sind.
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation.
Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche.
In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen.
Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Toward a service-based workflow for automated information extraction from herbarium specimens
(2018)
Over the past years, herbarium collections worldwide have started to digitize millions of specimens on an industrial scale. Although the imaging costs are steadily falling, capturing the accompanying label information is still predominantly done manually and develops into the principal cost factor. In order to streamline the process of capturing herbarium specimen metadata, we specified a formal extensible workflow integrating a wide range of automated specimen image analysis services. We implemented the workflow on the basis of OpenRefine together with a plugin for handling service calls and responses. The evolving system presently covers the generation of optical character recognition (OCR) from specimen images, the identification of regions of interest in images and the extraction of meaningful information items from OCR. These implementations were developed as part of the Deutsche Forschungsgemeinschaft funded a standardised and optimised process for data acquisition from digital images of herbarium specimens (StanDAP-Herb) Project.
Mehrzweckschutzrelais für Mittelspannungsnetze unter Berücksichtigung von Stationsleitsystemen
(1990)
Ein universell verwendbares Mehrzweckschutzrelais (MZR)wird vorgestellt, dessen Schutzfunktionen ausschließlich durch Software bestimmt sind. Mit dem MZR wird nachgewiesen, daß die vorhandene Typenvielfalt von Schutzrelais für Mittelspannungsnetze auf einen Grundtypus reduziert werden kann. Das MZR kann in Stationsleitsysteme eingebunden werden. Die Schutzfunktionen des MZR sind Überstromschutz (MZR-I), Distanzschutz (MZR-Z) und Differentialschutz (MZR-D). Ergänzend werden ausgeführt thermisches Abbild, Erdschlußerkennung, Erdschlußrichtungsbestimmung, Kurzunterbrechung und Betriebsmeßtechnik. Für jede Schutzfunktion wurde ein spezielles Programmsegment erstellt. Je nach Komplexität der Schutzaufgabe übernimmt ein Signalprozessor bestimmte Aufgaben im MZR, wie z.B. digitale Filterung der Meßsignale, Impedanzbestimmung, Diskrete Fouriertransformation, Bestimmung des Mitsystems nach dem Verfahren der symmetrischen Komponenten. Die von der Schutzfunktion unabhängigen Programmbestandteile sind zu einem echtzeitfähigen Multitask-Betriebssystem zusammengefaßt. Ein kostengünstiges MZR-Modul zur Speicherung von Störungsereignissen wird als Erweiterung gegenüber konventionellen Schutzrelais vorgestellt. Hiermit können vom MZR erkannte Störungen achtkanalig erfaßt und mit Echtzeitmarken versehen auf Disketten im standardisierten AufZeichnungsformat gespeichert werden. Ein neues Verfahren zur Simulation des Meßverhaltens der erstellten MZR-Varianten mit dem Programm "EMTP" auf einem Personalcomputer der AT—Klasse wurde entwickelt.
Zur Verbesserung der IT-Sicherheit im klassischen Büroumfeld wird bereits eine neue Firewall-Technologie, die sogenannte Next Generation Firewall verwendet. Um diese Technologie im Produktionsbereich einzusetzen, muss sie vorher getestet werden, da sich die Priorisierung der Schutzziele im Produktionsbereich und im Büroumfeld unterscheidet. In dieser Arbeit werden das Einsatzgebiet und die Wirkungsweise von Firewalls in industriellen Automatisierungssystemen im Allgemeinen und spezifisch für Next Generation Firewalls untersucht. Die Untersuchung geht auf die Aufgaben der einzelnen Firewalls in einem Produktionsunternehmen ein und prüft, welche Firewall durch eine Next Generation Firewall ergänzt werden kann. Dazu werden die konventionellen Firewall-Technologien mit der neuen Firewall-Technologie verglichen und bewertet. Der Nutzen der Next Generation Firewall in der Produktionsumgebung wird am Beispiel eines ausgewählten Angriffsszenarios erklärt. Abschließend werden Empfehlungen für dessen Einsatz in industriellen Automatisierungssystemen gegeben.
Die technische Betreuung von Produktionsanlagen durch den Anlagenhersteller oder einen Dienstleister ist in der Industrie häufig anzutreffen. Die Durchführung solcher Wartungsarbeiten erfolgt zum Großteil vor Ort an der jeweiligen Anlage. Mit der Fernwartung gibt es jedoch die Möglichkeit, die jeweiligen Arbeiten aus der Ferne durchzuführen. Unternehmen stellen sich bei der Einrichtung einer Fernwartungslösung die Frage, wie ein solches System zu planen ist. Der vorliegende Artikel beleuchtet daher, welche Anforderungen an Fernwartungssysteme zu stellen sind, welche Fernwartungskonzepte es gibt, was allgemein bei dem Einsatz eines Fernwartungssystems insbesondere aus Sicht der OT-Security zu beachten ist und wie die NOA Verification of Request bei der Fernwartung einzusetzen ist.
Dieses Dokument befasst sich mit der IT-Sicherheit von Produktionsanlagen. Es richtet sich an kleine und mittlere Unternehmen, welche auf der Suche nach einem einfachen Vorgehensmodell für die Sicherstellung der IT-Sicherheit im Produktionsbereich sind.
Um Leser für die Notwendigkeit der IT-Sicherheit von Produktionsanlagen zu sensibilisieren, werden in Kapitel 2 Sicherheitsvorfälle dargestellt. Es zeigt sich, dass Cyber-Angriffe auf Produktionsanlagen heute kein Zufall mehr sind, sondern auf einem gezielten Vorgehen beruhen.
Danach folgt in Kapitel 3 ein Überblick über die wichtigsten Normen und Empfehlungen zum Themenfeld „IT-Sicherheit in der Produktion“.
Kapitel 4 entwickelt an Hand eines Zehn-Punkte-Plans ein Konzept für den Aufbau eines IT-Sicherheitssystems für kleine und mittlere Unternehmen (KMU). Dabei liegt der Schwerpunkt nicht nur auf den technischen, sondern insbesondere auch auf den häufig vernachlässigten organisatorischen Maßnahmen.
Abschließend gibt Kapitel 5 einen Ausblick auf künftige Anforderungen und Lösungen im Kontext von Industrie 4.0
This document concerns IT security in production facilities. It is intended for small and medium-sized enterprises that are looking for a simple procedural model for ensuring IT security in production areas.
In order to raise readers’ awareness of IT security in production facilities, security incidents are presented in section 2. It is clear that cyber attacks on production facilities in this day and age are not random, but are instead based on a targeted process.
An overview of the most important standards and recommendations on the topic of “IT security in production” then follows in section 3.
Section 4 develops a concept for setting up an IT security system for small and medium-sized enterprises (SMEs) on the basis of a ten-point plan. The focus is not only on technical measures, but also in particular on the most frequently neglected organizational measures.
Section 5 then describes the outlook for future requirements and solutions in the context of Industry 4.0.
Die Studie gibt einen Überblick über Energiemanagementfunktionen und deren Integration in Automatisierungssysteme. Sie besteht aus den folgenden Teilen:
1.) Bestandsaufnahme und Marktübersicht von Energiemanagementsystemen, insbesondere von den an der Studie beteiligten Firmen und zwei weitere Produkte als Referenz.
2.) Anwenderinterviews mit Anwendern aus verschiedenen Schlüsselindustrien der Prozess- und Fertigungsautomatisierung zur Evaluierung künftiger Anforderungen und Erwartungen an ein Energiemanagement insbesondere auch im Hinblick auf die Integration in Automatisierungssysteme.
3.) Bedeutung des Energiemanagements in der Zukunft und daraus abzuleitende Maßnahmen.
Das Thema Elektromagnetische Verträglichkeit (EMV) ist noch immer ein wesentlicher Aspekt bei der Planung, bei der Installation und beim Betrieb von Automatisierungssystemen. Kommunikationsnetzwerke wie zum Beispiel PROFIBUS und PROFINET sind als robuste und zuverlässige Übertragungssysteme bekannt. Dennoch ist für deren Funktion die Beachtung einiger grundlegender Prinzipien wichtig, um einen störungsfreien Betrieb über ein langes Anlagenleben zu gewährleisten. Der Beitrag beschreibt zunächst einige Grundlagen der EMV. Basierend auf diesen Grundlagen werden dann sechs Handlungsempfehlungen abgeleitet, die bei der Planung eines Automatisierungssystems für den Einsatz in der Fertigungsindustrie zu beachten sind. Abschließend wird ein Ausblick auf die weiterführenden Arbeiten für Anlagen der Prozessindustrie gegeben.
Organisation der IT-Sicherheit in der Produktion : in zehn Schritten zur sicheren Produktionsanlage
(2018)
Der folgende Beitrag befasst sich mit der IT-Sicherheit von Produktionsanlagen aus Betreibersicht. Hierbei liegt der Fokus auf den organisatorischen Aspekten der IT-Sicherheit. In einer Bestandsaufnahme werden zunächst die Probleme herausgearbeitet, die entstehen, sofern sich eine Organisation im Wesentlichen auf technische Aspekte der IT-Sicherheit konzentriert. Daraus wird die Notwendigkeit organisatorischer Maßnahmen abgeleitet. Eine Betrachtung von Normen und Standards, die sich mit den organisatorischen Aspekten der IT-Sicherheit in der Produktion befassen, liefert das Grundgerüst für die Ableitung eines Maßnahmenplans. Der daraus resultierende 10-Punkte-Plan zur Umsetzung der IT-Sicherheit in der Produktion schließt den Beitrag ab.
The topic of electromagnetic compatibility (EMC) remains an important aspect during the planning, installation and operation of automation systems. Communication networks, such as PROFIBUS and PROFINET, are known to be robust and reliable transmission systems. Nevertheless, it is important that a number of fundamental principles needs to be observed to ensure fault-free operation over a long plant lifetime. This paper first describes a number of principles of EMC. On the basis of these principles, six recommendations for action are then developed which are to be observed during the planning of an automation system for use in the manufacturing industry. Finally, an overview is provided of future work for systems in the process industry.
Die Vision „Industrial Ethernet bis zu den Sensoren und Aktoren“ wurde Realität. Auf der Achema im Juni 2021 wurde Ethernet-APL in den Markt eingeführt. Basis dieser Technologie ist ein 2-Draht-Ethernet (engl. 2-wire-Ethernet), das sowohl Informationen als auch Energie zu den Sensoren und Aktoren des Automatisierungssystems überträgt. Ethernet-APL basiert auf dem Ethernet-Standard IEEE 802.3cg und arbeitet mit einer Datenrate von 10 Mbit/s. Eine zusätzliche Spezifikation, die Ethernet-APL Port Profile Specification, definiert zusätzliche Parameter für den Einsatz in der Prozessindustrie, insbesondere in explosionsgefährdeten Bereichen. In einem nächsten Schritt müssen sich potenzielle Anwender mit dem Engineering-Prozess von Ethernet-APL-Netzwerken vertraut machen. Zu diesem Zweck stellt das Ethernet-APL-Projekt die Ethernet-APL-Engineering-Richtlinie zur Verfügung, welche die wichtigsten Bereiche der Planung, Installation und Abnahmeprüfung abdeckt. Dieser Artikel soll einen Überblick über den Ethernet-APL-Engineering-Prozess geben und die relevanten Planungsschritte aufzeigen.
Deutsche Übersetzung des englischen Beitrags, abrufbar unter https://doi.org/10.25968/opus-2087
Planer und Betreiber von Produktionsanlagen stehen vor der Frage, welche Normen für die IT-Sicherheitskonzepte und ggf. auch für eine Auditierung dieser Anlagen anzuwenden sind. Da die Verantwortlichkeit in Bezug auf die IT-Sicherheit für die Operational Technology (OT) oft in anderen Händen liegt, als die für Information Technology (IT), gibt es hier gelegentlich abweichende Auffassungen darüber welche Normen zu Grunde zu legen sind.
Personen aus dem IT-Umfeld fokussieren in der Regel auf die Normreihe ISO 27001, während Personen aus dem OT-Umfeld eher die Normreihe IEC 62443 favorisieren. Dieser Beitrag beschreibt die Grundlagen und Ausrichtung der beiden Normreihen und gibt Anregungen, in welchem Kontext welche die Normen sinnvoll und ggf. auch kombiniert nutzbar sind.
Das Dokument schließt mit einer Empfehlung für ein Vorgehen im Bereich von Produktionsanlagen für die Fertigungs- und Prozessindustrie (OT-Security). Abschließend wird im Anhang noch am Beispiel einer Abwasserbehandlungsanlage die Anwendbarkeit der Normen diskutiert.
The Ethernet-APL Engineering Process - A brief look at the Ethernet-APL engineering guideline
(2021)
The vision of an “Industrial Ethernet down to the sensors and actors” has become reality. At the Achema fair in June 2021 Ethernet-APL was introduced. This technology is based on a 2-wire Ethernet that conveys information as well as energy to the sensors and actuators of the automation system. Ethernet-APL is based on the 2-wire Ethernet standard IEEE 802.3cg running at 10 Mbit/s. An additional specification, the Ethernet-APL Port Profile Specification, defines additional parameters for the use of the technology in the process industry, especially in areas with potentially explosive atmospheres. As a next step, potential users need to become familiar with the engineering process of Ethernet-APL networks. For this purpose, the Ethernet-APL project provides the Ethernet-APL Engineering Guideline that covers the main areas of planning, installation and acceptance testing.
The impact of vertical and horizontal integration in the context of Industry 4.0 requires new concepts for the security of industrial Ethernet protocols. The defense in depth concept, basing on the combination of several measures, especially separation and segmentation, needs to be complimented by integrated protection measures for industrial real-time protocols. To cover this challenge, existing protocols need to be equipped with additional functionality to ensure the integrity and availability of the network communication, even in environments, where possible attackers can be present. In order to show a possible way to upgrade an existing protocol, this paper describes a security concept for the industrial Ethernet protocol PROFINET.
Die Konvergenz von Netzwerken ist ein zunehmender Trend im Bereich der Automatisierung. Immer mehr Anlagenbetreiber streben eine Vereinheitlichung der Netzwerke in ihren Anlagen an. Dies führt zu einer nahtlosen Netzwerkstruktur, einer vereinfachten Überwachung und einem geringeren Schulungsaufwand für das Personal, da nur eine einheitliche Netzwerktechnologie gehandhabt werden muss. Ethernet-APL ist ein Teil des Puzzles für ein solches konvergentes Netzwerk und unterstützt verschiedene Echtzeitprotokolle wie PROFINET, EtherNet, HART-IP sowie das Middleware-Protokoll OPC UA. Dieses Papier gibt einen Überblick über die Auswirkungen von Ethernet-APL-Feldgeräten auf die OT-Sicherheit und schlägt vor, wie die OT-Sicherheit für diese Geräte gewährleistet werden kann.
Network convergence is an increasing trend in the automation domain. More and more plant owners strive for a unification of networks in their plants. This yields a seamless network structure, simplified supervision, and reduced training effort for the personnel, as only one unified network technology needs to be handled. Ethernet-APL is one piece of the puzzle for such a converged network, supporting various real time protocols like PROFINET, EtherNet, HART-IP as well as the middleware protocol OPC UA. This paper gives an overview on the impact of Ethernet-APL field devices to OT security and proposes how to ensure OT security for them.
This paper reflects the content of the presentation “The Next Generation: Ethernet-APL for Safety Systems” at the NAMUR Annual General Meeting 2022. It deals with the use of the Ethernet Advanced Physical Layer (Ethernet-APL) in combination with the PROFINET/PROFIsafe protocol for safety applications. It describes the virtues of the digital communication between the field and safety system. In parallel the aspect of OT security for this use case is touched as well. The paper proposes a secure architecture, where safety- and non-safety field communications are still separated. At the end a set of requirements for the development of future APL devices is described.
Operators of production plants are increasingly emphasizing secure communication, including real-time communication, such as PROFINET, within their control systems. This trend is further advanced by standards like IEC 62443, which demand the protection of realtime communication in the field. PROFIBUS and PROFINET International (PI) is working on the specification of the security extensions for PROFINET (“PROFINET Security”), which shall fulfill the requirements of secure communication in the field.
This paper discusses the matter in three parts. First, the roles and responsibilities of the plant owner, the system integrator, and the component provider regarding security, and the basics of the IEC 62443 will be described. Second, a conceptual overview of PROFINET Security, as well as a status update about the PI specification work will be given. Third, the article will describe how PROFINET Security can contribute to the defense-in-depth approach, and what the expected operating environment is. We will evaluate how PROFINET Security contributes to fulfilling the IEC 62443-4-2 standard for automation components.
Two of the authors are members of the PI Working Group CB/PG10 Security.
Der vorliegende Beitrag beschreibt Einsatzpotenziale des Energiemanagementprofils PROFIenergy in der Prozessindustrie.
Der Blick auf den Status von Energieeffizienzmaßnahmen in der Prozessindustrie zeigt, dass diese im Wesentlichen innerhalb der verfahrenstechnischen Optimierung angesiedelt sind. Noch hat sich der durchgängige Einsatz von technischen Energiemanagementsystemen
(tEnMS) nicht etabliert. Diese Arbeit fokussiert Vorteile des tEnMS-Einsatzes und präsentiert „Best Practice“- Beispiele in der Prozessindustrie. Abschließend wird aufgezeigt, welches Potenzial das Energiemanagementprofil PROFIenergy liefern kann und welche Anwendungsfälle sich damit abdecken lassen.
Bei der Übermittlung von Nachrichtensignalen in Kommunikationsnetzen treten neben der physikalischen Laufzeit weitere Verzögerungen auf, welche durch technische Bearbeitungsvorgänge (Quellencodierung, Verschlüsselung, Kanalcodierung, Leitungscodierung, Bedienungsvorgänge, Vermittlungsvorgänge) verursacht werden. In dieser Arbeit wird die mittlere EndezuEndeDurchlaufverzögerung zwischen zwei Endgeräten in Abhängigkeit von den Eigenschaften und Parametern der Endgeräte und des paketbasierten Kommunikationsnetzes allgemein berechnet. Insbesondere wird der Mindestwert der mittleren Verzögerung in einem paketbasierten Kommunikationsnetz für Sprache (Voice over Internet Protocol, VoIP) und Daten analysiert. Die Wirkung einer Priorisierung der Sprachpakete wird untersucht. Zur Berechnung der Verzögerungen in einem Vermittlungsknoten wird das Bedienungsmodell M / G / 1 / ∞ mit Priorisierung verwendet. Die Anwendung der theoretischen Ergebnisse erfolgt auf ein stark vereinfachtes ModellNetz mit typischen Parametern für die Netzkanten und Netzknoten. Dessen mittlere EndezuEndeDurchlaufverzögerung für Sprachsignale wird unter verschiedenen Randbedingungen (eine oder zwei Verkehrsklassen, mit oder ohne Priorisierung, unterschiedliche Parameter des Datenverkehrs) numerisch berechnet und graphisch veranschaulicht.
Auch für das Teilnehmeranschlußnetz werden neben dem heute üblichen „Sternnetz" neuerdings „Ring-" und „Verzweigungsnetze" genannt, und es wird die Frage diskutiert, ob damit geringere Kosten zu erwarten sind. Mit Begriffen der Graphentheorie werden hier z.B. die Strukturen Stern, Ring, Baum definiert. Ein gedachtes Ortsnetz wird dann in quadratische Bereiche mit der Seitenlänge l und mit M Teilnehmern aufgeteilt. Für verschiedene Strukturen des Leiternetzes in der Teilnehmerebene werden die Mindestlängen der Leiter und der Kabelkanäle berechnet. Unter anderem zeigt sich, daß unabhängig von der Struktur des Leiternetzes die Kabelkanäle, ein dominierender Kostenanteil in der Teilnehmerebene, praktisch gleich lang sind, nämlich l/M^0,5 je Teilnehmer.
Innerhalb digitaler Nebenstellenanlagen können kurzfristig die verbesserten Kommunikationsmöglichkeiten eines „Integrated Services Digital Network" unabhängig von der Existenz eines nur langfristig realisierbaren, durchgehend digitalen öffentlichen Netzes angeboten werden. Beim Anschluß an die bestehenden öffentlichen Netze ergeben sich jedoch einige Probleme: Z. B. müssen die Bedingungen des bestehenden Dämpfungsplans eingehalten werden, auch im ungünstigsten Fall sind ausreichend hohe Signal-Quantisierungsgeräusch-Abstände sicherzustellen, für die Text- und Datenkommunikation mit den derzeit bestehenden öffentlichen Netzen sind u. U. zusätzliche Einrichtungen in der Nebenstellenanlage erforderlich. Diese Einführungsprobleme werden diskutiert und Lösungsmöglichkeiten hierzu vorgeschlagen.
In Zeitmultiplex-Vielfachzugriff-(TDMA-)Durchschalte-Vermittlungsnetzen mit verteilter Steuerung können Kollisionen von Zugriffsvorgängen auftreten. Es wird unterstellt, daß die den kollidierenden Zugriffsvorgängen zugehörigen Verbindungswünsche nicht weiterbehandelt werden und deshalb wegen Kollision zu Verlust gehen. Die zugehörige Verlustwahrscheinlichkeit -genannt Kollisionsverlust BK - wird allgemein berechnet. Die numerische Auswertung zeigt, daß für Fernsprechverkehr diese - gegenüber Systemen mit konzentrierter Steuerung - zusätzlichen Kollisionsverluste vernachlässigt werden können gegenüber den üblichen Planungsverlusten wegen Abnehmermangels.
"Coded Mark Inversion" (CMI) und "Manchester" (MAN) sind häufig verwendete binäre Leitungscodes. Die Synthese von Decodierer-Schaltungen kann mit Booleschen Funktionstabellen und Automatendiagrammen erfolgen. Diese Daten lassen sich in ein Logiksynthese-Softwarepaket eingeben und liefern als Ergebnis eine standardisierte Datei zur Programmierung eines geeigneten Logikbausteins. Die einzelnen Entwicklungsschritte von der umgangssprachlichen Problembeschreibung bis zur Programmierung sind hier erläutert.
Diese kurze Einführung zu Bedienungssystemen konzentriert sich auf grundlegende Gesetzmäßigkeiten für Bedienungssysteme im stationären Zustand (Flusserhaltung, Little-Theorem), die wesentlichen Kenngrößen (Angebot, Belastung, Restverkehr, Wartebelastung, Wartewahrscheinlichkeit, mittlere Bediendauer, mittlere Wartedauer, mittlere Durchlaufdauer) eines Bedienungssystems werden anschaulich eingeführt. Die Erlang-Formel und die Khintchine-Pollaczek-Formel werden diskutiert. Die Einführung ergänzt das Buch "Digitale Kommunikationssysteme 2 - Grundlagen der Vermittlungstechnik" des Verfassers, ist aber völlig eigenständig lesbar.
Quantisierung
(2007)
Für ein baumförmiges Zeitmultiplex-Durchschalte-Vermittlungsnetz mit Vielfachzugriff wird ein neues Funktionsprinzip vorgestellt. Dessen wesentliches Merkmal ist der geringe Bandbreitenbedarf. Die in solchen Vermittlungsnetzen bei verteilter Steuerung durch Zugriffskonflikte auftretenden Verluste an Verbindungswünschen werden berechnet. Außerdem werden die Einsatzmöglichkeiten solcher Vermittlungsnetze sowie deren verkehrstheoretische Bemessung bei Internverkehr untersucht.
Ausgehend von der Theorie der digitalen Signalsynthese wird in diesem Beitrag ein rechnergestützter Funktionsgenerator vorgestellt, der den Entwickler in die Lage versetzt, diverse periodische Zeitfunktionen mit beliebig komplizierten spektralen Eigenschaften zu generieren. Die dabei relevanten Hard- und Softwaregesichtspunkte, die zur Berechnung einer Stützstellenfolge über Fouriersynthese mit einem IBM-PC in Turbo-Pascal erforderlich sind, werden in der folgenden Abhandlung näher erläutert.
Das Ziel dieser Bachelorarbeit ist es, ein einfach verständliches Simulationsmodell zur Darstellung der Wirkung von Kabelschirmen bei Betrachtung verschiedener Schirmauflageverfahren zu entwickeln. Die erarbeiteten Ergebnisse decken sich mit der allgemein vertretenen Meinung, dass die beste Schirmwirkung durch eine beidseitige und flächige Schirmauflage erzielt wird. Zuerst werden Grundlagen erklärt, wobei sich auf relevante Literatur bezogen wird. Daraus wird das Simulationsmodell hergeleitet, dessen Ergebnisse anhand von theoretischen Überlegungen und praktischen Messungen überprüft werden. Die vorliegende Arbeit ist interessant für Ingenieurinnen und Ingenieure der Automatisierungstechnik in der Prozess- und Fertigungsindustrie, die ein grundlegendes Verständnis für relevante Effekte der Kabelschirmung bilden wollen.
In diesem Bericht werden Berechnungen und Simulationen von elektronischen Schaltungen zur Messung einzelner Photonen mit herkömmlichen pin-Fotodioden vorgestellt. Dabei sind hohe Bandbreite und geringes Rauschen in den Vordergrund gestellt.
Grundsätzlichen Betrachtungen zum Verhalten einer beispielhaften Fotodiode und zur Signalverarbeitung mit Bandpässen sind eigene Kapitel gewidmet. Eine vollständige Schaltung zur Ermittlung der Energie einzelner Photonen wird vorgestellt und mit LTspice simuliert.
Ability of Black-Box Optimisation to Efficiently Perform Simulation Studies in Power Engineering
(2023)
In this study, the potential of the so-called black-box optimisation (BBO) to increase the efficiency of simulation studies in power engineering is evaluated. Three algorithms ("Multilevel Coordinate Search"(MCS) and "Stable Noisy Optimization by Branch and Fit"(SNOBFIT) by Huyer and Neumaier and "blackbox: A Procedure for Parallel Optimization of Expensive Black-box Functions"(blackbox) by Knysh and Korkolis) are implemented in MATLAB and compared for solving two use cases: the analysis of the maximum rotational speed of a gas turbine after a load rejection and the identification of transfer function parameters by measurements. The first use case has a high computational cost, whereas the second use case is computationally cheap. For each run of the algorithms, the accuracy of the found solution and the number of simulations or function evaluations needed to determine the optimum and the overall runtime are used to identify the potential of the algorithms in comparison to currently used methods. All methods provide solutions for potential optima that are at least 99.8% accurate compared to the reference methods. The number of evaluations of the objective functions differs significantly but cannot be directly compared as only the SNOBFIT algorithm does stop when the found solution does not improve further, whereas the other algorithms use a predefined number of function evaluations. Therefore, SNOBFIT has the shortest runtime for both examples. For computationally expensive simulations, it is shown that parallelisation of the function evaluations (SNOBFIT and blackbox) and quantisation of the input variables (SNOBFIT) are essential for the algorithmic performance. For the gas turbine overspeed analysis, only SNOBFIT can compete with the reference procedure concerning the runtime. Further studies will have to investigate whether the quantisation of input variables can be applied to other algorithms and whether the BBO algorithms can outperform the reference methods for problems with a higher dimensionality.
An der Fachhochschule Hannover wurde Mitte 2007 das Projekt "Herbar-Digital" gestartet. In dem Forschungsprojekt "Herbar-Digital" sollen aus 3,5 Millionen Papierbögen (Herbarbelege) des Botanischen Museums Berlin möglichst alle Objekte erkannt werden und separat verarbeitbar sein. Bei den Objekten handelt es sich um Barcodes, Tüten, Stempel, Farbtabellen, Elemente aus dem Pflanzenbereich sowie Hand- und Druckschriften. Es soll unter Zuhilfenahme des ADA-BOOST-Algorithmus vom Verfasser eine Objekterkennung realisiert werden, die folgende Eigenschaften aufweist: Position der zu erkennenden Objekte im Bild variabel, auch dreidimensionale - und konturschwache Objekte müssen erkannt werden, gleiche Objekte unterschiedlicher Form müssen erkennbar sein, das System muss lernfähig sein.
In the area of manufacturing and process automation in industrial applications, technical energy management systems are mainly used to measure, collect, store, analyze and display energy data. In addition, PLC programs on the control level are required to obtain the energy data from the field level. If the measured data is available in a PLC as a raw value, it still has to be processed by the PLC, so that it can be passed on to the higher layers in a suitable format, e.g. via OPC UA. In plants with heterogeneous field device installations, a high engineering effort is required for the creation of corresponding PLC programs. This paper describes a concept for a code generator that can be used to reduce this engineering effort.
With regard to climate change, increasing energy efficiency is still a significant issue in the industry. In order to acquire energy data at the field level, so-called energy profiles can be used. They are advantageous as they are integrated into existing industrial ethernet standards (e.g. PROFINET). Commonly used energy profiles such as PROFIenergy and sercos Energy have been established in industrial use. However, as the Industrial Internet of Things (IIoT) continues to develop, the question arises whether the established energy profiles are sufficient to fullfil the requirements of the upcoming IIoT communication technologies. To answer this question the paper compares and discusses the common energy profiles with the current and future challenges of energy data communication. Furthermore, this analysis examines the need for further research in this field.
Das Projekt SEC_PRO verfolgte die Möglichkeit der Erarbeitung einer neuartigen IT-Sicherheitslösung für Automatisierungssysteme. Die Ermittlung des Stands der Technik zeigte, dass die IT-Sicherheit in der Automatisierungstechnik von Lösungen der Standard-IT in Büronetzwerken geprägt ist, ohne auf spezielle Anforderungen der Automatisierungstechnik einzugehen. Eine Anforderungsanalyse erbrachte, dass IT-Sicherheitslösungen benötigt werden, die sich mit dem zunehmenden Vernetzungsgrad von Automatisierungssystemen in Einklang bringen lassen. Dazu ist eine IT-Sicherheitsschicht für das PROFINET-Protokoll konzipiert und implementiert worden, die einen integrierten Schutz der Kommunikation und der Komponenten selbst ermöglicht. Dabei kommen gezielt Security Token Technologien zum Einsatz. Eine Evaluierung der kryptografischen Funktionen zeigte, dass deren Verwendung unter gewissen Voraussetzungen möglich ist. Mit Hilfe eines Demonstrators ist konnte die Echtzeitfähigkeit der IT-Sicherheitsschicht validiert und dessen Schutzwirkung nachgewiesen werden. SEC_PRO kann als Ausgangspunkt für weitere Vorhaben bezüglich integrierter IT-Sicherheitsmaßnahmen gesehen werden, die auf eine Anwendung der Kryptografie in der Automatisierungstechnik abzielen.
Mit der Anwendung der Norm ISO 50001 und der einhergehenden Einführung eines Energiemanagementsystems (kurz EnMS) kann eine sukzessive Erhöhung der Energieeffizienz erreicht werden. Zur Umsetzung von Energie-Monitoring- oder Standby-Management-Funktionalitäten müssen Energiedaten in der Feldebene bereitgestellt werden und auf Edge-Devices oder SPSen mittels eines Energiemanagement-Programms ggf. im Datenformat angepasst, skaliert und auf eine etablierte Kommunikationsschnittstelle (z.B. basierend auf OPC UA- oder MQTT) abgebildet werden. Die Erstellung dieser Energiemanagement-Programme geht mit einem hohen Engineering-Aufwand einher, denn die Feldgeräte aus der heterogenen Feldebene stellen die Energiedaten nicht in einer standardisierten Semantik bereit. Um diesem Engineering-Aufwand entgegenzuwirken, wird ein Konzept für ein universelles Energiedateninformationsmodell (kurz UEDIM) vorgestellt. Dieses Konzept sieht die Bereitstellung der Energiedaten an das EnMS in einer semantisch standardisierten Form vor. Zur weiteren Entwicklung des UEDIM wird im Beitrag näher untersucht, in welcher Form Energiedaten in der Feldebene bereitgestellt werden können und welche Anforderungen für das UEDIM aufzustellen sind.
With the use of an energy management system in an industrial company according to ISO 50001, a step-by-step increase in energy efficiency can be achieved. The realization of energy monitoring and load management functions requires programs on edge devices or PLCs to acquire the data, adapt the data type or scale the values of the energy information. In addition, the energy information must be mapped to communication interfaces (e.g. based on OPC UA) in order to convey this energy information to the energy management application. The development of these energy management programs is associated with a high engineering effort, because the field devices from the heterogeneous field level do not provide the energy information in standardized semantics. To mitigate this engineering effort, a universal energy data information model (UEIM) is developed and presented in this paper.
Requirements for an energy data information model for a communication-independent device description
(2021)
With the help of an energy management system according to ISO 50001, industrial companies obtain the opportunities to reduce energy consumption and to increase plant efficiencies. In such a system, the communication of energy data has an important function. With the help of so-called energy profiles (e.g. PROFIenergy), energy data can be communicated between the field level and the higher levels via proven communication protocols (e.g. PROFINET). Due to the fact that in most cases several industrial protocols are used in an automation system, the problem is how to transfer energy data from one protocol to another with as less effort as possible. An energy data information model could overcome this problem and describe energy data in a uniform and semantically unambiguous way. Requirements for a unified energy data information model are presented in this paper.
Die Problematik der aktuell batteriebetriebenen Elektrofahrzeuge liegt in der geringen Reichweite, einem geringen Fahrtgastkomfort, sowie den langen Ladezeiten und einer nicht ausreichenden Ladeinfrastruktur. Diese Tatsachen stellen für die Nutzer eine Hürde für den Umstieg zu batteriebetriebenen Fahrzeugen dar. Eine schon heute verfügbare Brückentechnologie ist der Range Extender. Diese, meist im Fahrzeug integrierten Einheiten, liefern zusätzliche Reichweite, bei einer elektrischen Leistung von meist über 15 kWel und einem durchschnittlichen Anlagenwirkungsgrad von Ƞ RE ≈ 29 %. In dieser Arbeit wird ein modulares Konzept eines erweiterten Range Extenders untersucht, welches die Funktion der Kraft-Wärme-Kopplung und Kraft-Kälte-Kopplung nutzt. Diese Hilfseinheit soll zum einen den Nachteil der geringen Reichweite aufgrund der eingeschränkten Batteriekapazitäten, zum anderen den geringen thermischen Innenraumkomfort von batteriebetriebenen Fahrzeugen ausgleichen. Das Konzept einer Kraftwärme/-kältekopplung zur Klimatisierung von BEV wird in der vorliegenden Arbeit mit Hilfe eines Versuchsaufbaus messtechnisch und theoretisch mittels Simulation untersucht, sowie anhand der ermittelten Kennfelder beurteilt. Die Simulation basiert dabei auf empirisch ermittelten Daten. In den gewählten Fahrzeugklassen Kleinstwagen, Kompakt- und Mittelklasse wird der mittlere Gesamtwirkungsgrad der Anlagenkomponenten in Abhängigkeit von Klimadaten (Wetterdaten) bestimmt. Dieser ermittelte Wirkungsgrad ist abhängig von äußeren thermischen Anforderungen und der Ausnutzung der Anlagenkomponenten. Der modulierbare Leistungsbereich des mikro Blockheizkraftwerks mit Kraft-Kälte-Kopplung hat zum Heizen einen thermischen Leistungsbereich von 5,7 – 13,0 kWthh. Der mechanische Leistungsbereich von 2,0 - 14,5 kWme wird in zwei Bereiche aufgeteilt. Zur Kühlung wird ein thermischer Bereich von 1,0 – 7,0 kWthk und zur elektrischen Stromerzeugung ein Leistungsbereich von 1,0 – 6,0 kWel verwendet. Basierend auf den in dieser Arbeit experimentell ermittelten Kennfeldern, die unter Berücksichtigung der lokalen klimatischen Bedingungen in Deutschland berechnet wurden, kann der Anlagenwirkungsgrad für Kleinstwagen mit Ƞ Kl = 58,9 ± 3,5 %, für die Kompaktklasse mit Ƞ Ko = 62,2 ± 5,5 % und für die Mittelklasse mit durchschnittlich Ƞ Mk = 65,2 ± 4,8 % ermittelt werden. Die zusätzlich gewonnenen Reichweiten, die durch Einsparung von batterieelektrischer Energie für die Klimatisierung und durch Einspeisung von erzeugter elektrischer Energie erreicht werden, liegen bei den Kleinstwagen bei 246 ± 31 km, in der Kompaktklasse bei 296 ± 103 km und in der Mittelklasse bei 314 ± 104 km. Eine Abtrennung des Klimakompressors von der Verbrennungskraftmaschine führt dabei zusätzlich zu einer teilweisen Verbesserung der ermittelten Werte. Im Vergleich dazu, lässt sich ein durchschnittlicher Reichweitenzuwachs von 103 km, ohne den Einsatz eines Kraftstoffes, nur durch Nutzung eines effizienteren Systems erreichen, wenn eine Wärmepumpe eingesetzt wird. Zusammenfassend kann festgehalten werden, dass der Einsatz der Kraftwärme -Kältekopplung zur Klimatisierung von Elektrofahrzeugen nachhaltig und sinnvoller erscheint, als der Einsatz eines konventionellen Range Extender, denn der Einsatz eines zusätzlichen Kraftstoffes sollte so effizient wie möglich genutzt werden.
Verwaltungsformulare, Verträge, Gesetzestexte, die Bedienungsanleitung einer Kaffeemaschine oder auch der Beipackzettel eines Medikaments – jeder kennt solche Texte und fast immer gibt es ein Problem mit der Verständlichkeit. Was wollen die jetzt von mir? Was soll ich machen? Das sind Fragen, die am Ende offen bleiben. Der Leser steht hilflos vor kompliziert und unverständlich, meist auch ermüdend geschriebenen Texten. Eigentlich sollte aber jeder diese Texte verstehen können. Um die Benutzerfreundlichkeit und die Qualität einer Bedienungsanleitung gewährleisten zu können, sind in Normen, wie VDI 4500, DIN EN ISO 121000 und DIN EN 62079, Kriterien bzgl. Inhalt, Layout und Beschaffenheit festgelegt. Bei der Verständlichkeit wird quasi am Minimum angesetzt, weil wirklich jeder die Anleitung verstehen soll. Doch was ist mit denen, die die Anleitung zwar verstehen sollen, aber eben nicht können? Menschen mit geistiger Behinderung werden im Alltag mit einer Vielzahl an Texten konfrontiert, die sie nicht verstehen. Der Textinhalt bleibt somit ein nicht zu lösendes Rätsel. Dass Menschen mit geistiger Behinderung ein selbstbestimmtes und selbstständiges Leben führen können, wird so von vornherein ausgeschlossen. Die Möglichkeit durch Kommunikation an der Gesellschaft teilzunehmen, wird weitestgehend unterbunden. Um diesem Ausschluss entgegenzuwirken, muss bei der Verwendung von Sprache und Erstellung von Texten unmittelbar bei dieser Zielgruppe angesetzt werden, so dass Texte und Sprache der vorhandenen Lesekompetenz entsprechend zugänglich werden. Hier setzt das Konzept Leichte Sprache an. Durch Unterstützung und Förderung beim Einsatz von Leichter Sprache sollen Menschen mit geistiger Behinderung schulische und berufliche Fähigkeiten erwerben und erfolgreich am sozialen Leben teilnehmen können. In der folgenden Arbeit wird, um Diskriminierung vorzubeugen, zunächst die Begrifflichkeit "geistige Behinderung" geklärt und deren Verwendung festgelegt. Dann wird das Konzept Leichte Sprache vorgestellt. Grundlagen von Verständlichkeit im Allgemeinen und bezogen auf die möglichen Zielgruppen, u.a. Menschen mit geistiger Behinderung, werden erläutert. Um feststellen zu können, ob eine Eingrenzung von Texten notwendig ist, bei denen Verständlichkeit gefördert bzw. überprüft werden soll, wird zwischen verschiedenen Textsorten abgegrenzt. So kann schließlich im Ergebnis überprüft werden, ob Leichte Sprache ein Konzept verständlichen Textens ist.
Ziel des Projektes war es, nominative Grundlagen für die Kriterien eines Performace-Quality-Labels (PQL) für LED-Leuchten zu erarbeiten. Unter dem PQL wird ein Qualitäts- und Energielabel verstanden, das für LED-Produkte auf Grundlage der aktuellen und sich entwickelnden Normensituation erarbeitet werden soll. Durch das Bestimmen der für eine gute Produktqualität erforderlichen Faktoren, soll durch die beteiligten Forschungseinrichtungen ein Katalog von Mindestanforderungen für LED-Leuchten entwickelt werden. Auf der anderen Seite sollen der Leuchtenindustrie konkrete Hinweise für die Entwicklung und Optimierung von LED-Leuchten bezüglich der im Projekt geforderten Werte zur Verfügung gestellt werden.
Ergebnis: Es wurde die Alterung von Hoch- und Mittelleistungs-LEDs bei verschiedenen Strömen und Boardtemperaturen hinsichtlich Lichtstrom, Farbort, Spektren und Änderung des thermischen Widerstands untersucht, um die Lebensdauer der LEDs durch eine Extrapolation herstellerunabhängig ermitteln und den Leuchtenherstellern verfügbar zu machen. Durch umfangreiche Untersuchungen zu ESD und EMV-Eigenschaften sowie Temperatur- und Stromverhalten der LEDs, war eine thermische und elektrische Modellierung möglich. Ziel: ein korrektes Datenblatt für die LEDs seitens der LED-Hersteller zu erarbeiten sowie ein relevantes Binning-Schema mit Beurteilungskriterien für die verschiedenen Binning-Klassen zu erstellen. Zudem lassen sich Hinweise ableiten, wie zukünftige LED-Leuchten mit RGB- und weißen LEDs auf Farbort- und Lichtstromkonstanz bei verschiedenen Temperatur- und Stromänderungen geregelt werden können. Durch die Vergleichsmessungen von mehr als 70 LED-Leuchten konnten die Schwachstellen und Unzulänglichkeiten in der qualitätssicherenden Kette ermittelt und mit den Firmen besprochen werden. Die Auswertung der an der TU Darmstadt gealteten LED-Leuchten konnte der Leuchtenindustrie konkrete Hinweise über Alterungsmechanismen, thermisches Management bei verschiedenen Betriebstemperaturen und die Restwelligkeit der LED-Ströme geben. Zudem wurden Faktoren erarbeitet, wie die LED-Leuchte durch Materialauswahl (Wärmeleitpasten, Dichtungsring), durch konstruktive Kabelführung und Elektronik-Auswahl an Zuverlässigkeit gewinnen kann. Eine Datenbank mit einer Typisierung der LED-Fehler, Entstehungsorte, Ursachen und wirtschaftlicher Folge konnte erstellt und mit der Leuchtenindustrie und professionellen Anwendern ausgetauscht und gepflegt werden.
Die Grundlage für die Akzeptanz der LED-Beleuchtung durch die professionellen und privaten Anwender kann nur geschaffen werden, wenn die Licht- und Farbqualität untersucht und deren Mindestwerte für hochqualitive LED-Produkte definiert werden können. An Hand der Untersuchung der Farbwiedergabeskalierung konnte gezeigt werden, dass LED-Systeme mit guter Farbwiedergabe eine Ra-Wert von 86 und R9 für gesättigte rote Farben von mehr als 45 aufweisen sollten. Um die Detektierbarkeit der stroboskopischen Erscheinungen von PQWM-betriebenen LEDs zu minimieren sollte die Pulsfrequenz nicht weniger als als 350 Hz – 400 Hz betragen.
Alle gewonnenen optischen, lichttechnischen, thermischen und elektrischen Erkenntnisse und Erfahrungen wurden während der Projektarbeit systematisch zusammengestellt und mit Zielwerten bzw. Grenzwerten versehen, so dass sie über die Qualitätsmerkmale (Performance Quality Label) in drei Vorträgen der Leuchtenindustrie präsentiert werden konnten. Die Ziele des Projekts konnten im vollen Umfang erfüllt werden. Die Erkenntnisse vom Projekt konnten durch sechs reguläre Treffen, zwei Sonderworkshops, drei VDE/ZVEI Workshops und zahlreiche Publikationen, Buchbeiträge und Konferenzbeiträge an die Lichtindustrie, Lichtplaner und weitere Interessierte transferiert werden.
Das IGF-Vorhaben 14 LBG der Forschungsvereinigung Elektrotechnik wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Die Digitalisierung birgt sowohl für den Unternehmer, als auch für den Kunden diverse Vorteile. Als Instrument zur Veranschaulichung dieser Vorteile dienen vor allem Service-Apps, welche bereits von großen Unternehmen beispielsweise zur Produktnachverfolgung etabliert wurden. Das Mittelstand 4.0 – Kompetenzzentrum Hannover legt den Fokus auf kleine und mittelständische Produktionsbetriebe und vermittelt das Potenzial der Digitalisierung im Rahmen von Industrie 4.0. Dies geschieht anhand einer Produktionslinie personalisierter Kugelschreiber und einer zu Demonstrationszwecken entwickelten App für mobile Endgeräte. Konzeptionierung, Entwicklung und Umsetzung dieser App werden genauestens aufgeführt und erläutert. Die App wurde unter dem Betriebssystem Android entwickelt und gliedert sich in sieben Phasen, beginnend mit der Anforderungsanalyse bis hin zur Veröffentlichung im Google Play Store. Während der Unternehmer die Möglichkeit geboten bekommt, Rückschlüsse als Entscheidungshilfe zur effizienteren Gestaltung der Produktion zu nutzen, ist der Kunde in der Lage, seine Aufträge echtzeitnah in der Produktion nachzuverfolgen und gegebenenfalls Änderungen vorzunehmen.
Das Forschungsprojekt „Herbar Digital” startete 2007 mit dem Ziel der Digitalisierung des Bestands von mehr als 3,5 Millionen getrockneter Pflanzen bzw. Pflanzenteile auf Papierbögen (Herbarbelege) des Botanischen Museums Berlin. Die Aufgabe des Autors ist die Analyse der hochaufgelösten Bilder mit 10400 Zeilen und 7500 Spalten. Die Herbarbelege können außerdem unterschiedliche Objekte enthalten wie Umschläge mit zusätzlichen Pflanzenteilen, gedruckte oder handgeschriebene Etiketten, Farbtabellen, Maßstäbe, Stempel, Barcodes, farbige „Typus-Etiketten“ und handschriftliche Anmerkungen direkt auf dem Beleg. Die schriftlichen Anmerkungen, insbesondere in Handschrift, sind von besonderem Interesse. Kommerzielle OCR-Software kann oftmals Schrift in komplexen Umgebungen nicht lokalisieren, wie sie häufig auf den Herbarbelegen vorliegt, auf denen Schrift zwischen Blättern, Wurzeln und anderen Objekten angeordnet ist. Im folgenden wird eine Methode vorgestellt, die es ermöglicht, Schriftpassagen im Bild automatisch zu finden.
Entwicklung und Untersuchung von Erkennungssoftware für den Einsatz im Projekt Herbar Digital
(2009)
Kommerzielle OCR-Programme sind nicht in der Lage kursiv geschriebene Handschriften zu lesen. Deshalb wurde in der vorliegenden Arbeit ein Verfahren entwickelt, um kursive handgeschriebene Buchstaben zu erkennen und darüber hinaus auch deren Schreiber zu bestimmen. Dazu muss der statische Buchstabe in eine dynamische Form gebracht werden. Dies geschieht mit dem Modell einer trägen Kugel, die durch den Schriftzug rollt. Über den Schreiber kann evtl. der Name des Entdeckers einer Pflanze bestimmt werden. Bei dieser Offline-Schreibererkennung werden verschiedene Verfahren wie die Nachbildung der Schreiblinie einzelner Buchstaben durch z.B. Legendre-Polynome verwendet. Bei Verwendung nur eines Buchstabens der Schreiber wird eine Erkennungsrate von bis zu 80% erreicht.
Die vorliegende Arbeit untersucht den möglichen Einsatz kommerzieller Software im Projekt Herbar Digital. Dabei werden zwei Kategorien unterschieden: OCR-Software und Barcodesoftware. Von der ersten Kategorie gibt es eine Vielzahl käuflicher Programme auf dem Markt sowie auch einige kostenlose Freewareprogramme. Die Qualität ist jedoch sehr unterschiedlich, insbesondere fallen die Freewareprogramme stark ab. Es kristallisieren sich vier hochqualitative Programme heraus, die genau untersucht werden. Von diesen eignen sich zwei für das Projekt, wobei Omnipage 16 der Vorzug gegeben wird. In der Kategorie der Barcodesoftware fiel die Wahl auf QS-Barcode 4.0, da sich OCR-Programme für das Lesen von Barcodes als ungeeignet erwiesen. Die anfängliche Erkennungsrate von 90% konnte durch eigene Verfahren zur Bildvorverarbeitung auf 100% gesteigert werden.
Our research project, "Rationalizing the virtualization of botanical document material and their usage by process optimization and automation (Herbar-Digital)" started on July 1, 2007 and will last until 2012. Its long-term aim is the digitization of the more than 3,5 million specimens in the Berlin Herbarium. The University of Applied Sciences and Arts in Hannover collaborates with the department of Biodiversity Informatics at the BGBM (Botanic Garden and Botanical Museum Berlin-Dahlem) headed by Walter Berendsohn. The part of Herbar-Digital here presented deals with the analysis of the generated high resolution images (10,400 lines x 7,500 pixel).
The research project "Herbar Digital" was started in 2007 with the aim to digitize 3.5 million dried plants on paper sheets belonging to the Botanic Museum Berlin in Germany. Frequently the collector of the plant is unknown, so a procedure had to be developed in order to determine the writer of the handwriting on the sheet. In the present work the static character was transformed into a dynamic form. This was done with the model of an inert ball which was rolled along the written character. During this off-line writer recognition, different mathematical procedures were used such as the reproduction of the write line of individual characters by Legendre polynomials. When only one character was used, a recognition rate of about 40% was obtained. By combining multiple characters, the recognition rate rose considerably and reached 98.7% with 13 characters and 93 writers (chosen randomly from the international IAM-database [3]). A global statistical approach using the whole handwritten text resulted in a similar recognition rate. By combining local and global methods, a recognition rate of 99.5% was achieved.
Dieses Research Paper befasst sich mit dem Thema der Hochverfügbarkeit von Automatisierungsnetzwerken am Beispiel von PROFINET. Anhand von verschiedenen PROFINET-Topologien soll verdeutlicht werden, durch welche Maßnahmen eine hohe Verfügbarkeit erzielt werden kann. Zuvor wird mithilfe von grundliegenden Berechnungsbeispielen gezeigt, wie sich die Verfügbarkeit eines technischen Systems ermitteln lässt. Anschließend erfolgt für die Betrachtung der Gesamtverfügbarkeit einer PROFINET-Anlage eine genaue Bestimmung der jeweiligen Verfügbarkeitswerte für die einzelnen PROFINET-Geräte. Ein besonderes Augenmerk richtet sich hierbei speziell auf die Verwendung von IO Devices mit redundanten bzw. nicht-redundanten Interfacemodulen. Für das Erzielen einer hohen Verfügbarkeit sind nicht nur PROFINET-Geräte von entscheidender Bedeutung, sondern auch die Stuktur des PROFINET-Netzwerks. Im Zusammenspiel mit den bereits existierenden Redundanzprotokollen, die für die Verwaltung des Datenverkehrs zuständig sind, werden in diesem Bericht mehrere Topologien anhand verschiedener Eigenschaften und Voraussetzungen auf ihre Vor- und Nachteile untersucht und entsprechend ihrer Gesamtverfügbarkeitswerte bewertet.
Dieses Research Paper basiert im Wesentlichen auf der Bachelorarbeit von Herrn Sebastian Stelljes an der Hochschule Hannover. Im Nachgang zur Arbeit wurden noch weitere Aspekte untersucht und mit den Inhalten der Bachelorarbeit zu diesem Research Paper zusammengeführt.
The growing importance of renewable generation connected to distribution grids requires an increased coordination between transmission system operators (TSOs) and distribution system operators (DSOs) for reactive power management. This work proposes a practical and effective interaction method based on sequential optimizations to evaluate the reactive flexibility potential of distribution networks and to dispatch them along with traditional synchronous generators, keeping to a minimum the information exchange. A modular optimal power flow (OPF) tool featuring multi-objective optimization is developed for this purpose. The proposed method is evaluated for a model of a real German 110 kV grid with 1.6 GW of installed wind power capacity and a reduced order model of the surrounding transmission system. Simulations show the benefit of involving wind farms in reactive power support reducing losses both at distribution and transmission level. Different types of setpoints are investigated, showing the feasibility for the DSO to fulfill also individual voltage and reactive power targets over multiple connection points. Finally, some suggestions are presented to achieve a fair coordination, combining both TSO and DSO requirements.
Im Rahmen des vom Bundesministerium für Wirtschaft und Technologie geförderten Forschungsprojektes INSA sollen wichtige Beiträge zur Verbesserung der IT-Sicherheit von Produktionsanlagen insbesondere in kleinen und mittelständischen Unternehmen (KMU) realisiert und erprobt werden.
Die IT-Sicherheit von Produktionsanlagen wird zu einer immer wichtigeren Komponente des Schutzes von Unternehmen gegen Cyber-Attacken. Neben Angriffen aus dem Internet sind dabei interne Angriffsquellen in Betracht zu ziehen. Gängige Vorgehensmodelle, wie z. B. die VDI-Richtlinie 2182, setzen dabei unter anderem auf eine wiederkehrende Analyse der Bedrohungen und auf die Implementierung entsprechender Schutzmaßnahmen. Die Durchführung einer solchen wiederkehrenden Gefährdungsanalyse ist mit einem wiederkehrenden manuellen Aufwand verbunden, weshalb kleine und mittlere Unternehmen die Durchführung dieser Maßnahmen häufig meiden. Ziel des Projektes ist die Unterstützung kleiner und mittlerer Unternehmen bei der Durchführung entsprechender Bedrohungsanalysen zu unterstützen.
Der Ansatz des Projektes beruht auf der automatisierten bzw. teilautomatisierten Erfassung der installierten Automatisierungskomponenten (Assets). Danach kann für bekannte Standardkomponenten durch die Verwendung wissensbasierter Methoden eine Beurteilung der Bedrohung einer Automatisierungsanlage erfolgen. Hierfür wird fachspezifisches Wissen erfasst und verarbeitet wird. Diese Methoden können bei Bedarf in die Engineering-Oberfläche einer Automatisierungsanlage intergiert werden.
Industrial Control Systems (ICS) succumb to an ever evolving variety of threats. Additionally, threats are increasing in number and get more complex. This requires a holistic and up-to-date security concept for ICS as a whole. Usually security concepts are applied and updated based on regularly performed ICS security assessments. Such ICS security assessments require high effort and extensive knowledge about ICS and its security. This is often a problem for small and mediumsized enterprises (SME), which do not have sufficient respective sufficiently skilled human resources. This paper defines in a first step requirements on the knowledge needed to perform an ICS security assessment and the life cycle of this knowledge. Afterwards the ICS security knowledge and its life cycle are developed and discussed considering the requirements and related work.
Die zunehmenden Anwendungsfälle der vertikalen und horizontalen Vernetzung von Automatisierungssystemen erhöhen gleichzeitig auch die Bedrohungen der IT-Sicherheit der relevanten automatisierten technischen Prozesse. Zukünftige Anlagenstrukturen werden stärker vernetzt und dezentralisiert organisiert sein, oder sogar weltweit mit anderen technischen Systemen über das Internet kommunizieren. Dies erfolgt häufig über standardisierte Kommunikationsprotokolle, im Weiteren Middleware genannt. Daher ist die Bedeutung standardisierter Verfahren und Modelle zur Erleichterung der Sicherheitskonfigurationen der Middleware, die die folgenden Anforderungen erfüllen, von wesentlicher Bedeutung:
- Sichere Kommunikation (sichere Middleware)
- Authentifizierung und Autorisierung der Kommunikationspartner auch bei stark vernetzten Systemen und Ad-hoc-Verbindungen
- Einfache Verwaltung von Sicherheitsmaßnahmen ohne erheblichen Mehraufwand für die Organisation
Die bestehende Referenzarchitektur und die Sicherheitsmerkmale der entsprechenden Middleware werden untersucht, um deren Anwendbarkeit in verschiedenen Stufen der Automatisierungspyramide zu ermitteln. Es werden die Sicherheitsmerkmale für eine durchgängig sichere Kommunikation und deren Flexibilität bei der Integration in eine Public Key Infrastruktur (PKI) untersucht. Die bestehenden Zugangskontrollmechanismen und deren Zukunft im Rahmen von Industrie 4.0 werden bewertet. Die Möglichkeiten zur Integration des mit Attributzertifikaten aktivierten Berechtigungsmechanismus im Rahmen von OPC UA werden in diesem Projekt untersucht und als Teil des Demonstrators implementiert. Die Anwendungsrelevanz der entwickelten Lösungen wird gewährleistet, indem die Projektpartner des projektbegleitenden Ausschusses bei der Erstellung und dem Review von Konzepten frühzeitig beteiligt werden.
Big-Data-Datenplattformen werden immer beliebter, um große Datenmengen bei Bedarf analysieren zu können. Zu den fünf gängigsten Big-Data-Verarbeitungsframeworks gehören Apache Hadoop, Apache Storm, Apache Samza, Apache Spark, und Apache Flink. Zwar unterstützen alle fünf Plattformen die Verarbeitung großer Datenmengen, doch unterscheiden sich diese Frameworks in ihren Anwendungsbereichen und der zugrunde liegenden Architektur. Eine Reihe von Studien hat sich bereits mit dem Vergleich dieser Big-Data-Frameworks befasst, indem sie sie anhand eines bestimmten Leistungsindikators bewertet haben. Die IT-Sicherheit dieser Frameworks wurde dabei jedoch nicht betrachtet. In diesem Beitrag werden zunächst allgemeine Anforderungen und Anforderungen an die IT-Sicherheit der Datenplattformen definiert. Anschließend werden die Datenplattform-Konzepte unter Berücksichtigung der aufgestellten Anforderungen analysiert und gegenübergestellt.
This paper presents the implementation of a GMVC-based WAPSS to damp the interarea modes of power systems. The choise for the GMVC to tackle this problem lies on the fact that it can be used to compensate the time delay due to the latency of the transmission system in a more natural way than other controllers. The paper shows that it is possible to improve system’s closed-loop stability since its behavior is the same as if the time delay is not regarded. Simulation results with Kundur’s System prove that a latency of 1 second at a conventional WAPSS might lead system’s power to oscillate for 50 seconds for a short-circuit at the transmission line, whereas the oscillation decreases to only 5 seconds if the GMVC-based WAPSS is implemented.
Zum Abschluss des dreijährigen Forschungsprojektes "Flexible Plattform für Energiesammelsysteme für die Gebäudeautomation – MEH", gefördert durch das BMBF, wurde ein nachhaltiges Energiekonzept realisiert. Durch Nutzung unterschiedlicher energetischer Quellen, u.a. Rundfunkwellen (RF) und Solarstrahlung, können Aktoren und Sensoren der Gebäudeautomation autonom ohne zusätzliche Batterien umweltfreundlich und wartungsfrei betrieben werden.
Der Aufsatz erläutert anschaulich, wie der Transport der elektrischen Energie vom Erzeuger zum Verbraucher im Detail erfolgt. Die Rechnung mit Hilfe grundlegender Beziehungen aus den Grundlagen der Elektrotechnik und dem Poynting-Vektor ermöglicht es, den physikalisch realen Transport der Energie räumlich quantitativ nachzuvollziehen und zu verstehen. An vereinfachten Beispielen wird gezeigt, wie die Energie über zwei Sammelschienen zu den Verbrauchern und insbesondere in die Verbraucher hinein gelangt. Bei den Verbrauchern handelt es sich exemplarisch um einen Widerstand, einen Kondensator, eine Spule und schließlich einen bewegten Leiter im magnetischen Feld als einfachste Form eines Gleichstrommotors. Es wird dargestellt, dass die Energie keinesfalls in den Zuleitungen transportiert wird, sondern durch den umgebenden Raum.
In dieser Studie wurden Unternehmen, die Produktionsanlagen betreiben oder betreuen, zu ihrem Sicherheitsaufwand bei der Abfrage von Security Advisories für Automatisierungskomponenten befragt. Die befragten Unternehmen (vorwiegend KMU) machten Angaben zum zeitlichen, technischen und personellen Aufwand für die Auswertung von Security Advisories im Produktionsumfeld. Es wurde festgestellt, dass in vielen Unternehmen Defizite in Bezug auf diese Fragestellung bestehen. Dieses resultiert im Wesentlichen aus Mangel an Zeit und Mangel an qualifiziertem Personal. Eine in der Studie vorgeschlagene automatisierte Abfrage von Asset Inventories und eine automatisierte Zuordnung von Security Advisories zu den Assets wird von den befragten Unternehmen durchgehend als sinnvoll erachtet.
Bei der Integration technischer Energiemanagementsysteme (tEnMS) in Automatisierungsanlagen fällt ein hoher Engineering-Aufwand an, besonders für die Steuerungsprogrammierung. Dieser Engineering-Aufwand ist für industrielle Anwender der Hauptgrund, integrierte tEnMS nicht einzusetzen. Im Rahmen des Forschungsprojektes „Integriertes Anlagenengineering zur Erhöhung der Energieeffizienz (IAE4)“ (Förderkennzeichen: ZN2948; Forschungsprofessur des Landes Niedersachsen/Volkswagenstiftung) wurde untersucht, wie sich dieser Engineering-Aufwand reduzieren lässt. Hierzu wurde ein Software-Werkzeug entwickelt, das die benötigten Steuerungsprogramme automatisch aus Engineering-Daten und Gerätebeschreibungsdateien generiert. Dieser Beitrag stellt die Ergebnisse des IAE4-Projektes vor.
Das Forschungscluster Industrie 4.0 stellt in acht Beiträgen aktuelle Ergebnisse aus seinen vielfältigen Forschungsprojekten vor. Es werden virtuelle Techniken in der Produktentwicklung, Lehrkonzepte für Industrie 4.0, Energy Harvesting bei Antennen, Energiemanagement in Produktionsanlagen, firmenübergreifende IT-Security Anforderungen, dezentral gesteuerte Produktionsprozesse und Spracherkennung mit Mikrocontrollern behandelt.
Das Forschungscluster Energie – Mobilität – Prozesse stellt in acht Beiträgen aktuelle Ergebnisse aus laufenden Forschungsprojekten vor. Es werden Aspekte der Urbanen Logistik, der Automatisierung von Energiemanagementsystemen, der Effizienz von neuen Kältemaschinen, der Entsäuerung von Kulturgütern, der Auslastung von Pedelec-Vermietsystemen und der Reichweite von Elektrofahrzeugen behandelt. Zusätzlich werden relevante Daten in Form von 17 Diagrammen kompakt zusammengestellt.