Refine
Year of publication
- 2018 (80) (remove)
Document Type
- Article (34)
- Conference Proceeding (14)
- Bachelor Thesis (9)
- Master's Thesis (7)
- Working Paper (5)
- Report (4)
- Book (3)
- Part of a Book (1)
- Lecture (1)
- Periodical Part (1)
Has Fulltext
- yes (80)
Is part of the Bibliography
- no (80)
Keywords
- Mumbai (6)
- E-Learning (5)
- Grader (4)
- India (4)
- Indien (4)
- Knowledge (4)
- Serviceorientierte Architektur (4)
- Student (4)
- University students (4)
- Wissen (4)
Die vorliegende Ausarbeitung befasst sich mit der Digitalisierung und der Öffnung des Kulturerbes. Anhand einer theoretischen und qualitativen Untersuchung mit Experteninterviews soll verdeutlicht werden, warum einige Kulturerbeinstitutionen wenig motiviert sind, ihre Sammlungen und Artefakte digital zu öffnen. Mit Hilfe von sieben Experteninterviews aus unterschiedlichen kulturellen Digitalisierungsbereichen soll erforscht werden, wo die Kulturerbedigitalisierung aktuell steht und welche Chancen und Risiken Digitalisierungsmaßnahmen fördern oder hemmen. Weiter werden die Ergebnisse geprüft, um daraus mobilisierende Maßnahmen zu erkennen.
The growing importance of renewable generation connected to distribution grids requires an increased coordination between transmission system operators (TSOs) and distribution system operators (DSOs) for reactive power management. This work proposes a practical and effective interaction method based on sequential optimizations to evaluate the reactive flexibility potential of distribution networks and to dispatch them along with traditional synchronous generators, keeping to a minimum the information exchange. A modular optimal power flow (OPF) tool featuring multi-objective optimization is developed for this purpose. The proposed method is evaluated for a model of a real German 110 kV grid with 1.6 GW of installed wind power capacity and a reduced order model of the surrounding transmission system. Simulations show the benefit of involving wind farms in reactive power support reducing losses both at distribution and transmission level. Different types of setpoints are investigated, showing the feasibility for the DSO to fulfill also individual voltage and reactive power targets over multiple connection points. Finally, some suggestions are presented to achieve a fair coordination, combining both TSO and DSO requirements.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
This paper summarizes the results of a comprehensive statistical analysis on a corpus of open access articles and contained figures. It gives an insight into quantitative relationships between illustrations or types of illustrations, caption lengths, subjects, publishers, author affiliations, article citations and others.
Food protein hydrolysates are often produced in unspecific industrial batch processes. The hydrolysates composition underlies process-related fluctuations and therefore the obtained peptide fingerprint and bioactive properties may vary. To overcome this obstacle and enable the production of specific hydrolysates with selected peptides, a ceramic capillary system was developed and characterized for the continuous production of a consistent peptide composition. Therefore, the protease Alcalase was immobilized on the surface of aminosilane modified yttria stabilized zirconia capillaries with a pore size of 1.5 μm. The loading capacity was 0.3 μg enzyme per mg of capillary with a residual enzyme activity of 43%. The enzyme specific peptide fingerprint produced with this proteolytic capillary reactor system correlated with the degree of hydrolysis, which can be controlled over the residence time by adjusting the flow rate. Common food proteins like casein, sunflower and lupin protein isolates were tested for continuous hydrolysis in the developed reactor system. The peptide formation was investigated by high-performance liquid chromatography. Various trends were found for the occurrence of specific peptides. Some are just intermediately occurring, while others cumulate by time. Thus, the developed continuous reactor system enables the production of specific peptides with desired bioactive properties.
Cloud computing has become well established in private and public sector projects over the past few years, opening ever new opportunities for research and development, but also for education. One of these opportunities presents itself in the form of dynamically deployable, virtual lab environments, granting educational institutions increased flexibility with the allocation of their computing resources. These fully sandboxed labs provide students with their own, internal network and full access to all machines within, granting them the flexibility necessary to gather hands-on experience with building heterogeneous microservice architectures. The eduDScloud provides a private cloud infrastructure to which labs like the microservice lab outlined in this paper can be flexibly deployed at a moment’s notice.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Beitrag zum Workshop "Informationskompetenz im Norden" am 01.02.2018 im Bibliotheks- und Informationssytem der Carl von Ossietzky Universität Oldenburg.
Es geht zunächst darum, welche Ansätze und Projekte die Schreibwerkstatt verfolgt, um Informations- & Schreibprozesse an der Hochschule Hannover zu fördern.
Da es gemeinsame Ziele und Zielgruppen von sowie inhaltliche Überschneidungen zwischen Bibliothek und Schreibwerkstatt gibt, werden Kooperationsbeispiele und Vorteile der Zusammenarbeit vorgestellt.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.