Refine
Year of publication
Document Type
- Article (525)
- Conference Proceeding (162)
- Bachelor Thesis (149)
- Report (102)
- Working Paper (85)
- Book (73)
- Master's Thesis (66)
- Part of a Book (40)
- Periodical Part (38)
- Study Thesis (25)
- Course Material (18)
- Preprint (14)
- Doctoral Thesis (11)
- Review (7)
- Lecture (4)
- Other (3)
Is part of the Bibliography
- no (1322)
Keywords
- Bibliothek (44)
- Digitalisierung (38)
- Milchwirtschaft (36)
- E-Learning (27)
- Molkerei (27)
- Ausbildung (23)
- Euterentzündung (23)
- Informationsmanagement (22)
- Computersicherheit (21)
- Herbarium (20)
The objective was to establish and standardise a broth microdilution susceptibility testing method for porcine Bordetella (B.) bronchiseptica. B. bronchiseptica isolates from different geographical regions and farms were genotyped by macrorestriction analysis and subsequent pulsed-field gel electrophoresis. One reference and one type strain plus two field isolates of B. bronchiseptica were chosen to analyse growth curves in four different media: cation-adjusted Mueller-Hinton broth (CAMHB) with and without 2% lysed horse blood, Brain-Heart-Infusion (BHI), and Caso broth. The growth rate of each test strain in each medium was determined by culture enumeration and the suitability of CAMHB was confirmed by comparative statistical analysis. Thereafter, reference and type strain and eight epidemiologically unrelated field isolates of B. bronchiseptica were used to test the suitability of a broth microdilution susceptibility testing method following CLSI-approved performance standards given in document VET01-A4. Susceptibility tests, using 20 antimicrobial agents, were performed in five replicates, and data were collected after 20 and 24 hours incubation and statistically analysed. Due to the low growth rate of B. bronchiseptica, an incubation time of 24 hours resulted in significantly more homogeneous minimum inhibitory concentrations after five replications compared to a 20-hour incubation. An interlaboratory comparison trial including susceptibility testing of 24 antimicrobial agents revealed a high mean level of reproducibility (97.9%) of the modified method. Hence, in a harmonization for broth microdilution susceptibility testing of B. bronchiseptica, an incubation time of 24 hours in CAMHB medium with an incubation temperature of 35°C and an inoculum concentration of approximately 5 x 105 cfu/ml was proposed.
This paper describes the latest accomplishments on the current research that is based on the master’s thesis “Ein System zur Erstellung taktiler Karten für blinde und sehbehinderte Menschen” (German for “A system creating tactile maps for blind and visually impaired people”) (Hänßgen, 2012). The system consists of two parts. The first part is new software especially designed and developed for creating tactile maps addressing the needs of blind and visually impaired people on tactile information. The second is an embossing device based on a modified CNC (computer numerical control) router. By using OpenStreetMap-data, the developed system is capable of embossing tactile maps into Braille paper and writing film.
BACKGROUND: Even though physician rating websites (PRWs) have been gaining in importance in both practice and research, little evidence is available on the association of patients' online ratings with the quality of care of physicians. It thus remains unclear whether patients should rely on these ratings when selecting a physician. The objective of this study was to measure the association between online ratings and structural and quality of care measures for 65 physician practices from the German Integrated Health Care Network "Quality and Efficiency" (QuE). METHODS: Online reviews from two German PRWs were included which covered a three-year period (2011 to 2013) and included 1179 and 991 ratings, respectively. Information for 65 QuE practices was obtained for the year 2012 and included 21 measures related to structural information (N = 6), process quality (N = 10), intermediate outcomes (N = 2), patient satisfaction (N = 1), and costs (N = 2). The Spearman rank coefficient of correlation was applied to measure the association between ratings and practice-related information. RESULTS: Patient satisfaction results from offline surveys and the patients per doctor ratio in a practice were shown to be significantly associated with online ratings on both PRWs. For one PRW, additional significant associations could be shown between online ratings and cost-related measures for medication, preventative examinations, and one diabetes type 2-related intermediate outcome measure. There again, results from the second PRW showed significant associations with the age of the physicians and the number of patients per practice, four process-related quality measures for diabetes type 2 and asthma, and one cost-related measure for medication. CONCLUSIONS: Several significant associations were found which varied between the PRWs. Patients interested in the satisfaction of other patients with a physician might select a physician on the basis of online ratings. Even though our results indicate associations with some diabetes and asthma measures, but not with coronary heart disease measures, there is still insufficient evidence to draw strong conclusions. The limited number of practices in our study may have weakened our findings.
Objectives: To assess the relation between the number of clinical trials conducted and respective new drug approvals in India and South Africa.
Design: Construction and analysis of a comprehensive database of completed randomised controlled clinical trials based on clinicaltrials.gov from 1 January 2005 to 31 December 2010 and drug approval data from 2006 until 2013 for India and South Africa.
Setting: USA, the EU, India and South Africa.
Main outcome measures: Percentage of completed randomised clinical trials for an Investigational Medicinal Product (IMP) leading to new drug approval in India and South Africa.
Results: A total of 622 eligible randomised controlled trials were identified as per search criteria for India and South Africa. Clustering them for the same sponsor and the same Investigational New Drug (IND) resulted in 453 eligible trials, that is, 224 for India and 229 for South Africa. The distribution of the market application approvals between the EU/USA as well as India and South Africa revealed that out of clinical trials with the participation of test centres in India and/or South Africa, 39.6% (India) clinical trials and 60.1% (South Africa) clinical trials led to market authorisation in the EU/USA without a New Drug Application (NDA) approval in India or South Africa.
Conclusions: Despite an increase in clinical trial activities, there is a clear gap between the number of trials conducted and market availability of these new drugs in India and South Africa. Drug regulatory authorities, investigators, institutional review boards and patient groups should direct their efforts to ensuring availability of new drugs in the market that have been tested and researched on their population.
End users urgently request using mobile devices at their workplace. They know these devices from their private life and appreciate functionality and usability, and want to benefit from these advantages at work as well. Limitations and restrictions would not be accepted by them. On the contrary, companies are obliged to employ substantial organizational and technical measures to ensure data security and compliance when allowing to use mobile devices at the workplace. So far, only individual arrangements have been presented addressing single issues in ensuring data security and compliance. However, companies need to follow a comprehensive set of measures addressing all relevant aspects of data security and compliance in order to play it safe. Thus, in this paper at first technical architectures for using mobile devices in enterprise IT are reviewed. Thereafter a set of compliance rules is presented and, as major contribution, technical measures are explained that enable a company to integrate mobile devices into enterprise IT while still complying with these rules comprehensively. Depending on the company context, one or more of the technical architectures have to be chosen impacting the specific technical measures for compliance as elaborated in this paper. Altogether this paper, for the first time, correlates technical architectures for using mobile devices at the workplace with technical measures to assure data security and compliance according to a comprehensive set of rules.
Der Befund zum demografischen Wandel ist eindeutig: Die Bevölkerung in Deutschland altert und schrumpft. Dieser Prozess wird sich zunehmend auf den Arbeitsmarkt auswirken. Altersstrukturen in Unternehmen verschieben sich. Mit den absehbaren Verrentungswellen droht ein Verlust an Erfahrungswissen und Know-how, wenn Unternehmen diesem nicht mit Maßnahmen zum Wissenstransfer entgegentreten. Parallel verändert sich das Verhältnis von Alter, Ruhestand und Arbeit. Menschen im Rentenalter leben heute länger und gesünder, sie sind leistungsfähig und ihre Motivation zur nachberuflichen Aktivität steigt. Insbesondere ehemalige Fach- und Führungskräfte beteiligen sich trotz eines durch den Rentenbezug gesicherten Lebensunterhalts zunehmend als sogenannte Senior-Experten am Arbeitsmarkt oder engagieren sich freiwillig.
Vor dem Hintergrund dieser Entwicklung geht diese Masterarbeit der Frage nach, welche Bedeutung der Wissenstransfer beim Einsatz von Senior-Experten hat und untersucht Faktoren, die ihn beeinflussen. Die Arbeit stützt sich methodisch auf eine umfassende Literaturanalyse, einen typenbildenden Vergleich von Senior-Experten-Organisationen sowie auf eine qualitative Erhebung in Form von Leitfadeninterviews. Der theoretische Teil befasst sich mit drei Themenkomplexen: Alter und Arbeit, Wissensmanagement sowie Expertiseforschung. Im Mittelpunkt der Arbeit stehen relevante individuelle Einflussfaktoren, Begriffe, Institutionen und Methoden. Der empirische Teil steuert Erfahrungswerte aus der organisationalen Praxis bei.
Die Auswertung ergibt, dass Senior-Experten aufgrund ihrer Leistungsfähigkeit und Leistungsbereitschaft prädestiniert dafür sind, ihre Ressourcen zu nutzen, um ihr in vielen Berufsjahren erworbenes Wissen an die nächste Generation weiterzugeben. Der Wissenstransfer stellt das vorrangige Ziel beim Einsatz von Senior-Experten dar und nimmt folglich einen hohen Stellenwert ein. Das Bewusstsein für Faktoren, die den Wissenstransfer beeinflussen, kann hingegen noch geschärft werden. Wissenstransfermethoden mit einer personalisierten Herangehensweise können den Austausch von komplexem, schwer artikulierbarem Erfahrungs- und Expertenwissen fördern.
Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der Masterarbeit eine Begriffsbestimmung unternommen. Mit Hilfe dreier Methoden, einer Auswertung von relevanter Fachliteratur, die Untersuchung von einschlägigen Stellenausschreibungen und das Führen von Experteninterviews, wird ein Kompetenzprofil für Information Professionals erstellt. 16 Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst.
Die technischen Entwicklungen der heutigen Zeit ermöglichen neue Wege in der Kommunikation, die zunehmend auch auf andere Bereiche, beispielsweise das Lernen, übergreifen. Die vorliegende Arbeit beschäftigt sich mit den Einsatzmöglichkeiten des Mikrolernens in der betrieblichen Weiterbildung. Darüber hinaus wird der Frage nachgegangen, inwieweit die Berücksichtigung der Persönlichkeitsdimension der Extraversion mit ihren beiden Polen Intro- und Extraversion bei der didaktischen Gestaltung von Weiterbildungsmaßnahmen möglich und sinnvoll ist. Dafür wird die aktuelle wissenschaftliche Literatur zu den Themen Mikrolernen, Wissensmanagement und betriebliche Weiterbildung analysiert. Das Thema der Persönlichkeitsdimension Extraversion wird speziell unter dem Aspekt des Lernens betrachtet. Außerdem werden betriebswirtschaftliche und rechtliche Aspekte untersucht, die bei der Einführung neuer Lernformen in der betrieblichen Weiterbildung zu beachten sind. Das Ergebnis ist ein umfassender Leitfaden für die didaktische Gestaltung von Mikrolerneinheiten, die in ein ganzheitliches betriebliches Weiterbildungskonzept eingebettet sind. Eine praktische Checkliste für die Umsetzung im Unternehmen vervollständigt den Leitfaden.
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
Mit der Entscheidung für eine Promotion stellt sich häufig die Frage nach deren Finanzierung. Eine Möglichkeit stellt die Finanzierung durch ein Promotionsstipendium dar. Die vorliegende Arbeit dient der Erstorientierung über Promotionsstipendien. Ziel der Arbeit ist es, Promotionsinteressierten der Abteilung Betriebswirtschaftslehre an der Hochschule Hannover einen Überblick über das aktuelle Stipendienangebot zu geben. Es wurden Stipendien in Deutschland recherchiert, die aktuell zur finanziellen Unterstützung von Promotionsvorhaben an deutschen Hochschuleinrichtungen mit wirtschaftswissenschaftlichem Schwerpunkt vergeben werden.
Grundlage dieses Buches sind Vorträge und Veröffentlichungen, die in einem Zeitraum von etwa 10 Jahren entstanden. In dieser Zeit setzte sich die Digitalfotografie endgültig durch und die filmbasierte Fototechnik wurde zum Nischenprodukt.
Dieses Buch ist keine „Fotoschule“ und die Kenntnis der beschriebenen Zusammenhänge ist für die Bedienung digitaler Kameras nicht erforderlich. Die Zielgruppe sind Fotografen, welche die technischen Grundlagen verstehen möchten. Der Text entstand im Sinne einer populär-wissenschaftlichen Darstellung. Ziel ist die Erkenntnis: „Ach so geht das“.
Inhalt:
• Die Sache mit der Auflösung
• Scanner
• Digitalkameras
• Die Digitalisierung
• Grundbegriffe des Farbmanagements
• Speichern und Archivieren von Bilddaten
• Der Tinten(strahl)druck
• Glossar
Das Forschungsinformationssystem VIVO bietet als Linked-Data-basiertes System die Möglichkeit, Daten aus anderen Quellen wiederzuverwenden. In der Praxis kann man dabei auf Konvertierungsprobleme stoßen. Oft liegen Daten nur in tabellarischem Format vor, z.B. als CSV-Datei. Zur Konvertierung dieser Daten existieren verschiedene Werkzeuge, viele dieser Werkzeuge erfordern jedoch entweder spezielle technische Umgebungen (oft Linux-Systeme) oder sie sind in der Bedienung sehr anspruchsvoll. Im Artikel wird ein Workflow für die Konvertierung von Daten aus GeoNames für VIVO mit Google Refine beschrieben.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
Mobile Kommunikationsgeräte wie Smartphones revolutionieren unseren (Arbeits-)Alltag. Realität und Virtualität verschmelzen, und das Begriffspaar drückt keinen Gegensatz mehr aus. Sogenannte virtuelle Teams sind weit verbreitet und bisher überwiegend in Hinblick auf Führungsthematiken bearbeitet. Gruppen, die computergestützt kommunizieren, existieren aber inzwischen in allen Lebensbereichen. Damit überträgt sich das „Hier und Jetzt“-Prinzip der Gruppendynamik in die computervermittelte Kommunikationswelt. Diese Verlagerung ist auch
unter gruppendynamischen Aspekten weiter zu erforschen.
M2M (machine-to-machine) systems use various communication technologies for automatically monitoring and controlling machines. In M2M systems, each machine emits a continuous stream of data records, which must be analyzed in real-time. Intelligent M2M systems should be able to diagnose their actual states and to trigger appropriate actions as soon as critical situations occur. In this paper, we show how complex event processing (CEP) can be used as the key technology for intelligent M2M systems. We provide an event-driven architecture that is adapted to the M2M domain. In particular, we define different models for the M2M domain, M2M machine states and M2M events. Furthermore, we present a general reference architecture defining the main stages of processing machine data. To prove the usefulness of our approach, we consider two real-world examples ‘solar power plants’ and ‘printers’, which show how easily the general architecture can be extended to concrete M2M scenarios.
The IfBB – Institute for Bioplastics and Biocomposites is a research institute within the Hochschule Hannover, University of Applied Sciences and Arts, which was established in 2011 to respond to the growing need for expert knowledge in the area of bioplastics. With its practice-oriented research and its collaboration with industrial partners, the IfBB is able to shore up the market for bioplastics and, in addition, foster unbiased public awareness and understanding of the topic. As an independent research-led expert institution for bioplastics, the IfBB is willing to share its expertise, research findings and data with any interested party via the Internet, online and offline publications or at fairs and conferences. In carrying on these efforts, substantial information regarding market trends, processes and resource needs for bioplastics is being presented here in a concise format, in addition to the more detailed and comprehensive publication and “Engineering Biopolymers”1.
One of our main concerns is to furnish a more rational basis for discussing bioplastics and use fact-based arguments in the public discourse. Furthermore, “Biopolymers – facts and statistics” aims to provide specific, qualified answers easily and quickly for decision-makers in particular from public administration and the industrial sector. Therefore, this publication is made up like a set of rules and standards and largely foregoes textual detail. It offers extensive market-relevant and technical facts presented in graphs and charts, which means that the information is much easier to grasp. The reader can expect comparative market figures for various materials, regions, applications, process routes, agricultural land use or resource consumption, production capacities, geographic distribution, etc.
The velocity distribution of He atoms evaporating from a slab of liquid dodecane has been simulated. The distribution composed of ∼10 000 He trajectories is shifted to fractionally faster velocities as compared to a Maxwell–Boltzmann distribution at the temperature of the liquid dodecane with an average translational energy of 1.05 × 2RT (or 1.08 × 2RT after correction for a cylindrical liquid jet), compared to the experimental work by Nathanson and co-workers (1.14 × 2RT) on liquid jets. Analysis of the trajectories allows us to infer mechanistic information about the modes of evaporation, and their contribution to the overall velocity distribution.
The Wnt signaling pathway has been associated with many essential cell processes. This study aims to examine the effects of Wnt signaling on proliferation of cultured HEK293T cells. Cells were incubated with Wnt3a, and the activation of the Wnt pathway was followed by analysis of the level of the β-catenin protein and of the expression levels of the target genes MYC and CCND1. The level of β-catenin protein increased up to fourfold. While the mRNA levels of c-Myc and cyclin D1 increased slightly, the protein levels increased up to a factor of 1.5. Remarkably, MTT and BrdU assays showed different results when measuring the proliferation rate of Wnt3a stimulated HEK293T cells. In the BrdU assays an increase of the proliferation rate could be detected, which correlated to the applied Wnt3a concentration. Oppositely, this correlation could not be shown in the MTT assays. The MTT results, which are based on the mitochondrial activity, were confirmed by analysis of the succinate dehydrogenase complex by immunofluorescence and by western blotting. Taken together, our study shows that Wnt3a activates proliferation of HEK293 cells. These effects can be detected by measuring DNA synthesis rather than by measuring changes of mitochondrial activity.
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation.
Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche.
In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen.
Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Ziel des Projektes war es, nominative Grundlagen für die Kriterien eines Performace-Quality-Labels (PQL) für LED-Leuchten zu erarbeiten. Unter dem PQL wird ein Qualitäts- und Energielabel verstanden, das für LED-Produkte auf Grundlage der aktuellen und sich entwickelnden Normensituation erarbeitet werden soll. Durch das Bestimmen der für eine gute Produktqualität erforderlichen Faktoren, soll durch die beteiligten Forschungseinrichtungen ein Katalog von Mindestanforderungen für LED-Leuchten entwickelt werden. Auf der anderen Seite sollen der Leuchtenindustrie konkrete Hinweise für die Entwicklung und Optimierung von LED-Leuchten bezüglich der im Projekt geforderten Werte zur Verfügung gestellt werden.
Ergebnis: Es wurde die Alterung von Hoch- und Mittelleistungs-LEDs bei verschiedenen Strömen und Boardtemperaturen hinsichtlich Lichtstrom, Farbort, Spektren und Änderung des thermischen Widerstands untersucht, um die Lebensdauer der LEDs durch eine Extrapolation herstellerunabhängig ermitteln und den Leuchtenherstellern verfügbar zu machen. Durch umfangreiche Untersuchungen zu ESD und EMV-Eigenschaften sowie Temperatur- und Stromverhalten der LEDs, war eine thermische und elektrische Modellierung möglich. Ziel: ein korrektes Datenblatt für die LEDs seitens der LED-Hersteller zu erarbeiten sowie ein relevantes Binning-Schema mit Beurteilungskriterien für die verschiedenen Binning-Klassen zu erstellen. Zudem lassen sich Hinweise ableiten, wie zukünftige LED-Leuchten mit RGB- und weißen LEDs auf Farbort- und Lichtstromkonstanz bei verschiedenen Temperatur- und Stromänderungen geregelt werden können. Durch die Vergleichsmessungen von mehr als 70 LED-Leuchten konnten die Schwachstellen und Unzulänglichkeiten in der qualitätssicherenden Kette ermittelt und mit den Firmen besprochen werden. Die Auswertung der an der TU Darmstadt gealteten LED-Leuchten konnte der Leuchtenindustrie konkrete Hinweise über Alterungsmechanismen, thermisches Management bei verschiedenen Betriebstemperaturen und die Restwelligkeit der LED-Ströme geben. Zudem wurden Faktoren erarbeitet, wie die LED-Leuchte durch Materialauswahl (Wärmeleitpasten, Dichtungsring), durch konstruktive Kabelführung und Elektronik-Auswahl an Zuverlässigkeit gewinnen kann. Eine Datenbank mit einer Typisierung der LED-Fehler, Entstehungsorte, Ursachen und wirtschaftlicher Folge konnte erstellt und mit der Leuchtenindustrie und professionellen Anwendern ausgetauscht und gepflegt werden.
Die Grundlage für die Akzeptanz der LED-Beleuchtung durch die professionellen und privaten Anwender kann nur geschaffen werden, wenn die Licht- und Farbqualität untersucht und deren Mindestwerte für hochqualitive LED-Produkte definiert werden können. An Hand der Untersuchung der Farbwiedergabeskalierung konnte gezeigt werden, dass LED-Systeme mit guter Farbwiedergabe eine Ra-Wert von 86 und R9 für gesättigte rote Farben von mehr als 45 aufweisen sollten. Um die Detektierbarkeit der stroboskopischen Erscheinungen von PQWM-betriebenen LEDs zu minimieren sollte die Pulsfrequenz nicht weniger als als 350 Hz – 400 Hz betragen.
Alle gewonnenen optischen, lichttechnischen, thermischen und elektrischen Erkenntnisse und Erfahrungen wurden während der Projektarbeit systematisch zusammengestellt und mit Zielwerten bzw. Grenzwerten versehen, so dass sie über die Qualitätsmerkmale (Performance Quality Label) in drei Vorträgen der Leuchtenindustrie präsentiert werden konnten. Die Ziele des Projekts konnten im vollen Umfang erfüllt werden. Die Erkenntnisse vom Projekt konnten durch sechs reguläre Treffen, zwei Sonderworkshops, drei VDE/ZVEI Workshops und zahlreiche Publikationen, Buchbeiträge und Konferenzbeiträge an die Lichtindustrie, Lichtplaner und weitere Interessierte transferiert werden.
Das IGF-Vorhaben 14 LBG der Forschungsvereinigung Elektrotechnik wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Die vorliegende Studienarbeit geht der Fragestellung nach, ob Hochschulabsolventen mit Migrationshintergrund, im Gegensatz zu Hochschulabsolventen ohne Migrationshintergrund, in einem fiktiven Bewerbungsprozess benachteiligt werden. Es erfolgte eine Untersuchung hinsichtlich der mittleren Einstellungswahrscheinlichkeit. Dazu wurden eine fiktive Stellenanzeige und Bewerbungsunterlagen erstellt. Diese unterscheiden sich lediglich in den Namen der Bewerber, welche verschiedenen Nationalitäten zuzuordnen sind. Anschließend sollten Studierende der Hochschule Hannover anhand dieser Studienunterlagen beurteilen, mit welcher Wahrscheinlichkeit sie den Bewerber einstellen würden. Die Analyse der Ergebnisse ergab, dass sich der Mittelwert der Einstellungswahrscheinlichkeit nicht signifikant unterschied. Somit konnte keine Benachteiligung der Hochschulabsolventen mit Migrationshintergrund im Vergleich zu denjenigen ohne Migrationshintergrund durch Studierende der Hochschule Hannover festgestellt werden.
In diesem Beitrag wird der Energieertrag von Flussturbinen abgeschätzt. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Die Energieberechnung erfolgt an den Flüssen Oberrhein, Weser, Werra und Unterelbe. Unter der Annahme von mittleren Fließgeschwindigkeiten und Werten zum Ausnutzungsgrad von frei fahrenden Wasserturbinen wird der Energieertrag ermittelt. Bei Einsatz von Flussturbinen mit einem Laufraddurchmesser D = 2,5 m und im Mittel 33 Turbinen je km ergibt sich eine jährliche Gesamtenergie von 1,2 TWh. Dies sind mehr als 10% des in einer BMBF-Studie ermittelten Energiepotenzials der frei fließenden Strecken von Fließgewässern in Deutschland mit einem Einzugsgebiet von mehr als 10 km2.
In diesem Beitrag wird die Möglichkeit dargestellt, wie Belastungsspitzen beim Betrieb von Flussturbinen in Inselnetzen durch die kinetische Energie des Wassers abgedeckt werden können. Als Beispiel dienen dabei Kühlgeräte für Lebensmittel. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Sie stellen eine Möglichkeit zur Energieversorgung von kleinen Siedlungen ohne öffentliche Stromversorgung dar. Der besondere Vorteil ist, dass sie ohne aufwändige Bauwerke zur Wasserführung auskommen.
Bei der Versorgung von Inselnetzen muss die Turbine alleine die benötigte Leistung bereitstellen. Dies gilt auch für die Abdeckung von Belastungsspitzen. In diesem Beitrag wird anhand von Beispielrechnen dargestellt, welches Potenzial die kinetische Energie des Wassers in der Turbine hat, um die Belastungsspitzen abzudecken. Die Berechnungen an Kühlgeräten zeigen, dass das Einschalten der Kühlaggregate ein kritischer Betriebspunkt beim Betrieb von Flussturbinen in Inselnetzen sein kann. Dies gilt besonders dann, wenn die stationäre Leistung bereits nahe an der verfügbaren Leistung ist.
Hier muss in recht kurzer Zeit eine große elektrische Arbeit zur Verfügung gestellt werden, die Leistung also in kurzer Zeit ansteigen und anschließend wieder abfallen. Die Abschätzung der elektrischen Arbeit, die sich aus der kinetischen Energie des Wassers in der Turbine gewinnen lässt, zeigt aber, dass durch Absenken der Fließgeschwindigkeit kurzfristig die benötigte elektrische Leistung und Arbeit bereit gestellt werden kann.
In den letzten Jahren hat sich der Auskunftsdienst in wissenschaftlichen Bibliotheken gewandelt. Die bibliothekarische Auskunft setzt zahlreiche unterschiedliche Kommunikationsformen ein, um dem Kunden die gewünschten Informationen zukommen zu lassen. Neben den konventionellen Auskunftsmitteln setzen die Bibliotheken verstärkt auf die elektronischen Auskunftsdienste. Seit dem Jahr 2004 haben Chatbots als Auskunftsmittel einen festen Platz in diesem Bereich. Chatbots sind virtuelle Assistenten, die mit Hilfe einer hinterlegten Datenbank die Fragen der Kunden beantworten. Die vorliegende Arbeit stellt die vier Chatbots ASKademicus, Stella, Albot und Hugo Blotius näher vor. Anhand von verschiedener Literatur wird eine Checkliste für eine Qualitätsüberprüfung von Chatbots erarbeitet. Am Beispiel von Hugo Blotius, dem Chatbot der Österreichischen National-bibliothek aus Wien werden die Chatbots analysiert und bewertet. Das Ziel dieser Arbeit ist es, die Thematik der Chatbots näher zu betrachten und deren Nutzungsberechtigung im Bibliothekswesen nachzuweisen. Die durchgeführte Analyse konnte eine Nutzungsberechtigung der bibliothekarischen Chatbots belegen und Hugo Blotius als wertvolle Ergänzung des Auskunftsangebotes der Bibliothek bestätigen.
Die dargestellte Kompetenzmatrix beschreibt die in reliigons- und gemeindepädagogischen Bachelorstudiengängen zu erwerbenden Kompetenzen entlang von fünf inhaltlichen Kompetenzfeldern und orientiert sich dabei an den Kompetenzkategorien (Wissen - Fertigkeiten - Personale Kompetenz) des Deutschen Qualifikationsrahmens (DQR).
Diese Kompetenzmatrix ist Grundlage des Zwei-Fächer-Bachelorstudiengangs „Religionspädagogik und Soziale Arbeit“ an der Hochschule Hannover, der gleichermaßen für eine Berufstätigkeit als DiakonIn bzw. GemeindepädagogIn und als SozialarbeiterIn qualifiziert.
Der Anglizismus „Gender Studies“ bezeichnet in Deutschland faktisch Frauenforschung, also Forschung von Frauen über Frauen für Frauen. Es gibt sie seit mehr als drei Jahrzehnten. Die Zahl der Gender - Professuren beträgt mittlerweile ca. 250. Sie binden finanzielle Ressourcen in entsprechender Höhe. Das ist nicht der einzige, aber doch ein Grund, nach dem wissenschaftlichen Output dieser Forschungen zu fragen.
In Niedersachsen ist 2013 eine Forschungsevaluation zum Thema Gender Studies durchgeführt worden. Möglicherweise handelt es dabei um die erste und einzige Untersuchung ihrer Art. Der Ergebnisbericht dieser Evaluation wird hier dargestellt und kritisch kommentiert. Das Ergebnis der Kritik lautet, dass gar keine Evaluation des Forschungs-Outputs vorgenommen worden ist, sondern dass es der beauftragten Kommission nur darum ging, die Input-Strukturen zu stärken, indem mehr Stellen, mehr finanzielle Mittel und noch weniger Kontrollen gefordert wurden.
Background: After kidney transplantation, immunosuppressive therapy causes impaired cellular immune defense leading to an increased risk of viral complications. Trough level monitoring of immunosuppressants is insufficient to estimate the individual intensity of immunosuppression. We have already shown that virus-specific T cells (Tvis) correlate with control of virus replication as well as with the intensity of immunosuppression. The multicentre IVIST01-trial should prove that additional steering of immunosuppressive and antiviral therapy by Tvis levels leads to better graft function by avoidance of over-immunosuppression (for example, viral infections) and drug toxicity (for example, nephrotoxicity).
Methods/design: The IVIST-trial starts 4 weeks after transplantation. Sixty-four pediatric kidney recipients are randomized either to a non-intervention group that is only treated conservatively or to an intervention group with additional monitoring by Tvis. The randomization is stratified by centre and cytomegalovirus (CMV) prophylaxis. In both groups the immunosuppressive medication (cyclosporine A and everolimus) is adopted in the same target range of trough levels. In the non-intervention group the immunosuppressive therapy (cyclosporine A and everolimus) is only steered by classical trough level monitoring and the antiviral therapy of a CMV infection is performed according to a standard protocol. In contrast, in the intervention group the dose of immunosuppressants is individually adopted according to Tvis levels as a direct measure of the intensity of immunosuppression in addition to classical trough level monitoring. In case of CMV infection or reactivation the antiviral management is based on the individual CMV-specific immune defense assessed by the CMV-Tvis level. Primary endpoint of the study is the glomerular filtration rate 2 years after transplantation; secondary endpoints are the number and severity of viral infections and the incidence of side effects of immunosuppressive and antiviral drugs.
Discussion: This IVIST01-trial will answer the question whether the new concept of steering immunosuppressive and antiviral therapy by Tvis levels leads to better future graft function. In terms of an effect-related drug monitoring, the study design aims to realize a personalization of immunosuppressive and antiviral management after transplantation. Based on the IVIST01-trial, immunomonitoring by Tvis might be incorporated into routine care after kidney transplantation.
Das vorliegende Papier soll zur Unterstützung der Diskussion um Personalmindeststandards
im Pflegebereich dienen. Dazu wird zunächst ein Rückblick auf die Vorgeschichte und Hintergründe des Stellenabbaus sowie die Auswirkungen des Pflege-Förderprogramms und dessen Überführung in das DRG-System gegeben. Da die Frage einer staatlichen Regulierung der Personalbesetzung im Pflegedienst der Krankenhäuser sehr eng mit der Verteilung der Gesetzgebungskompetenzen zwischen Bund und Ländern verbunden ist, werden im darauf folgenden Kapitel Möglichkeiten und Grenzen einer Regulierung durch Landesrecht oder Bundesrecht vorgestellt und diskutiert. Daran schließt sich ein Überblick über die wichtigsten bisher vorgelegten Überlegungen und Vorschläge für eine staatliche Regulierung der Personalbesetzung an. Im darauf folgenden Kapitel werden die bisherigen Vorschläge einer kritischen Analyse unterzogen, dabei wird insbesondere auf die Frage der Eignung des DRG-Systems als Ansatzpunkt für eine Regulierung der Personalbesetzung eingegangen. Daran anschließend werden zwei Regulierungsansätze, die möglicherweise besser geeignet wären, um verbindlich einzuhaltende Personalbesetzungsstandards nicht nur vorzugeben, sondern auch durchzusetzen: Eine Regulierung auf Landesebene im Rahmen der Krankenhausplanung und eine Regulierung auf Bundesebene, die den OPS nutzt, um die Einhaltung vorgegebener Personalbesetzungsstandards zur Bedingung für die Kodierung und somit auch Abrechnung von Leistungen macht. Das letzte Kapitel ist der Frage der Finanzierung verbindlich eizuhaltender Personalbesetzungsstandards gewidmet.
Zunächst werden ausgewählte Theorien und Modelle zu Persönlichkeit dargestellt, der Bezug zu Führungseigenschaften und Führungsverhalten wird gezogen. Im dritten Kapitel wird Führung definiert und vertiefend erläutert. Nach einem Modell von Schulz von Thun werden in den nachfolgenden Kapiteln Wesensgemäße Führung, Situationsgerechte Führung sowie Metakommunikative Führung anhand ausgewählter Modelle erörtert. Danach wird spezifisch auf die Führungsbeziehung eingegangen (wobei natürlich auch Kommunikation sich bereits mit der Beziehung von Führungskraft und Mitarbeiter befasst). Abschließend werden die eingangs aufgeworfenen Fragen beantwortet.
Internetpräsenzen von Bibliotheken müssen zunehmend mit kommerziellen oder frei zugänglichen Informationsangeboten konkurrieren. Um sich von diesen Angeboten abzuheben, müssen nicht nur, wie gehabt, qualitativ hochwertige Informationen bereitgestellt werden - der Zugang zu diesen Informationen muss nutzerfreundlich gestaltet werden und sich an Usability-Standards orientieren, um für den Nutzer attraktiv zu sein.
In der Bachelorarbeit wird eine Studie zur Usability der Website der Landesbibliothek Oldenburg durchgeführt. Nach einer Einführung in die Thematik der Usability und der Analyse des IST-Zustandes der Website erfolgt eine Evaluation anhand von vier Methoden. Basierend auf Evaluationen mittels Personas, Heuristiken, Thinking-Aloud-Tests und einer Logfile-Analyse werden Usability-Probleme der Website ermittelt und anschließend Empfehlungen zur Verbesserung der Usability gegeben.
Normdaten in Wikidata
(2014)
Wikidata ist eine freie, gemeinsame Datenbank und Projekt der Wikimedia-Foundation. Ziel ist es, strukturierte Daten zu zentralisieren und nutzbar zu machen. Dieses Handbuch bietet mit detaillierten und bebilderten Texten eine Anleitung zur Unterstützung des Wikidata-Projektes. Ein theoretischer und ein praktischer Teil erläutern die wichtigsten Begriffe und erklären Wikidata Schritt für Schritt. Dabei wird ein Schwerpunkt auf das Thema Normdaten in Wikidata gelegt. Ein Glossar sowie eine FAQ am Ende des Handbuchs geben Hilfestellung bei Begriffen und Fragen.
Dieses Handbuch entstand im Rahmen eines Projektseminars im Sommersemester 2014 an der Hochschule Hannover. Alle Inhalte des Handbuchs stehen auf http://hshdb.github.io/normdaten-in-wikidata unter den Bedingungen der CC-BY-SA Lizenz zur freien Verfügung.
Das virtuelle soziale Netzwerk Facebook feiert seinen zehnten Geburtstag. Mit über einer Milliarde aktiver Nutzer ist es seit seiner Entstehung zur weltweit größten Internetplattform zur Kommunikation avanciert. Dennoch gibt es in Deutschland eine große Anzahl an Menschen, die sich zwar täglich im Internet bewegt, aber auf eine Mitgliedschaft bei Facebook verzichtet. In dieser Arbeit werden die Gründe untersucht, warum manche Personen Facebook nicht nutzen. Die Leitfrage der Arbeit lautet: „Warum nutzen ausgewählte deutsche Internetnutzer Facebook nicht?“. Es wird zwischen zwei unterschiedlichen Personenkreisen, den Nicht- und den Ex-Nutzern, unterschieden. Basierend auf Leitfadeninterviews mit 25 Befragten, die mittels einer qualitativen Inhaltsanalyse ausgewertet werden, werden elf verschiedene Gründe für eine Verweigerung von Facebook identifiziert. Für die Nicht-Nutzer stellt die Art der Kommunikation den zentralen Grund dar, Facebook nicht zu verwenden. Die Ex-Nutzer wiederum sehen den fehlenden Nutzen der Anwendung als wichtigstes Argument gegen Facebook.
Ein Forschungsteam unter Leitung von Prof. Dr. Romppel hat zwischen 1.8.2011 und 31.7.2014 die Betreuung von Kindern in der Großtagespflege untersucht.
Mit der Neufassung des § 24 Abs. 2 SGB VIII zum 1. August 2013 besteht für alle Kinder ab dem 2. Lebensjahr ein Rechtsanspruch auf individuelle Förderung. Der erwarteten wachsenden Nachfrage nach Plätzen für Kinder unter 3 Jahren soll neben dem Krippenausbau auch mit einem Ausbau der Kindertagespflege, in Niedersachsen besonders auch der Großtagespflege, begegnet werden. Großtagespflegestellen sind rechtlich ein gleichwertiges Angebot zur Krippe. Die vorliegende Untersuchung in Niedersachsen geht zum einen der Frage nach, ob die Qualität der pädagogischen Arbeit in den Großtagespflegestellen diesem Anspruch genügen kann. Mit der TAS-R, einem Beobachtungs- und Bewertungsverfahren werden ausgewählte Großtagespflegestellen beurteilt und mit strukturierten Interviews zu ihrer Arbeit befragt. Zudem wird die telefonische und schriftliche Befragung aller Jugendämter Niedersachsens zur Organisation der Fachberatung sowie zur Struktur der finanziellen und fachlichen Unterstützung der Großtagespflegestellen vor Ort vorgestellt. Die Ergebnisse und Empfehlungen für die Verantwortlichen verweisen auf Handlungsbedarf.
Mit dieser Arbeit soll ein Beitrag zur Weiterentwicklung der Diskussion zum Thema Resilienz geleistet werden. Zielstellung ist es, zu einer Elaboration des Konstrukts und seiner Faktoren und Facetten beizutragen. Resilienz wird dabei als Persönlichkeitsmerkmal verstanden, das den Menschen befähigt, schwierige Lebenssituationen ohne anhaltende Beeinträchtigung zu überstehen (Duden, 2014). Die teststatistische Untersuchung der englischsprachigen RS-25 (Wagnild/Young, 1993) und der deutschsprachigen RS-25 (Schumacher u.a., 2005) zeigt, dass bisher keine überzeugenden Subskalenvorschläge vorliegen. Aus diesem Grund wird eine Vier-Subskalenlösung entwickelt (Resilienzskala RS-32). Die vier Subskalen Ich-Stärke, Lebensfreude, Hartnäckigkeit und Wirklichkeitssinn erfassen das Konstrukt Resilienz umfassend. Die RS-32 deckt die Facetten des Vier-Subskalenvorschlags ab und kann als Basis für empirische Untersuchungen dienen.
Vertreter der Generation Y, Personen, die in den 1980er Jahren geboren wurden, drängen verstärkt in den Arbeitsmarkt. Ihre Wert- und Erwartungshaltung ist deshalb von großem Interesse für Unternehmen, die mit Themen wie dem Fachkräftemangel und demografischen Wandel konfrontiert sind und die Leistungsträger langfristig binden müssen. Ziel dieser Hausarbeit ist herauszufinden, wie ausgeprägt die emotionale Bindung der Generation Y in Unternehmen allgemein ist und unter welcher Voraussetzung affektives Commitment bei der Generation Y entsteht. Ein weiteres Ziel ist die Erarbeitung von Handlungsempfehlungen bezüglich des Personalmanagements von Generation Y in Unternehmen. Generation Y hat hohe Erwartungen an Arbeitsinhalt, Selbstverwirklichungsmöglichkeiten, Aus- und Weiterbildungsmaßnahmen, Unternehmenswerte und -ethik, Sinnhaftigkeit der Tätigkeit und Teamarbeit. Vertreter dieser Generation wünschen sich Wertschätzung, eine gute Beziehung zum Vorgesetzten, viele Partizipationsmöglichkeiten, regelmäßiges Feedback und Flexibilität. Weiterhin sind Work-Life-Balance, Karriereoptionen, Einkommen, digitale Vernetzung und Arbeitsplatzsicherheit wichtige Themen für diese Generation. Affektives Commitment entsteht durch Erfüllung von Erwartungen. Generation Y ist nur bedingt affektiv gebunden, tendiert zu häufigen Unternehmenswechseln und ist durch eine schwache Loyalität gekennzeichnet. Dies liegt hauptsächlich daran, dass die Erwartungen dieser Generation nicht erfüllt werden. Es wird empfohlen HR-Maßnahmen zu implementieren, die auf Erfüllung der Erwartungen von Generation Y abzielen.
The drugs we use to treat any condition – from an innocuous cough to a life-threatening cancer – are the outcome of painstaking human clinical trials. These trials are the only way to credibly determine the safety and efficacy of drugs. In recent years there has been a clear shift in clinical trial sites from core developed countries like USA, European countries to developing countries like India, China, South American countries. This shift is related to challenges and opportunities like costs of trials, recruitment issues, and regulatory challenges in developed vs. developing countries. Developing countries and developed countries have their unique disease burden patterns based on various parameters like but not limited to age, health care facilities, health insurance, sanitary conditions, environmental issues, education, nutrition
and GDP. Previous studies have reported that many of the important global diseases are not much explored in clinical trials and many published clinical trials have very less international health relevance. This study was aimed at finding the correlation between disease burdens, number of clinical trials done and trial success rates. We compared 2005 - 2010 Global Burden of Disease data for Germany, India and number of clinical trials from clinicaltrials.gov database done in the same period. Our findings indicated that there was a good correlation between the disease burden and clinical trials for Germany in 2005 and 2010. For India in 2005 there was a moderate positive correlation, 2010 data showed the improvement in India in terms of match between disease burden and clinical trials. But careful observation of the data shows still a need for more trials on Communicable, maternal, neonatal and nutritional disorders.
Nanotechnology is emerging as one of the key technologies of the 21st century and is expected to enable developments across a wide range of sectors that can benefit citizens. Nanomedicine is an application of nanotechnology in the areas of healthcare, disease diagnosis, treatment and prevention of disease. Nanomedicines pose problem of nanotoxicity related to factors like size, shape, specific surface area, surface morphology, and crystallinity. Currently, nanomedicines are regulated as medicinal products or as medical devices and there is no specific regulatory framework for nanotechnology-based products neither in the EU nor in the USA. This review presents a scheme for classification and regulatory approval process for nanotechnology based medicines.
Der deutsche Strommarkt befindet sich im Wandel von einer zentralen Stromerzeugung hin zu einer dezentralen. Eine wesentliche Rolle spielen in diesen Zusammenhang erneuerbare Energien, welche durch die Energiewende bis 2050 einen Anteil von mindestens 80 % des in Deutschland erzeugten Stroms ausmachen sollen. Diese haben jedoch den großen Nachteil, dass sie wetterbedingt eine hohe Volatilität aufweisen und eine geringe Planbarkeit der Stromerzeugung mit sich bringen. Um die Stabilität des Stromnetzes zu gewährleisten, müssen sich die erzeugte Strommenge und deren Verbrauch stets im Gleichgewicht befinden. Eine Möglichkeit, mit der Flexibilität der Erzeugung umzugehen, bietet das Konzept der virtuellen Kraftwerke. Diese sind ein Zusammenschluss vieler dezentraler Erzeugungsanlagen, welche von einer zentralen
technischen Steuerung koordiniert und gesteuert werden. Die vorliegende Arbeit soll einen Überblick über die aktuelle Situation auf dem Markt für virtuelle Kraftwerke geben. Mittels einer Expertenbefragung wurden diesbezüglich vier Hypothesen überprüft. Die Auswertung ergab, dass der Markt langfristig wächst und sich virtuelle Kraftwerke noch in der Erprobungsphase befinden. Entgegen gängigen Definitionen sind in virtuelle Kraftwerke häufig keine Speicher und Verbraucher integriert. Obwohl die Energieerzeugung ausschließlich mit erneuerbaren Energien möglich wäre, wird dies häufig nicht umgesetzt. Ein wichtiger Grund lag in dem vermehrten Einsatz von KWKAnlagen, welche überwiegend mit fossilen Brennstoffen betrieben werden.
In this paper, five ontologies are described, which include the event concepts. The paper provides an overview and comparison of existing event models. The main criteria for comparison are that there should be possibilities to model events with stretch in the time and location and participation of objects; however, there are other factors that should be taken into account as well. The paper also shows an example of using ontologies in complex event processing.
Background: Epidemiological and experimental studies suggest that exposure to ultrafine particles (UFP) might aggravate the allergic inflammation of the lung in asthmatics.
Methods: We exposed 12 allergic asthmatics in two subgroups in a double-blinded randomized cross-over design, first to freshly generated ultrafine carbon particles (64 μg/m3; 6.1 ± 0.4 × 105 particles/cm3 for 2 h) and then to filtered air or vice versa with a 28-day recovery period in-between. Eighteen hours after each exposure, grass pollen was instilled into a lung lobe via bronchoscopy. Another 24 hours later, inflammatory cells were collected by means of bronchoalveolar lavage (BAL). (Trial registration: NCT00527462)
Results: For the entire study group, inhalation of UFP by itself had no significant effect on the allergen induced
inflammatory response measured with total cell count as compared to exposure with filtered air (p = 0.188). However, the subgroup of subjects, which inhaled UFP during the first exposure, exhibited a significant increase in total BAL cells (p = 0.021), eosinophils (p = 0.031) and monocytes (p = 0.013) after filtered air exposure and subsequent allergen challenge 28 days later. Additionally, the potential of BAL cells to generate oxidant radicals was
significantly elevated at that time point. The subgroup that was exposed first to filtered air and 28 days later to UFP did not reveal differences between sessions.
Conclusions: Our data demonstrate that pre-allergen exposure to UFP had no acute effect on the allergic inflammation. However, the subgroup analysis lead to the speculation that inhaled UFP particles might have a long-term effect on the inflammatory course in asthmatic patients. This should be reconfirmed in further studies with an appropriate study design and sufficient number of subjects.
Background: Maintenance of metal homeostasis is crucial in bacterial pathogenicity as metal starvation is the most important mechanism in the nutritional immunity strategy of host cells. Thus, pathogenic bacteria have evolved sensitive metal scavenging systems to overcome this particular host defence mechanism. The ruminant pathogen Mycobacterium avium ssp. paratuberculosis (MAP) displays a unique gut tropism and causes a chronic progressive intestinal inflammation. MAP possesses eight conserved lineage specific large sequence polymorphisms (LSP), which distinguish MAP from its ancestral M. avium ssp. hominissuis or other M. avium subspecies. LSP14 and LSP15 harbour many genes proposed to be involved in metal homeostasis and have been suggested to substitute for a MAP specific, impaired mycobactin synthesis.
Results: In the present study, we found that a LSP14 located putative IrtAB-like iron transporter encoded by mptABC was induced by zinc but not by iron starvation. Heterologous reporter gene assays with the lacZ gene under control of the mptABC promoter in M. smegmatis (MSMEG) and in a MSMEGΔfurB deletion mutant revealed a zinc dependent, metalloregulator FurB mediated expression of mptABC via a conserved mycobacterial FurB recognition site. Deep sequencing of RNA from MAP cultures treated with the zinc chelator TPEN revealed that 70 genes responded to zinc limitation. Remarkably, 45 of these genes were located on a large genomic island of approximately 90 kb which harboured LSP14 and LSP15. Thirty-five of these genes were predicted to be controlled by FurB, due to the presence of putative binding sites. This clustering of zinc responsive genes was exclusively found in MAP and not in other mycobacteria.
Conclusions: Our data revealed a particular genomic signature for MAP given by a unique zinc specific locus, thereby suggesting an exceptional relevance of zinc for the metabolism of MAP. MAP seems to be well adapted to maintain zinc homeostasis which might contribute to the peculiarity of MAP pathogenicity.
Clinical scores and motion-capturing gait analysis are today’s gold standard for outcome measurement after knee arthroplasty, although they are criticized for bias and their ability to reflect patients’ actual quality of life has been questioned. In this context, mobile gait analysis systems have been introduced to overcome some of these limitations. This study used a previously developed mobile gait analysis system comprising three inertial sensor units to evaluate daily activities and sports. The sensors were taped to the lumbosacral junction and the thigh and shank of the affected limb. The annotated raw data was evaluated using our validated proprietary software. Six patients undergoing knee arthroplasty were examined the day before and 12 months after surgery. All patients reported a satisfactory outcome, although four patients still had limitations in their desired activities. In this context, feasible running speed demonstrated a good correlation with reported impairments in sports-related activities. Notably, knee flexion angle while descending stairs and the ability to stop abruptly when running exhibited good correlation with the clinical stability and proprioception of the knee. Moreover, fatigue effects were displayed in some patients. The introduced system appears to be suitable for outcome measurement after knee arthroplasty and has the potential to overcome some of the limitations of stationary gait labs while gathering additional meaningful parameters regarding the force limits of the knee.
Research information, i.e., data about research projects, organisations, researchers or research outputs such as publications or patents, is spread across the web, usually residing in institutional and personal web pages or in semi-open databases and information systems. While there exists a wealth of unstructured information, structured data is limited and often exposed following proprietary or less-established schemas and interfaces. Therefore, a holistic and consistent view on research information across organisational and national boundaries is not feasible. On the other hand, web crawling and information extraction techniques have matured throughout the last decade, allowing for automated approaches of harvesting, extracting and consolidating research information into a more coherent knowledge graph. In this work, we give an overview of the current state of the art in research information sharing on the web and present initial ideas towards a more holistic approach for boot-strapping research information from available web sources.
The technical, environmental and economic potential of hemp fines as a natural filler in bioplastics to produce biocomposites is the subject of this study – giving a holistic overview. Hemp fines are an agricultural by-product of the hemp fibres and shives production. Shives and fibres are for example used in the paper, animal bedding or composite area. About 15 to 20 wt.-% per kg hemp straw results in hemp fines after processing. In 2010 about 11,439 metric tons of hemp fines were produced in Europe. Hemp fines are an inhomogeneous material which includes hemp dust, shives and fibre. For these examinations the hemp fines are sieved in a further step with a tumbler sieving machine to obtain more specified fractions. The untreated hemp fines (ex work) as well as the sieved fractions are combined with a polylactide polymer (PLA) using a co-rotating twin screw extruder to produce biocomposites with different hemp fine content. By using an injection moulding machine standard test bars are produced to conduct several material tests. The Young’s modulus is increased and the impact strength reduced by hemp fines. With a content of above 15 wt.-% hemp fines are also improving the environmental (global warming potential) and economic performance in comparison to pure PLA.
The dependency of word similarity in vector space models on the frequency of words has been noted in a few studies, but has received very little attention. We study the influence of word frequency in a set of 10 000 randomly selected word pairs for a number of different combinations of feature weighting schemes and similarity measures. We find that the similarity of word pairs for all methods, except for the one using singular value decomposition to reduce the dimensionality of the feature space, is determined to a large extent by the frequency of the words. In a binary classification task of pairs of synonyms and unrelated words we find that for all similarity measures the results can be improved when we correct for the frequency bias.