Refine
Year of publication
- 2018 (80) (remove)
Document Type
- Article (34)
- Conference Proceeding (14)
- Bachelor Thesis (9)
- Master's Thesis (7)
- Working Paper (5)
- Report (4)
- Book (3)
- Part of a Book (1)
- Lecture (1)
- Periodical Part (1)
Has Fulltext
- yes (80)
Is part of the Bibliography
- no (80)
Keywords
- Mumbai (6)
- E-Learning (5)
- Grader (4)
- India (4)
- Indien (4)
- Knowledge (4)
- Serviceorientierte Architektur (4)
- Student (4)
- University students (4)
- Wissen (4)
This paper summarizes the results of a comprehensive statistical analysis on a corpus of open access articles and contained figures. It gives an insight into quantitative relationships between illustrations or types of illustrations, caption lengths, subjects, publishers, author affiliations, article citations and others.
Bereits zum dritten Mal in Folge nahm eine zehnköpfige Gruppe Studierender der Hochschule Hannover aus dem Vollzeit- sowie dem berufsbegleitenden Bachelor-Studiengang Informationsmanagement, in Begleitung zweier Dozentinnen, an der BOBCATSSS-Konferenz teil. Nachdem bisher ausschließlich auf der Hochschulwebseite und tagesaktuell im Blog über Erfahrungen und Erlebnisse während der drei BOBCATSSS-Exkursionen berichtet wurde, folgt hiermit nun ein zusammenhängender Beitrag über die diesjährige Konferenz vom 24. bis zum 26. Januar 2018 in Riga, Lettland. Die BOBCATSSS-Konferenz ist eine internationale Konferenz der Bibliotheks- und Informationswissenschaften. Im Gegensatz zu IFLA & Co wird sie fast ausschließlich von Studierenden wechselnder Universitäten in Europa ausgerichtet.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Zu einer Vielzahl von Vorlesungen gibt es Übungsaufgaben, anhand derer das theoretisch erlernte Wissen noch weiter vertieft, gefestigt oder praktisch angewandt werden kann. Klassischerweise erhalten alle Studierende hierfür dieselbe Aufgabe. Allerdings gibt es gute Gründe, für alle eine jeweils individualisierte Variante zu erstellen. Da es für eine einzelne Lehrperson unmöglich ist, für alle Studierenden individuelle Aufgaben zu konzipieren, wurden in anderen Arbeiten bereits Möglichkeiten entwickelt, variable Aufgaben zu formulieren, aus denen viele unterschiedliche Varianten generiert werden können. Diese Bachelorarbeit befasst sich mit dem Entwurf und der Implementierung eines Services, der diese Generierung automatisiert durchführen kann. Er soll unabhängig von einem konkreten Frontend sein und mit beliebigen Gradern zusammenarbeiten können.
Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung einer Entwicklungsumgebung als Android-App für den Einsatz im Schulunterricht. Die Anwendung ist mit der natürlichen Sprache zu bedienen und stellt eine Entwicklungsumgebung für das logische Programmierparadigma zur Verfügung. Die entstandene Software wird in einem Feldversuch mit Kindern der 4. Klassenstufe an einer Grundschule erprobt. Da Änderungen und neue Erkenntnisse möglichst effizient in die Software einfließen sollen, wurde die App nach der Clean Architecture umgesetzt. Die Ergebnisse aus der Feldforschung zeigen, dass die Schülerinnen und Schüler mit hoher Motivation an einem fachlichen Thema gearbeitet haben. Sie erlernten die Konzepte der Fakten, Regeln und der Wissensbasis und vertieften damit ihr Wissen zu geometrischen Formen in der Mathematik. Der Architekturansatz der App stellt dessen Vorteile deutlich an Fallbeispielen dar. Die Arbeit zeigt das spannende Feld der angewandten Wissenschaft, das die beiden Disziplinen Informatik und Didaktik verknüpft.
In der Lehre kommen seit einiger Zeit Autobewerter zum Einsatz, um automatisiert oder teilautomatisiert Lösungen von Lernenden zu Programmieraufgaben zu bewerten. Aus Sicht eines Betreibers von Autobewerter-Systemen erfordert letzteres meist die Ausführung von fremdem Programmcode in der eigenen Server-Umgebung. Hierbei ist Vorsicht geboten, da fehlerhafter oder angriffslustiger Programmcode verbotene Aktionen ausführen könnte.
An der Hochschule Hannover können Studierende Lösungen zu Programmieraufgaben verschiedener Programmiersprachen über das Lernmanagementsystem "moodle" einreichen. Die angeschlossene Middleware Grappa nimmt Lösungen anschließend entgegen und leitet diese an einen Autobewerter der zugehörigen Programmiersprache weiter.
Diese Arbeit befasst sich damit, Sicherheitsrisiken bei der Ausführung von fremdem Programmcode durch Autobewerter zu identifizieren und zu vermeiden. Hierzu gilt es, mögliche Angriffe herauszustellen und aktuelle, angemessene Technologien zu finden, um diese zu verhindern. Anschließend findet mit einer Technologie die Entwicklung einer abgesicherten Ausführungsumgebung für beliebige an die Middleware Grappa angebundene Autobewerter statt. Die exemplarische Einbettung der beiden Autobewerter Graja und Praktomat in die entwickelte Ausführungsumgebung soll unter Beweis stellen, dass es sich um eine generische Lösung mit wenig Overhead handelt.
The properties of these carbon nanostructures are determined by the structure and orientation of the graphitic domains during pyrolysis of carbon precursors. In this work, we investigated systematically the impact of creep stress during the stabilization process on the cyclization and molecular orientation of polyacrylonitrile as well as the graphitized structure after high temperature carbonization. Therefore, polyacrylonitrile (PAN) is electrospun and then stabilized with and without application of creep stress at different temperatures. The effect of creep stress on cyclization was monitored via Fourier transform IR spectroscopy (FTIR) and it was found that the degree of cyclization varies with the application of creep stress during the initial stages of cyclization at low temperatures (190°C and 210°C) in contrast to cyclization done at higher temperature (230°C). Herman molecular orientation factor was evaluated by polarized FTIR for PAN nanofibers cyclized with and without creep stress at 230°C-10 h. Subsequently, carbonization was performed at 1000°C and 1200°C for nanofibers cyclized at 230°C-10 h. Our results from XRD and Raman spectroscopy shows that the degree of graphitization and ordering of graphitic domains was enhanced for PAN nanofibers that were creep stressed during the cyclization process, even though both PAN nanofibers cyclized with creep stress and without creep stress showed the same amount of cyclized material. This increased degree of graphitization can be tracked to application of creep stress during the stabilization process which obviously favors the formation of sp2-hybridized carbon planes in the carbonization process. This finding highlights the impact of mechanical stress linking the cyclization of PAN nanofibers to graphitization.
Our results will pave the way for a deeper understanding of mechano-chemical processes to fabricate well-aligned graphitic domains which improves the mechanical and electrical properties of CNFs.
Einfluss von Industrie 4.0 auf die Anwendbarkeit von Lastmanagement in der industriellen Produktion
(2018)
Technische Energiemanagementsysteme (kurz und im Folgenden tEnMS) in der produzierenden Industrie dienen heute meinst dem Messen, Speichern und Auswerten von Energieverbrauchsdaten. Allerdings besteht auch die Möglichkeit der Vorhersage und aktiven Einflussnahme auf die Energieaufnahme von Produktionsumgebungen durch das tEnMS. Derartige Funktionen werden als Prognose- und Lastmanagementfunktionen bezeichnet. Industrielle Produktionsumgebungen erfahren im Rahmen von Industrie 4.0 einen Wandel. Dieser Beitrag soll aufzeigen, wie tEnMS durch den beschriebenen Wandel beeinflusst werden und welche Chancen sich daraus für zukünftige tEnMS ergeben.
Viele erwachsene Deutsche sind keine guten und geübten Leser. Sachtexte führen deswegen zu Unklarheiten, Fehlentscheidungen und Nachfragen. Diese Konzequenz stellt sich auch bei geübten aber fachfremden Lesern ein. Nur eine sprachliche Anpassung an Leser kann das ändern. Der Aufsatz vergleicht dazu zwei Ansätze, Einfache Sprache und Leichte Sprache. Der Autor vertritt die Auffassung, dass nur eine einfache Sprache als Lösung des genannten Dilemmas taugt. Leichte Sprache ist gegenwärtig das einzige Instrument, um Menschen mit neuronalen Schädigungen einen Inhalt zu übermitteln. Doch auch dafür nutzt sie nur eingeschränkt. Die Wissenschaft wird an diesen Themen arbeiten müssen. Sie steht erst am Anfang.
Unverständliche Texte sind ein täglicher Alptraum vieler Millionen Erwachsener in deutschsprachigen Ländern. Ob Behördenbrief, Beipackzettel oder Betriebsanleitung: Man mag das Kauderwelsch nicht lesen. Dabei ist es gar nicht so kompliziert, diesen Ärger aus der Welt zu schaffen. Dieses Buch berichtet von Hintergründen und zeigt, wie man es macht.
Wir führen schrittweise in den Einsatz einer Java-Bibliothek ein, um Variationspunkte und deren Wertemengen in automatisiert bewerteten Programmieraufgaben zu spezifizieren und als XML-Datei zu exportieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält.
Ein Schnittstellen-Datenmodell der Variabilität in automatisch bewerteten Programmieraufgaben
(2018)
Automatisch bewertete, variable Programmieraufgaben stellen besondere Schnittstellenanforderungen an Autobewerter (Grader) und Lernmanagementsysteme (LMS). Um Wiederverwendung von Aufgaben über Systemgrenzen hinweg zu begünstigen, schlagen wir vor, Aufgabenschablonen durch eine von allen beteiligten Systemen genutzte Middleware zu instanziieren und dabei Variabilitätsinformationen in einem Schnittstellen-Datenmodell zu transportieren. Wir stellen ein solches Datenmodell vor, welches für die Grader-unabhängige Kommunikation mit LMS ausgelegt ist und beispielhaft im Autobewerter Graja implementiert wurde. Zudem wird eine Dialogkomponente für die manuelle Werteauswahl vorgestellt, die auch bei großen Wertemengen effizient und Grader-unabhängig einsetzbar ist. Die Eignung des Dialogs und des Datenmodells wird anhand eines typischen Bewertungsszenarios diskutiert.
Dieser Beitrag fasst drei explorative Befragungen zusammen, in denen unter anderem Zusammenhänge von ehrenamtlichem Engagement mit verschiedenen Variablen überprüft wurden. Die Überprüfung dieser Zusammenhänge betrifft sowohl personaldiagnostische Variablen als auch korruptionsrelevante Variablen. Konkret wurde ehrenamtliches Engagement auf Zusammenhänge mit dem Fünf-Faktoren-Modell der Persönlichkeit, mit emotionaler Kompetenz, mit Korruptionswahrnehmung und mit der Einstellung zu Korruption überprüft. Befragt wurden Studierende der Betriebswirtschaftslehre, der Wirtschaftsinformatik, der Psychologie, der Rechtswissenschaften sowie Auszubildende der Polizei. Ehrenamtliches Engagement besitzt insgesamt nur eine geringe praktische Bedeutung für die Personaldiagnostik und ebenfalls nur eine geringe Bedeutung für die Korruptionsprävention. Derzeit ehrenamtlich engagierte Testpersonen weisen eine geringere Affinität gegenüber Korruption auf als Testpersonen ohne derzeitiges ehrenamtliches Engagement. Relativiert werden diese Ergebnisse jedoch durch ihre Widersprüchlichkeit über die drei Befragungen hinweg und durch die durchgängig geringen Effekthöhen. Wegen der geringen Effekthöhen ist die praktische Bedeutung eines ehrenamtlichen Engagements sowohl für die Personaldiagnostik als auch für die Korruptionsprävention als gering einzustufen.
Die vorliegende Ausarbeitung befasst sich mit der Digitalisierung und der Öffnung des Kulturerbes. Anhand einer theoretischen und qualitativen Untersuchung mit Experteninterviews soll verdeutlicht werden, warum einige Kulturerbeinstitutionen wenig motiviert sind, ihre Sammlungen und Artefakte digital zu öffnen. Mit Hilfe von sieben Experteninterviews aus unterschiedlichen kulturellen Digitalisierungsbereichen soll erforscht werden, wo die Kulturerbedigitalisierung aktuell steht und welche Chancen und Risiken Digitalisierungsmaßnahmen fördern oder hemmen. Weiter werden die Ergebnisse geprüft, um daraus mobilisierende Maßnahmen zu erkennen.
This study is concerned with the early stages of hydrogen embrittlement on an atomistic scale. We employed density functional theory to investigate hydrogen diffusion through the (100), (110) and (111) surfaces of γ-Fe. The preferred adsorption sites and respective energies for hydrogen adsorption were established for each plane, as well as a minimum energy pathway for diffusion. The H atoms adsorb on the (100), (110) and (111) surfaces with energies of ∼4.06 eV, ∼3.92 eV and ∼4.05 eV, respectively. The barriers for bulk-like diffusion for the (100), (110) and (111) surfaces are ∼0.6 eV, ∼0.5 eV and ∼0.7 eV, respectively. We compared these calculated barriers with previously obtained experimental data in an Arrhenius plot, which indicates good agreement between experimentally measured and theoretically predicted activation energies. Texturing austenitic steels such that the (111) surfaces of grains are preferentially exposed at the cleavage planes may be a possibility to reduce hydrogen embrittlement.
Digitale Marktplätze können die Kosten einer Handelstransaktion, die sog. Transaktionskosten, senken. Durch weiteren technischen Fortschritt und intelligente Handelsbots wird die Nutzung des Marktmechanismus immer kostengünstiger. Dieser Artikel gibt einen Überblick über die bisherige Entwicklung von Digitalen Marktplätzen der Agrar- und Ernährungswirtschaft und eine mögliche Zukunft. Vermutlich werden die Transaktionskosten weiter fallen, sodass weitere Effizienzgewinne durch die vermehrte Nutzung von Märkten möglich sein werden.
Dass Menschen bereit sind, ein Leben lang zu lernen, ist bereits in der heutigen Informations- und Wissensgesellschaft eine wichtige Voraussetzung, um in der Arbeitswelt zu bestehen, innovativ zu sein und sich weiterzuentwickeln. Die vorliegende Arbeit untersucht, inwieweit die Montessori-Pädagogik bereits Kinder und Jugendliche auf die Herausforderungen der Zukunft vorbereiten kann und ob sie den Anforderungen, die das Lebenslange Lernen stellt, gerecht wird. Zunächst werden das Phänomen des Lebenslangen Lernens, das Lernen in verschiedenen Lebensphasen und Lernsituationen sowie die Gründe und Ziele von Lebenslangem Lernen vorgestellt. Anschließend werden als Einflussfaktoren für das Gelingen Lebenslangen Lernens, und zwar die Lernmotivation, die Lernumgebung, die Lernerfahrung, das selbstgesteuerte Lernen sowie Kompetenzen skizziert. Weiter folgen ein Überblick über die Montessori-Pädagogik, deren Erziehungsziele, Grundlagen sowie Methoden. Den Abschluss der Arbeit bildet ein Vergleich der Konzepte und Prinzipien der Montessori-Pädagogik mit den Methoden, die für das Lernen am Arbeitsplatz eingesetzt werden und damit dem Lebenslangen Lernen dienen.
In diesem Beitrag werden Spezifika der Hochschulen und Ausbildungseinrichtungen, die in der KIBA organisiert sind, mit ihren Studiengängen, Weiterbildungsprogrammen, Forschungsschwerpunkten und didaktischen Konzepten vorgestellt. Es wird gezeigt, wie diese Einrichtungen mit ihrer Berufungs- und Einstellungspolitik, strategischen Allianzen und übergeordneten fachlichen und politischen Zusammenschlüssen sowie mit der Profilierung ihrer Studiengänge auf neue Anforderungen des Marktes und der Berufspraxis reagieren. Berücksichtigt werden dabei Positionen und Strategien zur Digitalisierung aus der Politik sowie ihren Beratungsgremien, in der sich die Inhalte bibliotheks- und informationswissenschaftlicher Ausbildung und Forschung verorten lassen. Insgesamt wird deutlich, wie schwierig es heute ist zu definieren, was die Bibliotheks- und die Informationswissenschaft im Kern ausmacht, um im Spannungsfeld der Herausforderungen an wissenschaftliche und öffentliche Bibliotheken, den Anforderungen der Wirtschaft im Bereich Informations- und Wissensmanagement, der Digitalisierung und Langzeitarchivierung von Kulturerbe, um nur einige Felder zu nennen, Ausbildungsprogramme bedarfsgerecht zu profilieren und die bibliotheks- und informationswissenschaftlichen Institute, Fachbereiche und Ausbildungseinrichtungen politisch abzusichern und ausreichend mit Ressourcen auszustatten.
Lässt man sich etwas Zeit bei der Betrachtung der Märchenfigur des Froschkönigs erkennt man zwei unterschiedliche Ebenen. Die Prinzessin aus dem Märchen darf beide erfahren. Einerseits nimmt sie den Frosch als Belastung wahr. Andererseits erfährt sie in dem Frosch auch einen königlichen Aspekt, der durch die Krone symbolisiert wird. Wie kommt die Prinzessin von der empfundenen Belastung hin zur Erfahrung der „Krone des Lebens“? Die Verwandlung geschieht durch das Akzeptieren der Situation. In dem Märchen wird das Annehmen durch den Kuss symbolisiert.
Auch im normale Alltag werden Menschen mit diversen Belastungen – kleineren und größeren – konfrontiert. Das kann beispielsweise im Job, in der Familie oder auch im Straßenverkehr sein. Und es pfeifen die Spatzen von Dächern, dass Belastungen, die über einen längeren Zeitraum empfunden werden, zu diversen Krankheiten führen können. Man denke z. B. an Herz-/Kreislauferkrankungen, Angststörungen, Burnout, Süchte sowie erhöhte Aggressionsbereitschaften.
Es gibt also einen riesigen Handlungsbedarf. Mit Blick auf das Märchen „Der Froschkönig“ stellt sich die Frage, ob in Situationen, die als Belastung empfunden werden, vielleicht auch etwas Königliches verborgen ist.
Im Arbeitspapier wird im Sinne der Achtsamkeit davon ausgegangen, dass sich die Krone des Lebens in Situationen erst dann zeigen kann, wenn sie „geküsst“ bzw. angenommen werden, weil sich dann eine neue, eine tiefere Dimension zeigt, die man sich mit dem Verstand nicht erschließen kann.
In industrial production facilities, technical Energy Management Systems are used to measure, monitor and display energy consumption related information. The measurements take place at the field device level of the automation pyramid. The measured values are recorded and processed at the control level. The functionalities to monitor and display energy data are located at the MES level of the automation pyramid. So the energy data from all PLCs has to be aggregated, structured and provided for higher level systems. This contribution introduces a concept for an Energy Data Aggregation Layer, which provides the functionality described above. For the implementation of this Energy Data Aggregation Layer, a combination of AutomationML and OPC UA is used.
We report the unambiguous detection of phenyl groups covalently attached to functionalised graphene using non-linear spectroscopy. Sum-frequency generation was employed to probe graphene on a gold surface after chemical functionalisation using a benzene diazonium salt. We observe a distinct resonance at 3064 cm1 which can clearly be assigned to an aromatic C–H stretch by comparison with a self-assembled monolayer on a gold substrate formed from benzenethiol. Not only does sum-frequency generation spectroscopy allow one to characterise functionalised graphene with higher sensitivity and much better specificity than many other spectroscopic techniques, but it also opens up the possibility to assess the coverage of graphene with functional groups, and to determine their orientation relative to the graphene surface.
One of the main concerns of this publication is to furnish a more rational basis for discussing bioplastics and use fact-based arguments in the public discourse. Furthermore, “Biopolymers – facts and statistics” aims to provide specific, qualified answers easily and quickly for decision-makers in particular from public administration and the industrial sector. Therefore, this publication is made up like a set of rules and standards and largely foregoes textual detail. It offers extensive market-relevant and technical facts presented in graphs and charts, which means that the information is much easier to grasp. The reader can expect comparative market figures for various materials, regions, applications, process routes, agricultural land use, water use or resource consumption, production capacities, geographic distribution, etc.
Mastitis is one of the most important diseases threatening modern dairy herds. The idea of fighting the disease through colonising the udder with lactic acid bacteria (LAB), thereby building a beneficial biofilm, is the base for a probiotic approach towards mastitis control. The purpose of this study was to screen 13 LAB strains (eleven wild strains, two ATCC strains) inhibitory to the growth of mastitis-causing pathogens for their in vitro ability to form a biofilm and to adhere to bovine glandular mammary epithelium in order to assess their probiotic potential. Furthermore, we aimed to gain knowledge about the chemical nature of the adhesins involved by subjecting the bacteria to various chemical and enzymatical pre-treatments. The biofilms were grown on hydrophilic glass and on hydrophobic polypropylene in de Man, Rogosa and Sharpe (MRS) broth and afterwards quantified with a crystal violet assay. Biofilm formation was observed in all strains. However, the extent strongly depended on the strain, surface charge and medium. The adhesion assay also revealed a strong strain dependency, but this trait was also present in all of the investigated LAB isolates. Depending on the strain, chemical or enzymatical pre-treatment revealed carbohydrate molecules as well as proteins and lipids to be crucial for the adhesion of LAB to epithelial cells. The seven strains showing the strongest biofilm formation and/or adhesion represent promising candidates for further investigation in order to develop a probiotic remedy for the treatment of mastitis. Still, their safety for consumers and patients as well as their capability to colonise the udder remain to be investigated in in vivo studies.
Bibliotheken
(2018)
Gerade für Historiker*innen, die für ihre Arbeit vielfach nicht nur Fachliteratur, sondern auch Quelleneditionen und handschriftliche Materialien benötigen, sind Bibliotheken die zentralen Informationseinrichtungen. Der Beitrag stellt in kompakter Form die wichtigsten digitalen Informationsressourcen und Infrastruktureinrichtungen für die Geschichtswissenschaft vor.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Background: Pharmacovigilance (PV); also known as drug safety surveillance, is the science of enhancing patient care and patient safety regarding the use of medicines by collecting, monitoring, assessing, and evaluating information from healthcare providers and patients. Pharmacists are pivotal players in adverse drug event (ADE) monitoring and reporting. However, most pharmacists are unaware or not knowledgeable about the guidelines used by their respective countries’ drug regulatory bodies. It is the need of the hour to train pharmacy students on the concept of pharmacovigilance.
Methods: A cross-sectional study was carried out among pharmacy students from Mumbai University, India during May-June 2017. On the basis of the eligibility criterion 352 students were selected for the present study. Four hundred students were approached to participate in the study of which 201 agreed to participate (males: 179; females: 173). Pretested questionnaire was distributed and collected data was analyzed using IBM SPSS version 23.
Results: Overall pharmacovigilance knowledge (44%) and perception (58%) was low among the participants of the present study. Seventy four percent of the participants felt that adverse drug reaction (ADR) reporting should be made compulsory for healthcare professionals. And only 21% agreed that the topic of Pharmacovigilance is well covered in pharmacy curriculum.
Conclusions: Pharmacy council of India, pharmacy teacher’s association and respective pharmacy college should take necessary steps to increase the knowledge and create awareness regarding pharmacovigilance and adverse drug reaction reporting among pharmacy students.
Library of Congress Subject Headings (LCSH) are popular for indexing library records. We studied the possibility of assigning LCSH automatically by training classifiers for terms used frequently in a large collection of abstracts of the literature on hand and by extracting headings from those abstracts. The resulting classifiers reach an acceptable level of precision, but fail in terms of recall partly because we could only train classifiers for a small number of LCSH. Extraction, i.e., the matching of headings in the text, produces better recall but extremely low precision. We found that combining both methods leads to a significant improvement of recall and a slight improvement of F1 score with only a small decrease in precision.
The transfer of historically grown monolithic software architectures into modern service-oriented architectures creates a lot of loose coupling points. This can lead to an unforeseen system behavior and can significantly impede those continuous modernization processes, since it is not clear where bottlenecks in a system arise. It is therefore necessary to monitor such modernization processes with an adaptive monitoring concept in order to be able to correctly record and interpret unpredictable system dynamics. For this purpose, a general measurement methodology and a specific implementation concept are presented in this work.
The transfer of historically grown monolithic software architectures into modern service-oriented architectures creates a lot of loose coupling points. This can lead to an unforeseen system behavior and can significantly impede those continuous modernization processes, since it is not clear where bottlenecks in a system arise. It is therefore necessary to monitor such modernization processes with an adaptive monitoring concept to be able to correctly record and interpret unpredictable system dynamics. This contribution presents a generic QoS measurement framework for service-based systems. The framework consists of an XML-based specification for the measurement to be performed – the Information Model (IM) – and the QoS System, which provides an execution platform for the IM. The framework will be applied to a standard business process of the German insurance industry, and the concepts of the IM and their mapping to artifacts of the QoS System will be presented. Furtherm ore, design and implementation of the QoS System’s parser and generator module and the generated artifacts are explained in detail, e.g., event model, agents, measurement module and analyzer module.