Refine
Year of publication
Document Type
- Article (525)
- Conference Proceeding (162)
- Bachelor Thesis (149)
- Report (102)
- Working Paper (85)
- Book (73)
- Master's Thesis (66)
- Part of a Book (40)
- Periodical Part (38)
- Study Thesis (25)
Is part of the Bibliography
- no (1322)
Keywords
- Bibliothek (44)
- Digitalisierung (38)
- Milchwirtschaft (36)
- E-Learning (27)
- Molkerei (27)
- Ausbildung (23)
- Euterentzündung (23)
- Informationsmanagement (22)
- Computersicherheit (21)
- Herbarium (20)
Das Berufsbild von Sozialarbeitern beinhaltet viele Anforderungen, zentral sind dabei Sprach- und Lesekompetenzen. Der vorliegende Beitrag stellt die Ergebnisse einer explorativen Studie zu Sprachkompetenzen (i.S. von Wortschatz) und Lesekompetenzen (i.S. von Lesegeschwindigkeit und Leseverständnis) von Studierenden der Sozialen Arbeit dar und zeigt auf, das hier Verbesserungsbedarf besteht, wenn Studierende optimal auf Ihren späteren Beruf vorbereitet werden sollen. Auch wird ein Vergleich zu anderen Studiengängen gezogen, wo sich ähnliche Bedarfslagen zeigen.
Am Ende des Beitrags findet sich ein Kommentar zur (Nicht-)Veröffentlichung der Studienergebnisse.
Praktische Übungen anhand von Programmieraufgaben sind ein gängiger und zentraler Bestandteil der Programmierausbildung in der Informatik und verwandten Fächern. Die manuelle Korrektur von Lösungen zu Programmieraufgaben ist jedoch zeitaufwändig und nicht immer einfach. Gerade in Szenarien, die auf sogenanntes „formatives Assessment“ setzen, ist jedoch ein zeitnahes Feedback zumindest zu den wesentlichen Aspekten einer Lösung sehr wünschenswert. In diesem – aber auch in weiteren Szenarien – kann eine automatisierte Bewertung der Lösungen von Programmieraufgaben einen wertvollen Beitrag zur Verbesserung der Lehre leisten. Darüber hinaus ermöglichen geeignete Systeme eine Darstellung des Lernfortschritts, halten Lernende durch regelmäßig bewertete Übungsaufgaben zur kontinuierlichen Mitarbeit an und unterstützen Lehrende durch einen Überblick über Lernfortschritte und Lernhürden einzelner Studierender und der gesamten Gruppe bei der Planung und Ausrichtung ihrer Lehre.
Dieses Buch richtet sich an Lehrende an Hochschulen, Schulen und anderen Ausbildungseinrichtungen, an Hochschuldidaktiker mit Bezug zur Programmierausbildung und an Informatiker, die mit der Entwicklung oder Integration von Systemen zur automatischen Programmbewertung beschäftigt sind. Die Ziele dieses Buches sind zum einen, Lehrenden die praktische Relevanz und Tauglichkeit automatisierter Programmbewertung aufzuzeigen und damit den Einsatz automatischer Programmbewertung durch die Darstellung erfolgreicher Ansätze zu fördern. Zum anderen soll dem Thema der automatisierten Programmbewertung ein größerer Bekanntheitsgrad in der Fachöffentlichkeit verschafft und Arbeitsergebnisse aus Forschungs- und Praxisprojekten einem größeren Anwenderkreis präsentiert werden.
„Foucault im Jobcenter“ : Supervision in einem widersprüchlichen gesellschaftlichen Feld (Teil 1)
(2017)
Erwerbsarbeit ist nach wie vor der wichtigste Faktor gesellschaftlicher Teilhabe. Jobcenter erfüllen aus diesem Grund eine wichtige gesellschaftliche Funktion. Aufgrund ihrer verwickelten und konfliktreichen Geschichte ist ihre gesellschaftliche Verortung schwierig. Jobcenter sind bisher, trotz ihrer Größe und gesellschaftlichen Relevanz für maßgebliche Bevölkerungsteile, kaum beratungswissenschaftlich untersucht worden. Unserer Ansicht scheint es notwendig zu sein, sich intensiver mit dem gesellschaftlichen Feld der Jobcenter zu beschäftigten: Zum einen, weil Beratung selbst eine herausgehobene Bedeutung im Jobcenter besitzt und zum anderen, weil die Jobcenter ein wichtiges Feld für die Supervision werden könnten. Dieser Artikel soll daher eine erste kasuistische Grundlage für eine kritische Reflexion bieten und wird in zwei Teilen erscheinen. Der erste Teil wird eine grundlagentheoretische Einführung in das Thema sein. Darauf aufbauend rekonstruieren wir in einem zweiten Teil einen Fall aus dem Jobcenter, der in der nächsten Ausgabe der FoRuM Supervision unter dem Titel ‚Fallverstehen und Fallrekonstruktion‘ analysiert und reflektiert werden wird.
Objective: The study’s objective was to assess factors contributing to the use of smart devices by general practitioners (GPs) and patients in the health domain, while specifically addressing the situation in Germany, and to determine whether, and if so, how both groups differ in their perceptions of these technologies.
Methods: GPs and patients of resident practices in the Hannover region, Germany, were surveyed between April and June 2014. A total of 412 GPs in this region were invited by email to participate via an electronic survey, with 50 GPs actually doing so (response rate 12.1%). For surveying the patients, eight regional resident practices were visited by study personnel (once each). Every second patient arriving there (inclusion criteria: of age, fluent in German) was asked to take part (paper-based questionnaire). One hundred and seventy patients participated; 15 patients who did not give consent were excluded.
Results: The majority of the participating patients (68.2%, 116/170) and GPs (76%, 38/50) owned mobile devices. Of the patients, 49.9% (57/116) already made health-related use of mobile devices; 95% (36/38) of the participating GPs used them in a professional context. For patients, age (P<0.001) and education (P<0.001) were significant factors, but not gender (P>0.99). For doctors, neither age (P¼0.73), professional experience (P>0.99) nor gender (P¼0.19) influenced usage rates. For patients, the primary use case was obtaining health (service)-related information. For GPs, interprofessional communication and retrieving information were in the foreground. There was little app-related interaction between both groups.
Conclusions: GPs and patients use smart mobile devices to serve their specific interests. However, the full potentials of mobile technologies for health purposes are not yet being taken advantage of. Doctors as well as other care providers and the patients should work together on exploring and realising the potential benefits of the technology.
Quartz-crystal microbalances (QCMs) are commercially available mass sensors which mainly consist of a quartz resonator that oscillates at a characteristic frequency, which shifts when mass changes due to surface binding of molecules. In addition to mass changes, the viscosity of gases or liquids in contact with the sensor also shifts the resonance but also influences the quality factor (Q-factor). Typical biosensor applications demand operation in liquid environments leading to viscous damping strongly lowering Q-factors. For obtaining reliable measurements in liquid environments, excellent resonator control and signal processing are essential but standard resonator circuits like the Pierce and Colpitts oscillator fail to establish stable resonances. Here we present a lowcost, compact and robust oscillator circuit comprising of state-of-the-art commercially available surface-mount technology components which stimulates the QCMs oscillation, while it also establishes a control loop regulating the applied voltage. Thereby an increased energy dissipation by strong viscous damping in liquid solutions can be compensated and oscillations are stabilized. The presented circuit is suitable to be used in compact biosensor systems using custom-made miniaturized QCMs in microfluidic environments. As a proof of concept we used this circuit in combination with a customized microfabricated QCM in a microfluidic environment to measure the concentration of C-reactive protein (CRP) in buffer (PBS) down to concentrations as low as 5 μgmL -1.
During the transition from conventional towards purely electrical, sustainable mobility, transitional technologies play a major part in the task of increasing adaption rates and decreasing range anxiety. Developing new concepts to meet this challenge requires adaptive test benches, which can easily be modified e.g. when progressing from one stage of development to the next, but also meet certain sustainability demands themselves.
The system architecture presented in this paper is built around a service-oriented software layer, connecting a modular hardware layer for direct access to sensors and actuators to an extensible set of client tools. Providing flexibility, serviceability and ease of use, while maintaining a high level of reusability for its constituent components and providing features to reduce the required overall run time of the test benches, it can effectively decrease the CO2 emissions of the test bench while increasing its sustainability and efficiency.
Background: Diabetes is fast gaining the status of a potential epidemic in India, with >62 million individuals currently diagnosed with the disease. India currently faces an uncertain future in relation to the potential burden that diabetes may impose on the country. An estimated US$ 2.2 billion would be needed to sufficiently treat all cases of type 2 diabetes mellitus (T2DM) in India. Many interventions can reduce the burden of this disease. However, health care resources are limited; thus, interventions for diabetes treatment should be prioritized. The present study assesses the cost-effectiveness of antidiabetic drugs in patients with T2DM from Mumbai, India.
Methods: A prospective cross-sectional study was performed to assess the cost-effectiveness of antidiabetic drugs in patients with T2DM. Face-to-face interviews were conducted by using a validated questionnaire in a total of 152 (76 males, 76 females) patients with T2DM from F-North Ward, Mumbai, India. Cost-effectiveness was determined on the basis of cost of antidiabetic drug/s, efficacy, adverse drug reactions, safety of administration, frequency of administration, and bioavailability.
Results: For treatment of T2DM in non-obese participants, Glimepiride+Pioglitazone costed least (`3.7) per unit of effectiveness followed by Glimepiride (`6.6), Gliclazide (`8.1), Repaglinide (`24.5), and Vildagliptin (`45.2). For treatment of T2DM in obese participants, Metformin cost least (` 6.7) per unit of effectiveness followed by Glimepiride + Metformin (`5.9) and Repaglinide (`24.5).
Conclusions: In case of non-obese participants, cost effectiveness and prescribed treatments did not show a match, while for obese participants prescribed treatments were in line with cost effectiveness.
Objective: To determine the distribution of symptoms of post-stroke depression (PSD) in relation to some predisposing factors in an African population.
Relevance: Environment is a key determinant of behavior, and varied socio-cultural contexts must have implications for modifiable characteristics (age, duration of the stroke, marital status, type of employment, gender, the location of cerebral lesion and complications) of individuals vulnerable to PSD, which may be targeted to enhance recovery.
Method: This was a cross-sectional observational study of 50 (22 females and 28 males) stroke survivors (mean age=54.76±8.79 years), at the physiotherapy department, the University of Nigeria teaching hospital, Enugu, selected using convenience sampling technique. Data were collected using Becks Depression Inventory and analyzed using Z-score, Chi-square test and univariate logistic regression, at p<0.05.
Results: PSD was more prevalent in females (45.45%); young(100%); middle-age(60%) adults(27-36/47-56 years respectively); living with spouse (45%); left cerebral lesions (40.74%); complications(45%); cold case >3 years(47.05%); self-employed and unemployed (66.67%), respectively. Age was significantly associated with depression (χ2 =4.92,df=1,p=0.03), and was related to the risk of PSD (3.7[1.1-12.0], p=0.03, φ = +0.31, φ2=0.1).
Conclusion: Age could be a risk factor for PSD, which was more prevalent in the elderly than young/middle-age adults, female gender, left cerebral lesion, complications, cold case; those living with a spouse, self-employed and unemployed.
Am 26.11.2014, fast auf den Tag genau ein Jahr nach seinem Tod, fand in Hannover, in den Räumen der Werk-statt-Schule e.V. Hannover ein Symposium zum Gedenken an Arnulf Bojanowski statt. Dieses Editorial der bwp@-Spezialausgabe umreißt Bojanowskis Wirken und fasst die in dieser Ausgabe enthaltenen Beiträge zusammen.
Wie die Pädagogische Idee der Produktionsschule anlässlich des Symposiums zum Gedenken an Arnulf Bojanowski debattiert wurde:
Produktionsschulen als pädagogische Idee und Ort von Erfahrungen haben im wissenschaftlichen Arbeiten von Arnulf Bojanowski eine herausragende Rolle gespielt. Er sah und nutzte sie einerseits als pädagogisch-utopisches Experimentierfeld. Damit standen sie seiner insgesamt pessimistischen Sicht auf die Entwicklung der Beruflichen Förderpädagogik im Zeichen sozialer Kälte und Ungleichheit gegenüber, die seine analytische Weltsicht bis in den Stil seiner Texte hinein konterkarierte. Andererseits waren sie für ihn Ort und Anlass kommunikativer Zusammenkünfte, die er immer wieder initiierte und an denen sich Ideen und pädagogische Praktiken jenseits – und doch auch immer in kritischer Auseinandersetzung – mit gegebenen Sachzwängen produktiv entwickeln konnten.
Dass im Rahmen des Symposiums zu seinem Gedenken am 26.11.2014 ein Workshop zum Thema „Pädagogische Idee der Produktionsschule“ stattfand, lag darum auf der Hand. Schwerlich konnte hierin die Komplexität all der Gedanken und Ideen abgebildet und weiter gedacht werden, die mit und um Arnulf Bojanowski in die Welt kamen. Zu kurz war die Zeit und zu begrenzt das Spektrum der Teilnehmer_innen. Es konnte jedoch noch einmal nachvollzogen werden, welche Form von lebhaften Diskursen mit ihm entstanden und damit zum Ausdruck gebracht werden, dass diese Dialog- und Debattenkultur über seinen Tod hinaus fortbesteht.
Der folgende Text gibt die Ergebnisse einer offenen Diskussion wieder. Er basiert auf protokollarischen Aufzeichnungen und Ausarbeitungen, die einzelne Teilnehmer_innen im Anschluss an diesen Disput vorgelegt haben. Entfaltet hat sich dabei ein fragmentarisches Tableau diskursiver Produkte. Ein Tableau, das wir zunächst sichteten, um dann im Nachgang zu versuchen, die einzelnen Gedankenstränge nachzubilden. Vor dem Hintergrund dieses Entstehens erhebt der Text weder einen Ansspruch auf Wissenschaftlichkeit noch ist er eine detaillierte Wiedergabe des damaligen Austausches. Er behauptet auch nicht, Neuartiges hervorzubringen: Er ist vielmehr eine exemplarische Spiegelung davon, wie sich das, was Arnulf Bojanowski inhaltlich und kulturell in und zwischen Menschen hinterlassen hat, fortsetzt.
One of the main concerns of this publication is to furnish a more rational basis for discussing bioplastics and use fact-based arguments in the public discourse. Furthermore, “Biopolymers – facts and statistics” aims to provide specific, qualified answers easily and quickly for decision-makers in particular from public administration and the industrial sector. Therefore, this publication is made up like a set of rules and standards and largely foregoes textual detail. It offers extensive market-relevant and technical facts presented in graphs and charts, which means that the information is much easier to grasp. The reader can expect comparative market figures for various materials, regions, applications, process routes, agricultural land use, water use or resource consumption, production capacities, geographic distribution, etc.
Der Bachelorstudiengang „Bibliotheks- und Informationsmanagement“ der Hochschule für den öffentlichen Dienst in Bayern (HföD) zeichnet sich durch seinen starken Praxisbezug aus. Mit der spezifischen Ausrichtung auf die wissenschaftlichen Bibliotheken, dem mehrstufigen Auswahlverfahren der Studierenden, der Gestaltung der beiden Praxismodule, der Konzeption des theoretischen Unterrichts und den begleitenden Veranstaltungen sowie den Strukturen, in die der Studiengang eingebunden ist, werden in dem vorliegenden Aufsatz die wichtigsten Elemente für diese starke Praxisbezogenheit vorgestellt.
This paper presents a cascaded methodology for enhancing the path accuracy of industrial robots by using advanced control schemes. It includes kinematic calibration as well as dynamic modeling and identification. This is followed by a centralized model-based compensation of robot dynamics. The implemented feed-forward torque control shows the expected improvements of control accuracy. However, external measurements show the influence of joint elasticities as systematic path errors. To further increase the accuracy an iterative learning controller (ILC) based on external camera measurements is designed. The implementation yields to significant improvements of path accuracy. By means of a kind of automated ”Teach-In”, an overall effective concept for the automated calibration and optimization of the accuracy of industrial robots in high-dynamic path-applications is realized.
The adsorption of O atoms on the Fe(1 1 0) surface has been investigated by density functional theory for increasing degrees of oxygen coverage from 0.25 to 1 monolayer, to follow the evolution of the Osingle bondFe(1 1 0) system into an FeO(1 1 1)-like monolayer. We found that the quasi-threefold site is the most stable adsorption site for all coverages, with adsorption energies of ∼2.8–4.0 eV per O atom. Oxygen adsorption results in surface geometrical changes such as interlayer relaxation and buckling, the latter of which decreases with coverage. The calculated vibrational frequencies range from 265 to 470 cm−1 for the frustrated translational modes and 480–620 cm−1 for the stretching mode, and hence are in good agreement with the experimental values reported for bulk FeO wüstite. The hybridization of the oxygen 2p and iron 3d orbitals increases with oxygen coverage, and the partial density of states for the Osingle bondFe(1 1 0) system at full coverage resembles the one reported in the literature for bulk FeO. These results at full oxygen coverage point to the incipient formation of an FeO(1 1 1)-like monolayer that would eventually lead to the bulk FeO oxide layer.
Molecular hydrogen production from amorphous solid water during low energy electron irradiation
(2017)
This work investigates the production of molecular hydrogen isotopologues (H2, HD, and D2) during low energy electron irradiation of layered and isotopically labelled thin films of amorphous solid water (ASW) in ultrahigh vacuum. Experimentally, the production of these molecules with both irradiation time and incident electron energy in the range 400 to 500 eV is reported as a function of the depth of a buried D2O layer in an H2O film. H2 is produced consistently in all measurements, reflecting the H2O component of the film, though it does exhibit a modest reduction in intensity at the time corresponding to product escape from the buried D2O layer. In contrast, HD and D2 production exhibit peaks at times corresponding to product escape from the buried D2O layer in the composite film. These features broaden the deeper the HD or D2 is formed due to diffusion. A simple random-walk model is presented that can qualitatively explain the appearance profile of these peaks as a function of the incident electron penetration.
The use of vibrational sum-frequency spectroscopy (VSFS) to study transferred graphene, produced by chemical vapour deposition, is presented. The VSF spectrum shows a clear CeH stretching mode at ~2924 cm⁻¹, which is attributed to residue of the polymer used for the transfer. This makes VSFS a powerful tool to identify adsorbates and contaminants affecting the properties of graphene.
The paper presents a comprehensive model of a banking system that integrates network effects, bankruptcy costs, fire sales, and cross-holdings. For the integrated financial market we prove the existence of a price-payment equilibrium and design an algorithm for the computation of the greatest and the least equilibrium. The number of defaults corresponding to the greatest price-payment equilibrium is analyzed in several comparative case studies. These illustrate the individual and joint impact of interbank liabilities, bankruptcy costs, fire sales and cross-holdings on systemic risk. We study policy implications and regulatory instruments, including central bank guarantees and quantitative easing, the significance of last wills of financial institutions, and capital requirements.
Objective
We aimed to investigate the proportion of young patients not returning to work (NRTW) at 1 year after ischemic stroke (IS) and during follow-up, and clinical factors associated with NRTW.
Methods
Patients from the Helsinki Young Stroke Registry with an IS occurring in the years 1994–2007, who were at paid employment within 1 year before IS, and with NIH Stroke Scale score ≤15 points at hospital discharge, were included. Data on periods of payment came from the Finnish Centre for Pensions, and death data from Statistics Finland. Multivariate logistic regression analyses assessed factors associated with NRTW 1 year after IS, and lasagna plots visualized the proportion of patients returning to work over time.
Results
We included a total of 769 patients, of whom 289 (37.6%) were not working at 1 year, 323 (42.0%) at 2 years, and 361 (46.9%) at 5 years from IS. When adjusted for age, sex, socioeconomic status, and NIH Stroke Scale score at admission, factors associated with NRTW at 1 year after IS were large anterior strokes, strokes caused by large artery atherosclerosis, high-risk sources of cardioembolism, and rare causes other than dissection compared with undetermined cause, moderate to severe aphasia vs no aphasia, mild and moderate to severe limb paresis vs no paresis, and moderate to severe visual field deficit vs no deficit.
Conclusions
NRTW is a frequent adverse outcome after IS in young adults with mild to moderate IS. Clinical variables available during acute hospitalization may allow prediction of NRTW.
Wir führen schrittweise in den Einsatz einer Java-Bibliothek ein, um Variationspunkte und deren Wertemengen in automatisiert bewerteten Programmieraufgaben zu spezifizieren und als XML-Datei zu exportieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält.
In dieser Bachelorarbeit wird die Konzeption, Entwicklung und Evaluierung einer Web-Oberfläche der wissenschaftlichen Bildersuchmaschine NOA durchgeführt. Ziel ist es, eine hohe Benutzerfreundlichkeit zu erreichen. NOA ist ein von der DFG gefördertes Projekt mit dem Ziel, Bilder aus Open-Access-Veröffentlichungen nutzbar zu machen. Der theoretische Teil behandelt die Grundlagen der Web-Usability, weiterhin werden Methoden der Evaluation dargestellt. Der praktische Teil der vorliegenden Arbeit beinhaltet die Konzeption und deren Umsetzung mittels aktueller Auszeichnungs- und Skriptsprachen. Auf die Präsentation der entwickelten Web-Oberfläche folgt die Evaluation der Usability mittels der heuristischen Evaluation und dem Usability-Testing, welches von der Thinking-Aloud-Methode begleitet wird. Daraufhin werden Empfehlungen zur Verbesserung der Benutzerfreundlichkeit benannt. Die Arbeit bildet einen vollständigen Prozess zur Erstellung einer Website ab. So gibt sie Interessierten des Berufsfeldes Konzeption bzw. der Front-End-Entwicklung einen Einblick in übliche Tätigkeiten.
Wir beschreiben eine Möglichkeit, Variationspunkte und deren Varianten in automatisiert bewerteten Programmieraufgaben zu spezifizieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält. Die Varianten werden automatisch gebildet, indem an definierten Variationspunkten immer wieder andere, konkrete Werte eingesetzt werden. Schon bei sehr einfachen Aufgaben bestehen Abhängigkeiten zwischen den einzelnen Variationspunkten, die bei der Wahl der konkreten Werte zu berücksichtigen sind. Zudem kann die Menge der gültigen Werte auch bei einfachen Aufgaben so groß werden, dass die vollständige Auflistung aller Wertkombinationen an Ressourcengrenzen scheitert. Die vorgestellte Spezifikation verwendet eine kompakte und für Aufgabenautoren verständliche Sprache, die eine automatische Auswahl von korrekten, den Abhängigkeiten gehorchenden Wertekombinationen ermöglicht. Die Sprache ist unabhängig von den Erfordernissen eines bestimmten Autobewerters und versetzt Frontend- und Backendsysteme in verschiedenen technischen Ökosystemen in die Lage, ausgewählte Werte einer sehr großen Wertemenge zu generieren, deren Abhängigkeiten zu prüfen, sowie ggf. bestimmte Wertbelegungen in einem benutzerfreundlichen Dialog auszuwählen. Wir unterstützen Variationspunkte mit endlichen Mengen vorzugebender diskreter Werte sowie kontinuierliche Wertebereiche, die durch eine vorzugebende Anzahl von Samples diskretisiert werden. Wir beschäftigen uns insbesondere mit der Frage, wie lange Auflistungen gültiger Wertkombinationen durch die Angabe von Ableitungsvorschriften ersetzt werden können. Ein besonderes Augenmerk legen wir auf eine redundanzfreie Beschreibung der Variantenmenge. Die Notation setzt auf XML und Javascript in der Annahme, dass diese Technologien in allen beteiligten Systemen zur Verfügung stehen können.
A nonblinded, positively controlled, noninferiority trial was conducted to evaluate the efficacy of an alternative, nonantibiotic therapy with Masti Veyxym® to reduce ineffective antibiotic usage in the treatment of nonsevere clinical mastitis (CM) in cows with longer lasting udder diseases. The solely intramammary treatment with Masti Veyxym® (three applications, 12 hr apart) and the combined treatment with Masti Veyxym® and antibiotics as usual on the farm according to label of the respective product were compared with the reference treatment of solely antibiotic therapy. The matched field study was conducted on eight free-stall dairy farms located in Eastern Germany. Cases of mild-to-moderate CM in cows with longer lasting high somatic cell counts in preceding dairy herd improvement test days and with previous CM cases in current lactation were randomly allocated to one of the three treatment groups. A foremilk sample of the affected quarter was taken before treatment and again approximately 14 days and 21 days after the end of therapy for cyto-bacteriological examination. Primary outcomes were clinical cure (CC) and no CM recurrence within 60 days after the end of treatment (no R60). Bacteriological cure (BC) and quarter somatic cell count (QSCC) cure were chosen as secondary outcomes although low probabilities of BC and QSCC cure for selected cows were expected. The study resulted in the following findings: the pathogens mostly cultured from pretreatment samples were Streptococcus uberis, followed by Staphylococcus aureus and coagulase-negative staphylococci. There were no significant differences between the two test treatments in comparison with the reference treatment regarding all outcome variables. The sole therapy with Masti Veyxym® resulted in a numerically lower likelihood of BC without significant differences to the reference treatment. The combined therapy group showed a numerically higher nonrecurrence rate than the two other treatment groups and noninferiority compared to the reference treatment was proven. Having regard to the selection criteria of cows in this study, the findings indicated that sole treatment with Masti Veyxym® in nonsevere CM cases may constitute an alternative therapy to reduce antibiotics. However, noninferiority evaluations were mostly inconclusive. Further investigations with a larger sample size are required to confirm the results and to make a clear statement on noninferiority.
In der vorliegenden Masterarbeit geht es um die automatische Annotation von Bildern mithilfe der Kategoriesystematik der Wikipedia. Die Annotation soll anhand der Bildbeschriftungen und ihren Textreferenzen erfolgen. Hierbei wird für vorhandene Bilder eine passende Kategorie vorgeschlagen. Es handelt sich bei den Bildern um Abbildungen aus naturwissenschaftlichen Artikeln, die in Open Access Journals veröffentlicht wurden. Ziel der Arbeit ist es, ein konzeptionelles Verfahren zu erarbeiten, dieses anhand einer ausgewählten Anzahl von Bildern durchzuführen und zu evaluieren. Die Abbildungen sollen für weitere Forschungsarbeiten und für die Projekte der Wikimedia Foundation zur Verfügung stehen. Das Annotationsverfahren findet im Projekt NOA - Nachnutzung von Open Access Abbildungen Verwendung.
Diese Arbeit beschäftigt sich mit der Konzeption und Umsetzung einer Entwicklungsumgebung als Android-App für den Einsatz im Schulunterricht. Die Anwendung ist mit der natürlichen Sprache zu bedienen und stellt eine Entwicklungsumgebung für das logische Programmierparadigma zur Verfügung. Die entstandene Software wird in einem Feldversuch mit Kindern der 4. Klassenstufe an einer Grundschule erprobt. Da Änderungen und neue Erkenntnisse möglichst effizient in die Software einfließen sollen, wurde die App nach der Clean Architecture umgesetzt. Die Ergebnisse aus der Feldforschung zeigen, dass die Schülerinnen und Schüler mit hoher Motivation an einem fachlichen Thema gearbeitet haben. Sie erlernten die Konzepte der Fakten, Regeln und der Wissensbasis und vertieften damit ihr Wissen zu geometrischen Formen in der Mathematik. Der Architekturansatz der App stellt dessen Vorteile deutlich an Fallbeispielen dar. Die Arbeit zeigt das spannende Feld der angewandten Wissenschaft, das die beiden Disziplinen Informatik und Didaktik verknüpft.
Informationskompetenz ist eine Schlüsselkompetenz für gesellschaftliche Teilhabe. Unter dem Eindruck des „Framework for Information Literacy for Higher Education“ der ACRL verändert sich das Verständnis von Informationskompetenz. Die Angebote zur Förderung von Informationskompetenz von Universitäts- und Hochschulbibliotheken müssen besser in die Lehre in den Disziplinen integriert werden. E-Learning-Formate eigenen sich hierfür besonders gut. Für die gelungene Gestaltung von E-Learning-Angeboten sind Kenntnisse über Lerntheorien und Mediendidaktik notwendig. Auf eine breite theoretische Betrachtung folgt der Entwurf mediendidaktischer Konzepte für ein E-Learning-Angebot zur Förderung von Informationskompetenz an der Universitätsbibliothek der Freien Universität Berlin.
NOA is a search engine for scientific images from open access publications based on full text indexing of all text referring to the images and filtering for disciplines and image type. Images will be annotated with Wikipedia categories for better discoverability and for uploading to WikiCommons. Currently we have indexed approximately 2,7 Million images from over 710 000 scientific papers from all fields of science.
Open Science beschreibt die Öffnung des gesamten wissenschaftlichen Forschungs- und Erkenntnisprozesses, in dem Daten, Methoden und Ergebnisse geteilt werden. Dadurch ergeben sich neue Möglichkeiten und Formen der Wissensteilung und der Zusammenarbeit sowohl innerhalb als auch außerhalb der Wissenschaft. Für die Umsetzung in die Praxis ist es notwendig, dass ein grundlegendes Verständnis und Bewusstsein für den Nutzen und die Vorteile von Open Science sowie für praktische Anwendungsmöglichkeiten verbreitet werden. Diese Masterarbeit beschäftigt sich damit, wie Open Science mit E-Learning vermittelt werden kann. Dafür werden aufbauend auf einer Analyse von Trainings- und Lernangeboten Empfehlungen in zielgruppenspezifischen Umsetzungsmodellen entwickelt, die verschiedene Lerninhalte und E-Learning Formate berücksichtigen und Ansätze zur Nachnutzung bieten.
Dieser Beitrag fasst drei explorative Befragungen zusammen, in denen unter anderem Zusammenhänge von ehrenamtlichem Engagement mit verschiedenen Variablen überprüft wurden. Die Überprüfung dieser Zusammenhänge betrifft sowohl personaldiagnostische Variablen als auch korruptionsrelevante Variablen. Konkret wurde ehrenamtliches Engagement auf Zusammenhänge mit dem Fünf-Faktoren-Modell der Persönlichkeit, mit emotionaler Kompetenz, mit Korruptionswahrnehmung und mit der Einstellung zu Korruption überprüft. Befragt wurden Studierende der Betriebswirtschaftslehre, der Wirtschaftsinformatik, der Psychologie, der Rechtswissenschaften sowie Auszubildende der Polizei. Ehrenamtliches Engagement besitzt insgesamt nur eine geringe praktische Bedeutung für die Personaldiagnostik und ebenfalls nur eine geringe Bedeutung für die Korruptionsprävention. Derzeit ehrenamtlich engagierte Testpersonen weisen eine geringere Affinität gegenüber Korruption auf als Testpersonen ohne derzeitiges ehrenamtliches Engagement. Relativiert werden diese Ergebnisse jedoch durch ihre Widersprüchlichkeit über die drei Befragungen hinweg und durch die durchgängig geringen Effekthöhen. Wegen der geringen Effekthöhen ist die praktische Bedeutung eines ehrenamtlichen Engagements sowohl für die Personaldiagnostik als auch für die Korruptionsprävention als gering einzustufen.
Im Rahmen einer umfassenden Organisationanalyse durch das Projekt "Inklusive Beratung und Begleitung" der Hochschule Hannover wurde die Konzeptionalisierung und Praxis der Kooperationen der Jakob-Muth-Schule, anerkannte Tagesbildungsstätte aus Meppen einer näheren Betrachtung unterzogen und auf ihren Mehrwert im Kontext einer inklusiven Schullandschaft reflektiert. Anhand von Einzel- und Gruppeninterviews mit Lehrer*innen sowie pädagogischen Fachkräften konnten inklusionsförderliche und -hemmende Aspekte herausgearbeitet werden. Im Zuge einer resümierenden Betrachtung werden Ansatzpunkte zur Verbesserung der Zusammenarbeit und pädagogischen Praxis formuliert und zur Diskussion gestellt.
Der vorliegende Leitfaden ist eine Hilfestellung zur Vernehmung von erwachsenen Zeugen und Beschuldigten. Er wurde an der Hochschule für Polizei Baden-Württemberg interdisziplinär erstellt und berücksichtigt neueste wissenschaftliche Erkenntnisse sowie rechtliche, kriminalistische und psychologische Aspekte.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Wir hoffen, dass Ihnen damit die praktische Vernehmung erleichtert wird und Sie gute Ergebnisse erzielen werden.
Wir freuen uns über Ihr Feedback!
Dass Menschen bereit sind, ein Leben lang zu lernen, ist bereits in der heutigen Informations- und Wissensgesellschaft eine wichtige Voraussetzung, um in der Arbeitswelt zu bestehen, innovativ zu sein und sich weiterzuentwickeln. Die vorliegende Arbeit untersucht, inwieweit die Montessori-Pädagogik bereits Kinder und Jugendliche auf die Herausforderungen der Zukunft vorbereiten kann und ob sie den Anforderungen, die das Lebenslange Lernen stellt, gerecht wird. Zunächst werden das Phänomen des Lebenslangen Lernens, das Lernen in verschiedenen Lebensphasen und Lernsituationen sowie die Gründe und Ziele von Lebenslangem Lernen vorgestellt. Anschließend werden als Einflussfaktoren für das Gelingen Lebenslangen Lernens, und zwar die Lernmotivation, die Lernumgebung, die Lernerfahrung, das selbstgesteuerte Lernen sowie Kompetenzen skizziert. Weiter folgen ein Überblick über die Montessori-Pädagogik, deren Erziehungsziele, Grundlagen sowie Methoden. Den Abschluss der Arbeit bildet ein Vergleich der Konzepte und Prinzipien der Montessori-Pädagogik mit den Methoden, die für das Lernen am Arbeitsplatz eingesetzt werden und damit dem Lebenslangen Lernen dienen.
Lässt man sich etwas Zeit bei der Betrachtung der Märchenfigur des Froschkönigs erkennt man zwei unterschiedliche Ebenen. Die Prinzessin aus dem Märchen darf beide erfahren. Einerseits nimmt sie den Frosch als Belastung wahr. Andererseits erfährt sie in dem Frosch auch einen königlichen Aspekt, der durch die Krone symbolisiert wird. Wie kommt die Prinzessin von der empfundenen Belastung hin zur Erfahrung der „Krone des Lebens“? Die Verwandlung geschieht durch das Akzeptieren der Situation. In dem Märchen wird das Annehmen durch den Kuss symbolisiert.
Auch im normale Alltag werden Menschen mit diversen Belastungen – kleineren und größeren – konfrontiert. Das kann beispielsweise im Job, in der Familie oder auch im Straßenverkehr sein. Und es pfeifen die Spatzen von Dächern, dass Belastungen, die über einen längeren Zeitraum empfunden werden, zu diversen Krankheiten führen können. Man denke z. B. an Herz-/Kreislauferkrankungen, Angststörungen, Burnout, Süchte sowie erhöhte Aggressionsbereitschaften.
Es gibt also einen riesigen Handlungsbedarf. Mit Blick auf das Märchen „Der Froschkönig“ stellt sich die Frage, ob in Situationen, die als Belastung empfunden werden, vielleicht auch etwas Königliches verborgen ist.
Im Arbeitspapier wird im Sinne der Achtsamkeit davon ausgegangen, dass sich die Krone des Lebens in Situationen erst dann zeigen kann, wenn sie „geküsst“ bzw. angenommen werden, weil sich dann eine neue, eine tiefere Dimension zeigt, die man sich mit dem Verstand nicht erschließen kann.
Background: Given both the increase of nursing home residents forecast and challenges of current interprofessional interactions, we developed and tested measures to improve collaboration and communication between nurses and general practitioners (GPs) in this setting. Our multicentre study has been funded by the German Federal Ministry of Education and Research (FK 01GY1124).
Methods: The measures were developed iteratively in a continuous process, which is the focus of this article. In part 1 “exploration of the situation”, interviews were conducted with GPs, nurses, nursing home residents and their relatives focusing on interprofessional interactions and medical care. They were analysed qualitatively. Based on these results, in part 2 “development of measures to improve collaboration”, ideas for improvement were developed in nine focus groups with GPs and nurses. These ideas were revisited in a final expert workshop. We analysed the focus groups and expert workshop using mind mapping methods, and finally drew up the compilation of measures. In an exploratory pilot study "study part 3" four nursing homes chose the measures they wanted to adopt. These were tested for three months. Feasibility and acceptance of the measures were evaluated via guideline interviews with the stakeholders which were analysed by content analyses.
Results: Six measures were generated: meetings to establish common goals, main contact person, standardised pro re nata medication, introduction of name badges, improved availability of nurse/GP and standardised scheduling/ procedure for nursing home visits. In the pilot study, the measures were implemented in four nursing homes. GPs and nurses reviewed five measures as feasible and acceptable, only the designation of a “main contact person” was not considered as an improvement.
Conclusions: Six measures to improve collaboration and communication could be compiled in a multistep qualitative process respecting the perspectives of involved stakeholders. Five of the six measures were positively assessed in an exploratory pilot study. They could easily be transferred into the daily routine of other nursing homes, as no special models have to exist in advance. Impact of the measures on patient oriented outcomes should be examined in further research.
Trial registration: Not applicable.
Evaluierung und konzeptioneller Vergleich der Complex Event Processing Engine Siddhi anhand Esper
(2018)
Das schnelle Verarbeiten großer Datenmengen ist mittlerweile ein wesentlicher Bestandteil in vielen Wirtschaftszweigen, wie zum Beispiel der Finanz- und der Logistikbranche, und somit auch ein wichtiger Erfolgsindikator. Dabei ist es wichtig, dass eingehende Datenströme aus einer Vielzahl von verschiedenen Quellen (z.B. Sensoren oder Geschäftsprozessen) nicht auf langer Zeit persistiert, sondern schnellstmöglich analysiert und auf diese entsprechend reagiert wird. Diese Anforderung wird mithilfe der Softwaretechnologie Complex Event Processing (CEP) umgesetzt. Die eintreffenden Daten eines Datenstroms werden in CEP als Ereignisse bezeichnet, die eine Zustandsänderung des Systems repräsentieren.
Eines der Hauptziele von CEP ist es, aus einfachen Ereignissen aggregierte, d.h. komplexe Ereignisse einer höheren Abstraktionsebene zu erzeugen, indem Berechnungen und Korrelationen mit anderen Ereignissen durchgeführt werden oder auch Muster in Ereignisströmen erkannt werden um beispielsweise Auffälligkeiten wie Kreditkartenbetrug aufzuspüren. Der Gebrauch von CEP erfordert entsprechende Komponenten, die auf Ereignisse reagieren und diese weiter behandeln. Als Kernkomponente werden in verteilten Systemen sogenannte CEP Engines eingesetzt, die Ereignismuster in den Datenströmen erkennen. CEP Engines nutzen dabei eine Ereignisanfragesprache, sodass der Benutzer eine Ereignisregel definiert, die permanent Ereignisse nach der festgelegten Bedingung auswertet. Im Laufe der letzten Jahre hat sich eine große Reihe an verfügbaren CEP Engines von unterschiedlichen großen Softwareherstellern wie Oracle, TIBCO, IBM oder SAP angesammelt, sodass die Entscheidung für eine passende CEP Engine für ein verteiltes System schwerfällt. In dieser Arbeit wird die Open-Source CEP Engine namens Siddhi vorgestellt, die als leichtgewichtige und leistungsstarke Engine mit zahlreichen Erweiterungen zur Verarbeitung von Ereignissen veröffentlicht wurde. Das Ziel der Arbeit war dabei, Siddhi auf potenzielle Fähigkeiten zu untersuchen und mithilfe von konzeptionellen sowie technischen Kriterien zu vergleichen und zu evaluieren. Um Siddhi anhand der aufgestellten Kriterien sinnvoll zu bewerten, wurde die etablierte CEP Engine Esper als direkter Vergleichskandidat herangezogen. Des Weiteren wurden beide CEP Engine mit einer selbst erdachten Fallstudie umgesetzt, die eine "Gesundheitsüberwachung" simulieren soll. Am Ende der Arbeit wurde die Bewertung des Vergleichs zwischen Siddhi und Esper tabellarisch zusammengefasst und eine anschließende Beurteilung mithilfe des resultierenden Ergebnis formuliert, wann die Verwendung der CEP Engine Siddhi für empfehlenswert erscheint.
Computernetzwerke sind schon seit vielen Jahren ein nicht mehr wegzudenkender Teil der Infrastruktur nahezu aller Unternehmen und Institutionen. Sie werden genutzt um sowohl öffentliche als auch private und sicherheitskritische Informationen bereitzustellen. Aus diesem Grund ist die Netzwerksicherheit immer ein relevantes Thema, das sehr viele Aspekte hat. Neben einer gesicherten Übertragung von Daten, ist die Netzwerkzugriffskontrolle ein wichtiger Teil der Netzwerksicherheit. Insbesondere für öffentlich zugängliche Institutionen, wie die Hochschule Hannover, ist es wichtig, den Netzwerkzugriff zu beschränken. Zur Zeit wird im kabelgebundenen Netzwerk der Abteilung Informatik der Hochschule Hannover ein Sicherheitskonzept auf Basis von MAC-Adressen genutzt. Dieses Konzept bietet nur ein geringes Maß an Sicherheit und hält einem gezielten Angriff nicht Stand. Eine effektive Netzwerkzugriffskontrolle findet nicht statt. Eine bessere Alternative ist der Standard IEEE 802.1X, der eine Netzwerkzugriffskontrolle unter Verwendung verschiedener Authentifizierungsmethoden ermöglicht. Das Ziel dieser Arbeit ist die Erstellung eines Konzepts für die Implementierung dieses Standards im Netzwerk der Abteilung Informatik. Dieses Konzept soll gewährleisten, dass ein Netzwerkzugriff ausschließlich für autorisierte Geräte und Personen möglich ist. Zu diesem Zweck wird analysiert, welche Teile des Netzwerks von 802.1X profitieren und welche Authentifizierungsmethoden sich für diese am besten eignen. Bei der Erstellung des Konzepts werden unterschiedliche Möglichkeiten zum Umgang mit Geräten ohne Unterstützung für den 802.1X-Standard geprüft. Darüberhinaus wird auch eine Hochverfügbarkeitslösung für den Authentifizierungsdienst erarbeitet, um sicherzustellen, dass ein Netzwerkzugriff auch nach der Implementierung von 802.1X jederzeit möglich ist. Abschließend wird die Realisierbarkeit des Konzepts durch die Implementierung in einer Testumgebung geprüft.
In den letzten Jahren wurden verstärkt neue Forschungsinformationssysteme (FIS) geplant, aufgebaut und in Betrieb genommen. Da diese IT-gestützten Informationssysteme eine Vielzahl an Forschungsinformationen beinhalten sowie verschiedenen Zielen dienen können, bietet eine Sammlungsrichtlinie die Möglichkeit, die Entscheidungen auf inhaltlicher Ebene verbindlich und transparent darzustellen. Derartige Richtlinien existieren zum Beispiel bereits für Sammlungen in Bibliotheken und Museen. Die Bachelorarbeit zieht Parallelen zu diesen Bereichen und beschreibt deren Ziele und Inhalte.
In einem praxisbezogenen Teil wurde die Sammlungsrichtlinie für das Informationssystem Göttingen Research Online (GRO) erstellt. Die Vorgehensweise, Hindernisse und Erfahrungen werden zusammenfassend wiedergegeben. Ergänzt werden die Erkenntnisse durch eine Befragung unter deutschen Hochschulen und Forschungseinrichtungen.
Abschließend ist eine Empfehlung für eine FIS-Sammlungsrichtlinie entstanden, die Hinweise, Bestandteile und Best Practices enthält und somit anderen Institutionen als Leitfaden dienen kann.
Food protein hydrolysates are often produced in unspecific industrial batch processes. The hydrolysates composition underlies process-related fluctuations and therefore the obtained peptide fingerprint and bioactive properties may vary. To overcome this obstacle and enable the production of specific hydrolysates with selected peptides, a ceramic capillary system was developed and characterized for the continuous production of a consistent peptide composition. Therefore, the protease Alcalase was immobilized on the surface of aminosilane modified yttria stabilized zirconia capillaries with a pore size of 1.5 μm. The loading capacity was 0.3 μg enzyme per mg of capillary with a residual enzyme activity of 43%. The enzyme specific peptide fingerprint produced with this proteolytic capillary reactor system correlated with the degree of hydrolysis, which can be controlled over the residence time by adjusting the flow rate. Common food proteins like casein, sunflower and lupin protein isolates were tested for continuous hydrolysis in the developed reactor system. The peptide formation was investigated by high-performance liquid chromatography. Various trends were found for the occurrence of specific peptides. Some are just intermediately occurring, while others cumulate by time. Thus, the developed continuous reactor system enables the production of specific peptides with desired bioactive properties.
Hintergrund: Das System der pflegerischen Versorgung in Deutschland befindet sich in einer Umbruchphase. Seit Jahren wird über eine Weiterentwicklung der Kooperation im Gesundheitswesen und damit über eine Veränderung der Aufgabenverteilung zwischen den Gesundheitsberufen diskutiert. Im Jahr 2008 hat der Gesetzgeber die Einführung von Modellvorhaben zur Übertragung von Heilkunde auf Pflegende gem. § 63 Abs. 3c SGB V ermöglicht. Die Umsetzung verläuft sehr schleppend. Das Ziel der Untersuchung war, die Gründe für diese schleppende Umsetzung aus Sicht der gesetzlichen Krankenkassen zu analysieren.
Methode: Quantitative Befragung aller gesetzlichen Krankenkassen (n=124) in Deutschland.
Ergebnisse: Zur Sicherstellung der Versorgung halten 94 % der Krankenkassen die Übertragung von Heilkunde auf nichtärztliche Leistungserbringer für einen sinnvollen Ansatz. Sie wird von 96 % der Krankenkassen als sehr wichtig empfunden. Zwar befürworten 96 % der Krankenkassen grundsätzlich die Durchführung von Modellvorhaben, tatsächlich sind aber nur 8 % an derartigen Verträgen beteiligt; 71 % der Krankenkassen planen auch keine eigenen Modellvorhaben für die Zukunft.
Als mögliche Ursachen für die bislang schleppende Umsetzung werden aus Sicht der GKV insbesondere rechtliche Hürden (90 %), Widerstand durch ärztliche Standesvertreter (84 %), ungeklärte Finanzierungs- (74 %) und Haftungsfragen (70 %) sowie nicht-praxistaugliche Regelungen in der G-BA-Richtlinie (79 %) und im Gesetz (85 %) angeführt. Weniger als die Hälfte (46 %) der Krankenkassen vermutet hohe Kosten als Ursache für die schleppende Umsetzung.
Diskussion: Die vom Gesetzgeber im aktuellen Pflegeberufereformgesetz (PflBRefG) vorgenommenen Änderungen, insbesondere die Tatsache, dass Krankenkassen entsprechende Modellvorhaben bis zum 31. Dezember 2020 vereinbaren und durchführen sollen, sind vor dem Hintergrund der geäußerten Kritik als zielführend und adäquat zu bezeichnen.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Scientific papers from all disciplines contain many abbreviations and acronyms. In many cases these acronyms are ambiguous. We present a method to choose the contextual correct definition of an acronym that does not require training for each acronym and thus can be applied to a large number of different acronyms with only few instances. We constructed a set of 19,954 examples of 4,365 ambiguous acronyms from image captions in scientific papers along with their contextually correct definition from different domains. We learn word embeddings for all words in the corpus and compare the averaged context vector of the words in the expansion of an acronym with the weighted average vector of the words in the context of the acronym. We show that this method clearly outperforms (classical) cosine similarity. Furthermore, we show that word embeddings learned from a 1 billion word corpus of scientific exts outperform word embeddings learned from much larger general corpora.
Background: Depletion of ovarian hormone in postmenopausal women has been associated with changes in the locomotor apparatus that may compromise walking function including muscle atrophy/weakness, weight gain, and bone demineralization. Therefore, handgrip strength (HGS), bone mineral density (BMD) and body composition [percentage body fat mass (%BFM), fat mass (FM), Fat-free mass (FFM) and body mass index (BMI)], may significantly vary and predict WB in postmenopausal women. Consequently, the study sought to 1. Explore body composition, BMD and muscle strength differences between premenopausal and postmenopausal women and 2. Explore how these variables [I.e., body composition, BMD and muscle strength] relate to WB in postmenopausal women.
Method: Fifty-one pre-menopausal (35.74 + 1.52) and 50 postmenopausal (53.32 + 2.28) women were selected by convenience sampling and studied. Six explanatory variables (HGS, BMD, %BFM, FFM, BMI and FM) were explored to predict WB in postmenopausal women: Data collected were analyzed using multiple linear regression, ANCOVA, independent t-test and Pearson correlation coefficient at p < 0.05.
Result: Postmenopausal women had higher BMI(t = + 1.72; p = 0.04), %BFM(t = + 2.77; p = .003), FM(t = + 1.77; p = 0.04) and lower HGS(t = − 3.05; p = 0.001),compared to the premenopausal women. The predicted main effect of age on HGS was not significant, F(1, 197) = 0.03, p = 0.06, likewise the interaction between age and %BFM, F(1, 197) = 0.02, p = 0.89; unlike the predicted main effect of %BFM, F(1, 197) = 10.34, p = .002, on HGS. HGS was the highest predictor of WB (t = 2.203; β=0.3046) in postmenopausal women and combined with T-score right big toe (Tscorert) to produce R2 = 0.11;F (2, 47)=4.11;p = 0.02 as the best fit for the predictive model. The variance (R2) change was significant from HGS model (R2 = 0.09;p = 0.03) to HGS + Tscorert model (R2 = 0.11;p = 0.02). The regression model equation was therefore given as: WB =5.4805 + 0.1578(HGS) + (− 1.3532) Tscorert.
Conclusion: There are differences in body composition suggesting re-compartmentalization of the body, which may adversely impact the (HGS) muscle strength in postmenopausal women. Muscle strength and BMD areassociated with WB, although, only contribute to a marginal amount of the variance for WB. Therefore, other factors in addition to musculoskeletal health are necessary to mitigate fall risk in postmenopausal women.
Viele Unternehmen experimentieren mit Agilität. Gleichzeitig ist die Unsicherheit groß, wieviel Agilität ein QM-System nach ISO 9001 tatsächlich verträgt. Ein gemeinsames Forschungsprojekt der Hochschule Hannover und der DGQ hat sich zum Ziel gesetzt, hier mehr Sicherheit zu geben. Aus Interviews mit Vertretern von Unternehmen, welche teilweise agil arbeiten, entstand erstmals eine klare Definition von Agilität, agilen Praktiken und agilen Prozessen im Organisationskontext. Die daraus entwickelten Leitlinien für die Integration von agilen Vorgehensweisen in QM-Systeme beweisen schlüssig, dass agile Prozesse grundsätzlich nach den ISO 9001-Kriterien zertifizierungsfähig ausgestaltet werden können.
Agilität gilt als Trend in der Unternehmensführung, kontrovers diskutiert ist jedoch die Implementierung agiler Prozesse in standardisierte Managementsysteme. Auf Grundlage einer systematischen Literaturanalyse wird sich der Synthese dieser Extreme aus empirischen Vorgehensweisen und regulierten Umgebungen gewidmet. Anhand einer eigens definierten, qualitativ angereicherten Vorgehensweise wird den Thesen gefolgt, dass agile Prozesse ähnlichen Mechanismen klassischer Prozesssteuerung unterliegen und über diese Hebel in Managementsysteme implementierbar sind. Der Annahme folgend, dass derartige Steuerungsmechanismen extrahiert und definiert werden können, wird der Transfer anhand der ISO 9000-Reihe konkretisiert. Die Ausarbeitung der Steuerungsmechanismen offenbart indessen marginale Differenzen in der Lenkung agiler und klassischer Prozesse. Im Ergebnis zeigt sich, dass ebendiese Steuerungsmechanismen ferner unter Bezugnahme auf die ISO 9001:2015 validiert werden können. Im Rahmen der Übertragung auf agile Prozesse überwiegt die Kompatibilität, jedoch schmälert die inhärente Informalität agiler Prozesse unter Umständen die Wahrscheinlichkeit einer Zertifizierung und bedarf daher gesonderter Betrachtung.
Mit der Hannoverschen Korruptionsskala Österreich-Version (kurz: HKS 38 Ö) kann die Einstellung zu Korruption gemessen werden. Die HKS 38 Ö ist eine Adaption der Hannoverschen Korruptionsskala (kurz: HKS 38) für den österreichischen Sprachraum. Die testtheoretische Überprüfung der HKS 38 Ö wird unter anderem in diesem Manual beschrieben. Die HKS 38 Ö besteht aus 38 Items, die den Einstellungskomponenten kognitiv, affektiv und konativ zugeordnet werden können. Innerhalb dieses Manuals werden zwei Datenerhebungen geschildert. Mit einer ersten Datenerhebung wurde geprüft, ob die HKS 38 grundsätzlich für eine Anwendung in Österreich geeignet ist und ähnlich zuverlässige Messungen wie in Deutschland ermöglicht. Die Erfahrungen aus der ersten Datenerhebung – insbesondere die Hinweise von Testpersonen zur sprachlichen Verständlichkeit – führten zur Erstellung der HKS 38 Ö. Die HKS 38 Ö wurde im Rahmen einer zweiten Datenerhebung entsprechend der klassischen Testtheorie überprüft und auf Basis einer bevölkerungsrepräsentativen Telefonbefragung in Österreich (n ≈ 867) normiert. Die HKS 38 Ö eignet sich zur Befragung von Testpersonen ab einem Alter von 18 Jahren.
Leo A. Nefiodow, einer der angesehensten Vordenker der Informationsgesellschaft, verweist auf die großen Schäden und Verluste, die uns momentan durch psychische Störungen wie beispielsweise Angst, Depressionen, Burnout und ihre Folgen wie Gewalt, Kriminalität, Drogenmissbrauch und Erkrankungen entstehen. Die Förderung psychosozialer Gesundheit wäre somit geeignet, sowohl das Wohlbefinden des einzelnen Menschen zu verbessern als auch der Wirtschaft und der gesamten Gesellschaft einen Entwicklungsschub zu verleihen. Im Rahmen des Arbeitspapiers geht es darum, Möglichkeiten des Gegensteuerns aus dem Blickwinkel von Achtsamkeit vorzustellen. U. a. am praktischen Beispiel einer Schule wird versucht, das Wirkprinzip von Achtsamkeit zur Förderung psychosozialer Gesundheit in einer sozialen Einheit zu verdeutlichen.
Zu einer Vielzahl von Vorlesungen gibt es Übungsaufgaben, anhand derer das theoretisch erlernte Wissen noch weiter vertieft, gefestigt oder praktisch angewandt werden kann. Klassischerweise erhalten alle Studierende hierfür dieselbe Aufgabe. Allerdings gibt es gute Gründe, für alle eine jeweils individualisierte Variante zu erstellen. Da es für eine einzelne Lehrperson unmöglich ist, für alle Studierenden individuelle Aufgaben zu konzipieren, wurden in anderen Arbeiten bereits Möglichkeiten entwickelt, variable Aufgaben zu formulieren, aus denen viele unterschiedliche Varianten generiert werden können. Diese Bachelorarbeit befasst sich mit dem Entwurf und der Implementierung eines Services, der diese Generierung automatisiert durchführen kann. Er soll unabhängig von einem konkreten Frontend sein und mit beliebigen Gradern zusammenarbeiten können.
Staphylococcus aureus is recognized worldwide as one of the major agents of dairy cow intra-mammary infections. This microorganism can express a wide spectrum of pathogenic factors used to attach, colonize, invade and infect the host. The present study evaluated 120 isolates from eight different countries that were genotyped by RS-PCR and investigated for 26 different virulence factors to increase the knowledge on the circulating genetic lineages among the cow population with mastitis. New genotypes were observed for South African strains while for all the other countries new variants of existing genotypes were detected. For each country, a specific genotypic pattern was found. Among the virulence factors, fmtB, cna, clfA and leucocidins genes were the most frequent. The sea and sei genes were present in seven out of eight countries; seh showed high frequency in South American countries (Brazil, Colombia, Argentina), while sel was harboured especially in one Mediterranean country (Tunisia). The etb, seb and see genes were not detected in any of the isolates, while only two isolates were MRSA (Germany and Italy) confirming the low diffusion of methicillin resistance microorganism among bovine mastitis isolates. This work demonstrated the wide variety of S. aureus genotypes found in dairy cattle worldwide. This condition suggests that considering the region of interest might help to formulate strategies for reducing the infection spreading.
Im Social Web wird der Gatekeeper zum Gatewatcher. Unternehmen können medial eigene Inhalte an die relevanten Bezugsgruppen vermitteln, ohne auf einen Gatekeeper angewiesen zu sein. Die Relevanz der Inhalte wird allerdings durch das Publikum bestimmt. Die Nachrichtenwerttheorie, die ursprünglich auf die Selektion von Journalisten von Nachrichten geprägt war, muss uminterpretiert werden, um aktuell zu bleiben. Welche Nachrichtenfaktoren bestimmen also die Interaktion des Publikums und sorgen für wahre Relevanz in den Sozialen Medien?
Beitrag zum Workshop "Informationskompetenz im Norden" am 01.02.2018 im Bibliotheks- und Informationssytem der Carl von Ossietzky Universität Oldenburg.
Es geht zunächst darum, welche Ansätze und Projekte die Schreibwerkstatt verfolgt, um Informations- & Schreibprozesse an der Hochschule Hannover zu fördern.
Da es gemeinsame Ziele und Zielgruppen von sowie inhaltliche Überschneidungen zwischen Bibliothek und Schreibwerkstatt gibt, werden Kooperationsbeispiele und Vorteile der Zusammenarbeit vorgestellt.
Viele erwachsene Deutsche sind keine guten und geübten Leser. Sachtexte führen deswegen zu Unklarheiten, Fehlentscheidungen und Nachfragen. Diese Konzequenz stellt sich auch bei geübten aber fachfremden Lesern ein. Nur eine sprachliche Anpassung an Leser kann das ändern. Der Aufsatz vergleicht dazu zwei Ansätze, Einfache Sprache und Leichte Sprache. Der Autor vertritt die Auffassung, dass nur eine einfache Sprache als Lösung des genannten Dilemmas taugt. Leichte Sprache ist gegenwärtig das einzige Instrument, um Menschen mit neuronalen Schädigungen einen Inhalt zu übermitteln. Doch auch dafür nutzt sie nur eingeschränkt. Die Wissenschaft wird an diesen Themen arbeiten müssen. Sie steht erst am Anfang.