Refine
Year of publication
Document Type
- Article (525)
- Conference Proceeding (162)
- Bachelor Thesis (149)
- Report (102)
- Working Paper (85)
- Book (73)
- Master's Thesis (66)
- Part of a Book (40)
- Periodical Part (38)
- Study Thesis (25)
Is part of the Bibliography
- no (1322) (remove)
Keywords
- Bibliothek (44)
- Digitalisierung (38)
- Milchwirtschaft (36)
- E-Learning (27)
- Molkerei (27)
- Ausbildung (23)
- Euterentzündung (23)
- Informationsmanagement (22)
- Computersicherheit (21)
- Herbarium (20)
Aim:
The most suitable method for assessment of response to peptide receptor radionuclide therapy (PRRT) of neuroendocrine tumors (NET) is still under debate. In this study we aimed to compare size (RECIST 1.1), density (Choi), Standardized Uptake Value (SUV) and a newly defined ZP combined parameter derived from Somatostatin Receptor (SSR) PET/CT for prediction of both response to PRRT and overall survival (OS).
Material and Methods:
Thirty-four NET patients with progressive disease (F:M 23:11; mean age 61.2 y; SD ± 12) treated with PRRT using either Lu-177 DOTATOC or Lu-177 DOTATATE and imaged with Ga-68 SSR PET/CT approximately 10–12 weeks prior to and after each treatment cycle were retrospectively analyzed. Median duration of follow-up after the first cycle was 63.9 months (range 6.2–86.2). A total of 77 lesions (2–8 per patient) were analyzed. Response assessment was performed according to RECIST 1.1, Choi and modified EORTC (MORE) criteria. In addition, a new parameter named ZP, the product of Hounsfield unit (HU) and SUVmean (Standard Uptake Value) of a tumor lesion, was tested. Further, SUV values (max and mean) of the tumor were normalized to SUV of normal liver parenchyma. Tumor response was defined as CR, PR, or SD. Gold standard for comparison of baseline parameters for prediction of response of individual target lesions to PRRT was change in size of lesions according to RECIST 1.1. For prediction of overall survival, the response after the first and second PRRT were tested.
Results:
Based on RECIST 1.1, Choi, MORE, and ZP, 85.3%, 64.7%, 61.8%, and 70.6% achieved a response whereas 14.7%, 35.3%, 38.2%, and 29.4% demonstrated PD (progressive disease), respectively. Baseline ZP and ZPnormalized were found to be the only parameters predictive of lesion progression after three PRRT cycles (AUC ZP 0.753; 95% CI 0.6–0.9, p 0.037; AUC ZPnormalized 0.766; 95% CI 0.6–0.9; p 0.029). Based on a cut-off-value of 1201, ZP achieved a sensitivity of 86% and a specificity of 67%, while ZPnormalized reached a sensitivity of 86% and a specificity of 76% at a cut-off-value of 198. Median OS in the total cohort was not reached. In univariate analysis amongst all parameters, only patients having progressive disease according to MORE after the second cycle of PRRT were found to have significantly shorter overall survival (median OS in objective responders not reached, in PD 29.2 months; p 0.015). Patients progressive after two cycles of PRRT according to ZP had shorter OS compared to those responding (median OS for responders not reached, for PD 47.2 months, p 0.066).
Conclusions:
In this explorative study, we showed that Choi, RECIST 1.1, and SUVmax-based response evaluation varied significantly from each other. Only patients showing progressive disease after two PRRT cycles according to MORE criteria had a worse prognosis while baseline ZP and
ZPnormalized performed best in predicting lesion progression after three cycles of PRRT.
Die nachhaltige Verschiebung der Wachstumsmärkte in Richtung Emerging Markets (und hier insbesondere in die BRIC-Staaten) infolge der Wirtschaftskrise 2008/2009 hat die bereits weit reichend konsolidierte Nutzfahrzeugindustrie der Triadenmärkte in Nordamerika, Europa und Japan vor eine Vielzahl von Herausforderungen gestellt. Strategische Ziele wie die Festigung und Steigerung von Absatzvolumina sowie eine bessere Ausbalancierung von zyklischen Marktentwicklungen, die die Ertragssicherung und eine weitestgehend kontinuierliche Auslastung existenter Kapazitäten sicherstellen soll, sind in Zukunft ohne eine Marktbearbeitung in den ex-Triade Wachstumsmärkten kaum noch erreichbar. Dies verlangt eine Auseinandersetzung der betroffenen Unternehmen mit dem veränderten unternehmerischen Umfeld. Es gilt neue, bisher größtenteils unbekannte Märkte zu erobern und sich dabei neuen – teilweise ebenfalls wenig bekannten - Wettbewerbern und deren teilweise durchaus unkonventionellen Strategien zu stellen. Die Triade-Unternehmen sehen sich dabei Informationsdefiziten und einer zunehmenden Gesamtkomplexität ausgesetzt, die zu für sie zu nachteiligen und ungünstigen nformationsasymmetrien führen können. Die Auswirkungen, dieser Situation unangepasst gegenüberzutreten wären deutlich unsicherheits- und risikobehaftetere Marktbearbeitungsstrategien bzw. im Extremfall die Absenz von Internationalisierungsaktivitäten in den betroffenen Unternehmen. Die Competitive Intelligence als Instrument zur unternehmerischen Umfeldanalyse kann unterstützen diese negativen Informationsasymmetrien zu beseitigen aber auch für das Unternehmen günstige Informationsasymmetrien in Form von Informationsvorsprüngen generieren, aus denen sich Wettbewerbsvorteile ableiten lassen. Dieser Kontext Competitive Intelligence zur Beseitigung von Informationsdefiziten bzw. Schaffung von bewussten, opportunistischen Informationsasymmetrien zur erfolgreichen Expansion durch Internationalisierungsstrategien in den Emerging Markets wird im Rahmen dieses Arbeitspapieres durch die Verbindung von wissenschaftstheoretischen und praktischen Implikationen näher beleuchtet. Die sich aus dem beschriebenen praktischen Anwendungsbeispiel Competitive intelligence für afrikanische Marktbearbeitung ergebenden Erkenntnisse der erfolgreichen Anwendung von Competitive Intelligence als Entscheidungshilfe für Internationalisierungsstrategien sind wie folgt angelegt: - Erweiterung der Status-quo, häufig Stammmarkt-zentristisch angelegten Betrachtungsweisen von Märkten und Wettbewerbern in Hinblick auf das reale Marktgeschehen oder Potentialmärkte - bias-freie Clusterung von Märkten bzw. Wettbewerbern, oder Verzicht auf den Versuch der Simplifizierung durch Clusterbildung - differenzierte Datenerhebungsverfahren wie lokale vs. zentrale / primäre vs. sekundäre Datenerhebung für inhomogene, unterentwickelte oder sich entwickelnde Märkte - Identifizierung und Hinzuziehung von Experten mit dem entscheidenden Wissensvorsprung für den zu bearbeitenden Informationsbedarf - Überprüfung der Informationen durch Datentriangulation
In the context of modern mobility, topics such as smart-cities, Car2Car-Communication, extensive vehicle sensor-data, e-mobility and charging point management systems have to be considered. These topics of modern mobility often have in common that they are characterized by complex and extensive data situations. Vehicle position data, sensor data or vehicle communication data must be preprocessed, aggregated and analyzed. In many cases, the data is interdependent. For example, the vehicle position data of electric vehicles and surrounding charging points have a dependence on one another and characterize a competition situation between the vehicles. In the case of Car2Car-Communication, the positions of the vehicles must also be viewed in relation to each other. The data are dependent on each other and will influence the ability to establish a communication. This dependency can provoke very complex and large data situations, which can no longer be treated efficiently. With this work, a model is presented in order to be able to map such typical data situations with a strong dependency of the data among each other. Microservices can help reduce complexity.
After kidney transplantation graft rejection must be prevented. Therefore, a multitude of parameters of the patient is observed pre- and postoperatively. To support this process, the Screen Reject research project is developing a data warehouse optimized for kidney rejection diagnostics. In the course of this project it was discovered that important information are only available in form of free texts instead of structured data and can therefore not be processed by standard ETL tools, which is necessary to establish a digital expert system for rejection diagnostics. Due to this reason, data integration has been improved by a combination of methods from natural language processing and methods from image processing. Based on state-of-the-art data warehousing technologies (Microsoft SSIS), a generic data integration tool has been developed. The tool was evaluated by extracting Banff-classification from 218 pathology reports and extracting HLA mismatches from about 1700 PDF files, both written in german language.
Using openEHR Archetypes for Automated Extraction of Numerical Information from Clinical Narratives
(2019)
Up to 80% of medical information is documented by unstructured data such as clinical reports written in natural language. Such data is called unstructured because the information it contains cannot be retrieved automatically as straightforward as from structured data. However, we assume that the use of this flexible kind of documentation will remain a substantial part of a patient’s medical record, so that clinical information systems have to deal appropriately with this type of information description. On the other hand, there are efforts to achieve semantic interoperability between clinical application systems through information modelling concepts like HL7 FHIR or openEHR. Considering this, we propose an approach to transform unstructured documented information into openEHR archetypes. Furthermore, we aim to support the field of clinical text mining by recognizing and publishing the connections between openEHR archetypes and heterogeneous phrasings. We have evaluated our method by extracting the values to three openEHR archetypes from unstructured documents in English and German language.
This paper deals with new job profiles in libraries, mainly systems librarians (German: Systembibliothekare), IT librarians (German: IT-Bibliothekare) and data librarians (German: Datenbibliothekare). It investigates the vacancies and requirements of these positions in the German-speaking countries by analyzing one hundred and fifty published job advertisements of OpenBiblioJobs between 2012-2016. In addition, the distribution of positions, institutional bearers, different job titles as well as time limits, scope of work and remuneration of the positions are evaluated. The analysis of the remuneration in the public sector in Germany also provides information on demands for a bachelor's or master's degree.
The average annual increase in job vacancies between 2012 and 2016 is 14.19%, confirming the need and necessity of these professional library profiles.
The higher remuneration of the positions in data management, in comparison to the systems librarian, proves the prerequisite of the master's degree and thus indicates a desideratum due to missing or few master's degree courses. Accordingly, the range of bachelor's degree courses (or IT-oriented major areas of study with optional compulsory modules in existing bachelor's degree courses) for systems and IT librarians must be further expanded. An alternative could also be modular education programs for librarians and information scientists with professional experience, as it is already the case for music librarians.
Die vorliegende Bachelorarbeit untersucht mittels Stellenanzeigenanalyse von Bibliothekaren mit IT-Schwerpunkt (System- und IT-Bibliothekare, Bibliotheksinformatiker, Data Librarians etc.) sowie anhand eines Vergleichs der Curricula informationswissenschaftlicher Studiengänge, inwieweit den informationstechnischen Anforderungen der modernen Arbeitswelt in der Hochschulausbildung hinreichend Rechnung getragen wird.
Zu diesem Zweck liegen 179 IT-bibliothekarische Stellen der Jahre 2012-2017 von OpenBiblioJobs vor, die u. a. hinsichtlich Bedarf, Aufgaben, Kompetenzanforderungen sowie weiteren Inhalten zum Beschäftigungsverhältnis ausgewertet sind. Die analysierten IT-Kompetenzen sind den Modulinhalten von 14 Bachelor- und 9 Masterstudiengängen gegenübergestellt. Das durchschnittliche Jahreswachstum der IT-lastigen Stellenangebote im Untersuchungszeitraum liegt bei 38,25 % und bestätigt damit den Bedarf an Absolventen bibliothekarischer IT-Profile.
Systemorientierte Stellen benötigen u. a. vertiefte Kompetenzen mit bibliothekarischen Informationssystemen, den dort vorkommenden Daten(-banken) und Kenntnisse in der Programmierung, um die Konzeption, Administration und den Support dieser Systeme zu gewährleisten. Diese IT-Kompetenzen werden passend zum vorausgesetzten Abschluss (Bachelor) und der Vergütung (E9-12) in vielen Bachelorstudiengängen in grundlegender Form vermittelt, oft jedoch nur als Wahlpflichtmodule.
Datenorientierte Stellen setzen überwiegend den Master voraus und sind dementsprechend ab E13 eingruppiert. Neben Kompetenzen im gesamten Bereich des Datenmanagements (samt Meta- und Forschungsdaten), Fähigkeiten in der Analyse von Daten und deren Visualisierung sowie in Big und Linked Data, sind insbesondere umfassende Kenntnisse im Wissenschaftsbetrieb gefordert.
Im Gegensatz zu systemorientierten Stellen, für die passende Studiengänge mit vertieften IT-Inhalten existieren, fehlt bislang ein Masterstudiengang für das Datenmanagement, der die nötigen Kompetenzen konzertiert beinhaltet – nur einzelne Bereiche werden bislang abgedeckt. Die Arbeit richtet sich an Interessierte im Informationsbereich, Koordinatoren bibliothekarischer Studiengänge sowie Bibliotheksverbände.
Schriftliche Nachlässe werden in deutschen Bibliotheken in einer langen Tradition ge-sammelt und verwaltet. In der vorliegenden Bachelorarbeit werden die Besonderheit von schriftlichen Nachlässen und die Entwicklung der Nachlassbearbeitung erläutert. Zunächst werden zur Einführung in die Thematik Begriffsdefinitionen, die Bedeutung sowie die Entwicklungen in der Bearbeitung von Nachlässen dargelegt. An die Einführungen werden die Frage nach der Zuständigkeit zur Übernahme eines Nachlasses und der damit zusammenhängende Kompetenzstreitfall angeknüpft. Im Folgenden wird die Erwerbung thematisiert. Dazu werden die verschiedenen Erwerbungsarten vorgestellt und die möglichen rechtlichen Probleme in der Erwerbung aufgezeigt. Die Bearbeitung von Nachlässen wird anhand von Kassation, Ordnung, Erschließung und Maßnahmen zur Bestandserhaltung dargestellt. Die Thematik der schriftlichen Nachlässe wird mit Aspekten und Fragen der Nutzung abgeschlossen. Der theoretischen Abhandlung folgt die Dokumentation der Ordnung und Erschließung der Fotografien-Sammlung aus dem Nachlass von Robert Michel und Ella Bergmann-Michel, die mit der Vorstellung des Künstlerpaares und dessen Nachlass beginnt. Danach folgt die Erläuterung der praktischen Aufgabe im Hinblick auf Zielsetzung, Ausgangssituation, Vorbereitung und Durchführung. Abgeschlossen wird die Dokumentation mit Empfehlungen für die zukünftige Bearbeitung der Fotografien und des gesamten Nachlasses.
Die empfindliche Verteuerung des Rohöls im Laufe der letzten Jahre und die in ihrem Sog erfolgten Preissteigerungen auch für die anderen Energieträger haben Energie zu einem besonders kostbaren Wirtschaftsgut werden lassen. Es ist ganz deutlich geworden, dass Energie in allen Lebens- und Produktionsbereichen äußerst sparsam verwendet und optimal genutzt werden muss. Mittel- und langfristig gesehen sind daher gezielt Anstrengungen zu unternehmen, nicht einen Brennstoff durch einen anderen zu ersetzen, sondern - wo immer auch möglich - die natürlcihen Energiequellen zu nutzem.
Fenster versorgen die Innenräume mit Tageslicht, dienen der Lufterneuerung in den Räumen und schützen vor Umwelteinflüssen wie Kälte, Wärme, Lärm, Wind und Niederschlägen. Entsprechend weitgefächert ist das Spektrum deer planungsrelevanten Aspekte. Sowohl licht-, lüftungs-, wärme-, schall und wohntechnische als auch hygienische, psychologische und nicht zuletzt wirtschaftliche Gesichtspunkte sind bei edr täglichen Arbeit zu beachten.
Die Funktion eines Gebäudes, seine flächenmäßige Ausdehnung und seine Gliederung sowie seine Einbettung in die Umgebung bestimmen letztendlich die Dachkonstruktion. Der Planer steht hierbei vor der Aufgabe, unter Beachtung aller bauphysikalischen wie bautechnischen Gegebenheiten ein Optimum an gestalterischer Qualität bei Respektierung wirtschaftlicher und baupraktischer Belange zu realisieren, wobei zu beachten ist, dass gerade das Dach von den die Gebäudehülle bildenden Bauteilen der größten und unmittelbarsten Beanspruchung unterliegt.
Methods for standard meta-analysis of diagnostic test accuracy studies are well established and understood. For the more complex case in which studies report test accuracy across multiple thresholds, several approaches have recently been proposed. These are based on similar ideas, but make different assumptions. In this article, we apply four different approaches to data from a recent systematic review in the area of nephrology and compare the results. The four approaches use: a linear mixed effects model, a Bayesian multinomial random effects model, a time-to-event model and a nonparametric model, respectively. In the case study data, the accuracy of neutrophil gelatinase-associated lipocalin for the diagnosis of acute kidney injury was assessed in different scenarios, with sensitivity and specificity estimates available for three thresholds in each primary study. All approaches led to plausible and mostly similar summary results. However, we found considerable differences in results for some scenarios, for example, differences in the area under the receiver operating characteristic curve (AUC) of up to 0.13. The Bayesian approach tended to lead to the highest values of the AUC, and the nonparametric approach tended to produce the lowest values across the different scenarios. Though we recommend using these approaches, our findings motivate the need for a simulation study to explore optimal choice of method in various scenarios.
In this study, we calculated the energetics of hydrogen atoms adsorbing on and diffusing into the first few layers of γ-Fe for the (100), (110) and (111) surfaces and for the non-magnetic (NM), ferromagnetic (FM), and antiferromagnetic single (AFM1) and double layer (AFMD) structures. These studies are relevant as they atomistically simulate the early stages of hydrogen embrittlement in steels. We employed density functional theory to establish adsorption sites and energies for each plane and the minimum energy pathways for diffusion through the first few layers with associated activation barriers. Adsorption energies for all cases vary between ∼3.7 and 4.4 eV, and the energy barriers to diffusion in the bulk region vary between ∼0.2 and 1.2 eV for the twelve cases, with the highest and lowest bulk diffusion barriers occurring in the NM(111) and the FM(100) case, respectively. We conclude that the texturing of steels in order to expose certain cleavage planes or magnetic structures can decrease the likelihood of hydrogen embrittlement.
Bei der Integration technischer Energiemanagementsysteme (tEnMS) in Automatisierungsanlagen fällt ein hoher Engineering-Aufwand an, besonders für die Steuerungsprogrammierung. Dieser Engineering-Aufwand ist für industrielle Anwender der Hauptgrund, integrierte tEnMS nicht einzusetzen. Im Rahmen des Forschungsprojektes „Integriertes Anlagenengineering zur Erhöhung der Energieeffizienz (IAE4)“ (Förderkennzeichen: ZN2948; Forschungsprofessur des Landes Niedersachsen/Volkswagenstiftung) wurde untersucht, wie sich dieser Engineering-Aufwand reduzieren lässt. Hierzu wurde ein Software-Werkzeug entwickelt, das die benötigten Steuerungsprogramme automatisch aus Engineering-Daten und Gerätebeschreibungsdateien generiert. Dieser Beitrag stellt die Ergebnisse des IAE4-Projektes vor.
In industrial production facilities, technical Energy Management Systems are used to measure, monitor and display energy consumption related information. The measurements take place at the field device level of the automation pyramid. The measured values are recorded and processed at the control level. The functionalities to monitor and display energy data are located at the MES level of the automation pyramid. So the energy data from all PLCs has to be aggregated, structured and provided for higher level systems. This contribution introduces a concept for an Energy Data Aggregation Layer, which provides the functionality described above. For the implementation of this Energy Data Aggregation Layer, a combination of AutomationML and OPC UA is used.
Einfluss von Industrie 4.0 auf die Anwendbarkeit von Lastmanagement in der industriellen Produktion
(2018)
Technische Energiemanagementsysteme (kurz und im Folgenden tEnMS) in der produzierenden Industrie dienen heute meinst dem Messen, Speichern und Auswerten von Energieverbrauchsdaten. Allerdings besteht auch die Möglichkeit der Vorhersage und aktiven Einflussnahme auf die Energieaufnahme von Produktionsumgebungen durch das tEnMS. Derartige Funktionen werden als Prognose- und Lastmanagementfunktionen bezeichnet. Industrielle Produktionsumgebungen erfahren im Rahmen von Industrie 4.0 einen Wandel. Dieser Beitrag soll aufzeigen, wie tEnMS durch den beschriebenen Wandel beeinflusst werden und welche Chancen sich daraus für zukünftige tEnMS ergeben.
In dieser Studie wurden Unternehmen, die Produktionsanlagen betreiben oder betreuen, zu ihrem Sicherheitsaufwand bei der Abfrage von Security Advisories für Automatisierungskomponenten befragt. Die befragten Unternehmen (vorwiegend KMU) machten Angaben zum zeitlichen, technischen und personellen Aufwand für die Auswertung von Security Advisories im Produktionsumfeld. Es wurde festgestellt, dass in vielen Unternehmen Defizite in Bezug auf diese Fragestellung bestehen. Dieses resultiert im Wesentlichen aus Mangel an Zeit und Mangel an qualifiziertem Personal. Eine in der Studie vorgeschlagene automatisierte Abfrage von Asset Inventories und eine automatisierte Zuordnung von Security Advisories zu den Assets wird von den befragten Unternehmen durchgehend als sinnvoll erachtet.
Self-directed learning is an essential basis for lifelong learning and requires constantly changing, target groupspecific and personalized prerequisites in order to motivate people to deal with modern learning content, not to overburden them and yet to adequately convey complex contexts. Current challenges in dealing with digital resources such as information overload, reduction of complexity and focus, motivation to learn, self-control or psychological wellbeing are taken up in the conception of learning settings within our QpLuS IM project for the study program Information Management and Information Management extra-occupational (IM) at the University of Applied Sciences and Arts Hannover. We present an interactive video on the functionality of search engines as a practical example of a medially high-quality and focused self-learning format that has been methodically produced in line with our agile, media-didactic process and stage model of complexity levels.
To design cost-effective prevention strategies against mastitis in dairy cow farms, knowledge about infection pathways of causative pathogens is necessary. Therefore, we investigated the reservoirs of bacterial strains causing intramammary infections in one dairy cow herd. Quarter foremilk samples (n = 8056) and milking- and housing-related samples (n = 251; from drinking troughs, bedding material, walking areas, cow brushes, fly traps, milking liners, and milker gloves), were collected and examined using culture-based methods. Species were identified with MALDI-TOF MS, and selected Staphylococcus and Streptococcus spp. typed with randomly amplified polymorphic DNA-PCR. Staphylococci were isolated from all and streptococci from most investigated locations. However, only for Staphylococcus aureus, matching strain types (n = 2) were isolated from milk and milking-related samples (milking liners and milker gloves). Staphylococcus epidermidis and Staphylococcus haemolyticus showed a large genetic diversity without any matches of strain types from milk and other samples. Streptococcus uberis was the only Streptococcus spp. isolated from milk and milking- or housing-related samples. However, no matching strains were found. This study underlines the importance of measures preventing the spread of Staphylococcus aureus between quarters during milking.
To effectively prevent and control bovine mastitis, farmers and their advisors need to take infection pathways and durations into account. Still, studies exploring both aspects through molecular epidemiology with sampling of entire dairy cow herds over longer periods are scarce. Therefore, quarter foremilk samples were collected at 14-d intervals from all lactating dairy cows (n = 263) over 18 wk in one commercial dairy herd. Quarters were considered infected with Staphylococcus aureus, Streptococcus uberis, or Streptococcus dysgalactiae when ≥100 cfu/mL of the respective pathogen was detected, or with Staphylococcus epidermidis or Staphylococcus haemolyticus when ≥500 cfu/mL of the respective pathogen was detected. All isolates of the mentioned species underwent randomly amplified polymorphic DNA (RAPD)-PCR to explore strain diversity and to distinguish ongoing from new infections. Survival analysis was used to estimate infection durations. Five different strains of Staph. aureus were isolated, and the most prevalent strain caused more than 80% of all Staph. aureus infections (n = 46). In contrast, 46 Staph. epidermidis and 69 Staph. haemolyticus strains were isolated, and none of these caused infections in more than 2 different quarters. The 3 most dominant strains of Strep. dysgalactiae (7 strains) and Strep. uberis (18 strains) caused 81% of 33 and 49% of 37 infections in total, respectively. The estimated median infection duration for Staph. aureus was 80 d, and that for Staph. epidermidis and Staph. haemolyticus was 28 and 22 d, respectively. The probability of remaining infected with Strep. dysgalactiae or Strep. uberis for more than 84 and 70 d was 58.7 and 53.5%, respectively. Staphylococcus epidermidis and Staph. haemolyticus were not transmitted contagiously and the average infection durations were short, which brings into question whether antimicrobial treatment of intramammary infections with these organisms is justified. In contrast, infections with the other 3 pathogens lasted longer and largely originated from contagious transmission.
Although Corynebacterium spp. can be regularly associated with subclinical and clinical mastitis cases in dairy cows, knowledge on their reservoirs in dairy farms is sparse. Therefore, samples were collected at 10 visits with 14 day intervals from bedding material (n = 50), drinking troughs (n = 20), different walking areas (n = 60), cow brushes (n = 8), fly traps (n = 4), the passage to pasture (n = 9) as well as milking liners (n = 80) and milker gloves (n = 20) in one dairy cow farm. Additionally, quarter foremilk samples from all lactating cows (approximately 200) were collected at each visit. All samples underwent microbiological examination and cultured isolates were identified using MALDI-TOF MS. Most Corynebacterium spp. that were cultivated from milk were also isolated from the housing environment and milking-related niches (C. amycolatum, C. confusum, C. stationis, C. variabile, C. xerosis) or from milking-related niches only (C. frankenforstense, C. pilosum, C. suicordis). C. bovis was not cultivated from any environmental niche, while being the dominant species in milk samples. This study demonstrates that many Corynebacterium spp. present in milk samples can also be isolated from the cows’ environment. For C. bovis, the most relevant Corynebacterium species with regard to intramammary infections, it indicates that environmental reservoirs are of little relevance.
Open Access zu Textpublikationen und Forschungsdaten: Positionen politischer Parteien in Deutschland
(2016)
Die Arbeit beginnt mit einem Blick auf die Entstehung der Open-Access-Bewegung und erklärt die zentralen Begriffe Open Access zu Textpublikationen und Forschungsdaten und stellt das Zweitveröffentlichungsrecht vor. Die Vorstellung der beschlossenen Open-Access-Strategien, zusammen mit der Untersuchung von Wahlprogrammen und Koalitionsverträgen vermittelt einen Gesamteindruck zum aktuellen Open-Access-Stand in den Ländern. Bereits seit zehn Jahren ist die Forderung nach Open Access, dem freien Zugang zu wissenschaftlichen Informationen, Bestandteil der Wahlprogramme politischer Parteien. Trotzdem beschlossen erst in den Jahren 2014 und 2015 die Länder Baden-Württemberg, Berlin und Schleswig-Holstein landesweite Konzepte zur Open-Access-Förderung. Im Sommer 2016 wird unter den politischen Parteien in Deutschland eine schriftliche Befragung durchgeführt. Ziel der Befragung ist die Ermittlung der Positionen der Parteien, um Rückschlüsse auf die weitere Open-Access-Entwicklung in Deutschland zu ziehen.
This document describes the work done during the Research Semester in Summer 2006 of Prof. Dr. Stefan Wohlfeil. It is about Security Management tasks and how these tasks might be supported by Open Source software tools. I begin with a short discussion of general management tasks and describe some additional, security related management tasks. These security related tasks should then be added to a software tool which already provides the general tasks. Nagios is such a tool. It is extended to also perform some of the security related management tasks, too. I describe the new checking scripts and how Nagios needs to be configured to use these scripts. The work has been done in cooperation with colleagues from the Polytech- nic of Namibia in Windhoek, Namibia. This opportunity was used to also establish a partnership between the Department of Computer Science at FH Hannover and the Department of Information Technology at the Polytechnic. A first Memorandum of Agreement lays the groundwork for future staff or student exchange.
Der Aufsatz erläutert anschaulich, wie der Transport der elektrischen Energie vom Erzeuger zum Verbraucher im Detail erfolgt. Die Rechnung mit Hilfe grundlegender Beziehungen aus den Grundlagen der Elektrotechnik und dem Poynting-Vektor ermöglicht es, den physikalisch realen Transport der Energie räumlich quantitativ nachzuvollziehen und zu verstehen. An vereinfachten Beispielen wird gezeigt, wie die Energie über zwei Sammelschienen zu den Verbrauchern und insbesondere in die Verbraucher hinein gelangt. Bei den Verbrauchern handelt es sich exemplarisch um einen Widerstand, einen Kondensator, eine Spule und schließlich einen bewegten Leiter im magnetischen Feld als einfachste Form eines Gleichstrommotors. Es wird dargestellt, dass die Energie keinesfalls in den Zuleitungen transportiert wird, sondern durch den umgebenden Raum.
The optimization of lubricated sealing systems with respect to the stick-slip effect requires a friction model that describes the complex friction behavior in the lubricated contact area. This paper presents an efficient dynamic friction model based on the Stribeck curve, which allows to investigate the influencing parameters through finite element (FE) simulations. The simulation of a tribometer test using this friction model proofs that the model correlates well with the tribometer test results. It is shown that the system stiffness has a significant influence on the stick-slip tendency of the system.
Zum Abschluss des dreijährigen Forschungsprojektes "Flexible Plattform für Energiesammelsysteme für die Gebäudeautomation – MEH", gefördert durch das BMBF, wurde ein nachhaltiges Energiekonzept realisiert. Durch Nutzung unterschiedlicher energetischer Quellen, u.a. Rundfunkwellen (RF) und Solarstrahlung, können Aktoren und Sensoren der Gebäudeautomation autonom ohne zusätzliche Batterien umweltfreundlich und wartungsfrei betrieben werden.
Für Fachangestellte für Medien- und Informationsdienste (FaMIs) ist berufsbegleitendes Studieren eine erfolgreiche Maßnahme zur Höherqualifizierung. Bibliotheken können ihrerseits im Rahmen der Personalentwicklung mit der Unterstützung von studierenden Mitarbeitenden dem Fachkräftemangel entgegenwirken. Der Beitrag stellt die Personalentwicklungsmaßnahme am Beispiel des Bachelor-Studiengangs „Informationsmanagement – berufsbegleitend“ der Hochschule Hannover vor. Es werden Informationen aus der Beratungspraxis dargelegt und die mögliche Unterstützung durch die entsendenden Bibliotheken aufgezeigt.
Der zielorientierte Umgang mit Wissen bildet eine zentrale Herausforderung für Unternehmen und deren Mitarbeiter. Deren Kompetenzentwicklung ist für die Unternehmen unter dem Aspekt der Wettbewerbsfähigkeit ein lohnendes Ziel. Diese Arbeit stellt ein Werkzeug zur Messung von Kompetenzen im Persönlichen Wissensmanagement vor. Auf einer Literaturstudie basierend wurde ein Kompetenzkatalog erstellt und mit Hilfe einer Befragung von Fachleuten aus dem Bereichen Informations- und Wissensmanagement validiert. Dieser Kompetenzkatalog findet Eingang in einen Referenzrahmen für Kompetenzen für Persönliches Wissensmanagement. Zur Bestimmung der Niveaustufen Experte, Könner und Kenner im Persönlichen Wissensmanagement wurde ein Messwerkzeug erarbeitet und anhand von zwei Gruppen auf Gültigkeit überprüft. Die eine Gruppe bestand aus Mitarbeitern Exzellenter Wissensorganisationen, die andere aus interessierten Mitarbeitern aus nicht-explizit wissensorientierten Unternehmen. Es konnte nachgewiesen werden, dass beide Gruppen in acht Einzelkompetenzen signifikante Unterschiede besaßen. Auch für weitere Kompetenzen konnten Messdimensionen aus den Rückmeldungen der Umfrage hergeleitet werden. In einigen Fällen allerdings konnten die Niveaustufen Könner und Kenner nicht unterschieden werden.
Within the HiGHmeducation consortium various online learning modules shall be developed by members of the consortium to address the increasing need for skilled professionals in a networked and digitalized healthcare system. Transferability of these modules to other locations is one main objective for the design of online learning modules. Thus, a didactical framework for online learning modules was developed. To ensure feasibility of the framework, the participating universities were analyzed concerning availability of e-learning support structures and infrastructures including learning management systems (LMS). The analysis especially focuses on the various LMS learning tools and their suitability for the framework. The framework is the basis for 12 HiGHmeducation online learning modules of which a part has firstly been conducted in winter 2019/20 and leads to a comparable structure of the modules.
Radioisotope-guided sentinel lymph node dissection (sLND) has shown high diagnostic reliability in prostate (PCa) and other cancers. To overcome the limitations of the radioactive tracers, magnetometer-guided sLND using superparamagnetic iron oxide nanoparticles (SPIONs) has been successfully used in PCa. This prospective study (SentiMag Pro II, DRKS00007671) determined the diagnostic accuracy of magnetometer-guided sLND in intermediate- and high-risk PCa. Fifty intermediate- or high-risk PCa patients (prostate-specific antigen (PSA) >= 10 ng/mL and/or Gleason score >= 7; median PSA 10.8 ng/mL, IQR 7.4–19.2 ng/mL) were enrolled. After the intraprostatic SPIONs injection a day earlier, patients underwent magnetometer-guided sLND and extended lymph node dissection (eLND, followed by radical prostatectomy. SLNs were detected in in vivo and in ex vivo samples. Diagnostic accuracy of sLND was assessed using eLND as the reference. SLNs were detected in all patients (detection rate 100%), with 447 sentinel lymph nodes SLNs (median 9, IQR 6–12) being identified and 966 LNs (median 18, IQR 15–23) being removed. Thirty-six percent (18/50) of patients had LN metastases (median 2, IQR 1–3). Magnetometer-guided sLND had 100% sensitivity, 97.0% specificity, 94.4% positive predictive value, 100% negative predictive value, 0.0% false negative rate, and 3.0% additional diagnostic value (LN metastases only in SLNs outside the eLND template). In vivo, one positive SLN/LN-positive patient was missed, resulting in a sensitivity of 94.4%. In conclusion, this new magnetic sentinel procedure has high accuracy for nodal staging in intermediate- and high-risk PCa. The reliability of intraoperative SLN detection using this magnetometer system requires verification in further multicentric studies.
The velocity distribution of He atoms evaporating from a slab of liquid dodecane has been simulated. The distribution composed of ∼10 000 He trajectories is shifted to fractionally faster velocities as compared to a Maxwell–Boltzmann distribution at the temperature of the liquid dodecane with an average translational energy of 1.05 × 2RT (or 1.08 × 2RT after correction for a cylindrical liquid jet), compared to the experimental work by Nathanson and co-workers (1.14 × 2RT) on liquid jets. Analysis of the trajectories allows us to infer mechanistic information about the modes of evaporation, and their contribution to the overall velocity distribution.
Gemeinwesendiakonie und Digitalisierung: Ein kirchlicher Megatrend und ein gesellschaftlicher Megatrend. Zu beiden Themen einzeln wurde in den vergangenen Jahren viel publiziert. Zu beiden Themen gemeinsam jedoch kaum etwas. Isabelle Willemsen füllt diese Lücke mit dem vorliegenden Band fachkundig und differenziert und liefert zahlreiche Anregungen zum Weiterdenken.
Dieses Buch richtet sich an alle, die sich wissenschaftlich oder praktisch mit dem Thema Gemeinwesendiakonie beschäftigen.
Das Verhalten von Fußgängern wird seit einigen Jahrzehnten mit dem Ziel erforscht, Empfehlungen zur Reduzierung von Verletzten und Toten im Straßenverkehr auszusprechen. Diese Studie befasst sich mit ausgewählten Ergebnissen nationaler und internationaler Studien zum Fußgängerverhalten und verfolgt das Ziel, die bisherigen Forschungsergebnisse anhand einer verdeckten Beobachtung von Fußgängern im Straßenverkehr zu überprüfen. Hierzu wurde das Verhalten an einer Fußgängerampel in Hannover an zwei Wochentagen mehrere Stunden lang beobachtet. Bei der Auswertung der Ergebnisse konnten signifikante Zusammenhänge zwischen den untersuchten Einflussgrößen und dem Verhalten der beobachteten Personen festgestellt werden. Insbesondere deren Alter, die Anwesenheit weiterer Personen und das Fehlverhalten weiterer Personen erwiesen sich als die wichtige Prädiktoren für die Entscheidung, selbst bei Rot zu gehen.
In this paper a new rotor position observer for permanent magnet synchronous machines (PMSM) based on an Extended-Kalman-Filter (EKF) is presented. With this method, just one single EKF is sufficent to evaluate the position information from electromotive force (EMF) and anisotropy. Thus, the PMSM can be controlled for the entire speed range without a position sensor and without the need to switch or synchronize between different observers. The approach covers online estimation of permanent magnetic field and mechanical load. The resulting EKF-based rotor position estimator is embedded in the existing cascaded control concept of the PMSM without need of additional angle trackers or signal filters. The experimental validation for the position sensorless control shows optimized dynamic behaviour.
In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.
Die Milchwirtschaft will höhere Preise für Speisequark erlösen. Begründet wird dies mit der in der Bundesrepublik Deutschland gesetzlich verordneten Trockenmasseanhebung des Speisequarks von 17% auf 18%. Da diese Änderung zum 1. Januar 1987 bereits in Kraft trat und den Molkereiunternehmen lange vorher bekannt war, ist die Frage zu stellen, warum eine Änderung der variablen Kosten, von der alle Hersteller gleichermaßen betroffen sind, so schwer am Markt in entsprechende Preisanhebungen umzusetzen ist.
Methodische Weiterentwicklungen der Modellabteilungsrechnung für milchwirtschaftliche Betriebe
(1990)
Vor 15 Jahren wurde der erste Beitrag einer Serie von Modellabteilungsrechnungen mit dem Ziel veröffentlicht, der Praxis und Wissenschaft nachvollziehbare Planungshilfen
für die Gestaltung optimaler Produktionsstrukturen in der Milchwirtschaft an die Hand zu geben. Dieses Ziel gilt auch heute noch, jedoch hat sich im Laufe der Zeit immer
deutlicher herauskristallisiert, daß eine Fortschreibung der Faktorpreise sowie eine gelegentliche Aktualisierung der Faktormengenverbräuche in Anpassung an neue technologische Entwicklungen allein nicht ausreichen, die selbstgesetzen Ansprüche an die Modellabteilungsrechnung zu erfüllen.
In der Bundesrepublik Deutschland gibt es rund 200000 Lieferstellen für Molkereiprodukte vom industriellen Großverbraucher bis zum Facheinzelhändler mit Milchproduktenangebot. Gut die Hälfte der gesamten Nachfrage schöpfen die Zentralläger sowie die Geschäfte des Lebensmitteleinzelhandels ab, wobei die Belieferung des LEH weitestgehend auf Strecke erfolgt. - Dipl.-Wirtsch.-Ing. Heinrich Wietbrauk von der Bundesanstalt für Milchforschung in Kiel analysiert für „dynamik im handel" die milchwirtschaftlichen Warenströme in Deutschland.
Durch den demographischen Wandel und den damit verbundenen Fachkräftemangel stehen für Unternehmen immer weniger qualifizierte Fachkräfte zur Verfügung. Um in diesem sogenannten "War for Talents" wettbewerbsfähig zu bleiben, müssen Arbeitgebende für ihre Zielgruppe als attraktiv wahrgenommen werden. Dafür setzen immer mehr Unternehmen darauf, ihre Werte deutlich zu kommunizieren, um so eine starke, emotionalisierte Marke als Arbeitgebende aufzubauen. Denn: Nach der Theorie des "Person-Organization-Fit" bevorzugen Mitarbeitende Unternehmen als Arbeitgebende, die ähnliche Werteidentitäten aufweisen.
Neben diesen Entwicklungen fordern immer mehr Konsument:innen, aber auch Mitarbeitende, dass Unternehmen und Arbeitgebende Haltung zeigen und Verantwortung für Gesellschaft und Umwelt übernehmen, zum Beispiel in Form von Corporate Social Responsibility (CSR). Insbesondere Angehörige der Generationen Y und Z (zwischen 1980 und 2010 Geborene) wünschen sich eine emotionale Bindung und übereinstimmende Werte zu bzw. mit ihren Arbeitgebenden. Als informierte Generationen erwarten sie mehr als andere eine deutliche Positionierung von Unternehmen zu aktuellen Missständen: Ethisches Verhalten ist wichtiger als Gehalt und Glück schlägt Geld.
Ein Lösungsansatz, dem Fachkräftemangel und dieser Forderung zu begegnen, könnte dabei die Anwendung und Integration von Brand Activism sein, indem es der Steigerung der Arbeitgebendenattraktivität dient und Arbeitgebende die Rolle als "Agents of Change" einnehmen. Mit den Unternehmenswerten als Treiber umfasst Brand Activism sowohl die Kommunikation als auch spezifische aktivistische Handlungen, meist in Form von Kampagnen, die die eigene Haltung verdeutlichen.
In diesem Zusammenhang untersucht die vorliegende Experimentalstudie, inwiefern Brand Activism die wahrgenommene Arbeitgebendenattraktivität bei den Generationen Y und Z, insbesondere im Vergleich zu CSR, beeinflusst. Zudem wurde der moderierende Einfluss von bestimmten Persönlichkeitseigenschaften und Wertvorstellungen auf den Effekt von Brand Activism auf die Attraktivität von Arbeitgebenden untersucht. Die Ergebnisse der quantitativen Online-Befragung mit drei Experimentalgruppen zeigten, dass Brand Activism einen signifikant positiven Einfluss auf die wahrgenommene Arbeitgebendenattraktivität bei den Generationen Y und Z hat; im Detail auf den Innovations-, Entwicklungs- und Transferwert sowie auf einen Teil des ökonomischen Wertes und die Absichten gegenüber dem Unternehmen. Die untersuchten Persönlichkeitsmerkmale (Ausprägung der prosozialen Persönlichkeit und Communion) sowie Wertevorstellungen (Selbst-Überwindung) verstärken diesen Effekt von Brand Activism dabei nicht. Hierbei wurde lediglich in Zusammenhang mit dem sozialen Wert der Marke eine disordinale Wechselwirkung zwischen der Manipulation von Brand Activism und der Ausprägung der prosozialen Persönlichkeit aufgedeckt, die sich jedoch ausschließlich auf Personen mit geringer prosozialer Persönlichkeit in Verbindung mit der Beurteilung des sozialen Wertes der CSR-Marke bezieht und nicht pauschalisiert werden kann.
Die Serie von Modellabteilungsrechnungen wird mit der Untersuchung des Kostenverlaufs in der Abteilung Weichkäse fortgefuhrt, um einen weiteren Baustein zur Bestimmung optimaler Produktionsstrukturen zu erhalten. Als Ausgangsposition dieser Themenstellung soll im folgenden die Modellabteilung Weichkäse Gestalt annehmen. Dazu sind drei Arbeitsschritte notwendig: die Festlegung des zu untersuchenden Produktes, die inhaltliche Abgrenzung der zu bildenden Modellabteilung und die Auswahl des Fertigungsverfahrens.
In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.
In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.
Im zweiten Teil dieser Arbeit bilden gemäß den allgemeinen technischen Prozeßbedingungen die maschinellen und baulichen Ausrüstungen der vier Modelle, deren Investitionsbeträge, Nutzungsdauer und Instandhaltungsquote unterabteilungsweise dargestellt sind, den Ausgangspunkt dieses Themenbereiches. Eine Anpassung der technischen Auslegung an eine verringerte Auslastung erfolgte bei einer 65%igen und 33%igen Beschäftigung. Die zu tätigenden Investitionen für die Grundversion (100 % Beschäftigung) betragen im Modell 1 25,0 Mio. DM und im Modell 4 54,5 Mio. DM. Die Mengenverbräuche der Produktionsfaktoren Rohstoff, Personal, Energie, Betriebs- und Hilfsstoffe sowie Reparaturen sind von den spezifischen Modellausstattungen abgeleitet. Es ergeben sich Faktoreinsatzmengen, die mengenproportional auftreten und den Produkten zugeordnet sind, sowie periodenabhängige fixe Verbrauche, die der Abteilung angelastet werden. Anhand einer ausgewählten Beschäftigungssituation, die einem 2-Schichtbetrieb bei 250 Produktionstagen entspricht, wird aufgezeigt, wie sich die auf Abteilungsebene aggregierten Faktoreinsatzmengen in Abhängigkeit von der Modellgröße gestalten. So ergibt sich z.B. im Bereich des Produktionsfaktors Personal, daß für das Modell 1 eine Beschäftigungszahl an Arbeitskräften von 25 und im Modell 4 von 40 vorgesehen ist.
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Mit der vorliegenden Arbeit wird die im Jahr 1975 durchgeführte Modellkalkulation in der H-Milch-Abteilung aktualisiert, indem die Funktionsinhalte der Abteilung erweitert werden und der neueste Stand der Technik entsprechend bestehender Produktionsstrukturen zur Anwendung kommt. Darüber hinaus werden die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen In den Kalkulationen berücksichtigt. Unterteilt in drei Unterabteilungen - Ultrahocherhitzung, Aseptische Abpackung und Lager - wird der Produktionsprozeß zur Herstellung der ausgewählten Produkte H-Vollmilch und teilentrahmte H-Milch hinsichtlich ihrer Kostenverursachung untersucht. Die Bestimmung der Abteilungs- und Stückkosten für H-Milch erfolgt in vier Modellen, deren Kapazitäten entsprechend der Abfülleistung zwischen 5.700 Packungen/Stunde und 34.200 Packungen/Stunde liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, können so die Kosten für Produktionsmengen zwischen 4,6 und 183,4 Mio. Packungen/Jahr ermittelt werden. Die zu tätigenden Investitionen für die Grundversion betragen im Modeln 5,1 Mio. DM, die sich im Modell 4 auf 18,0 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge, die sich zu 40 % aus H-Vollmilch und zu 60 % aus teilentrahmter H-Milch zusammensetzt, ergeben sich aus den Investitionssummen spezifische Investitionen, die sich mit zunehmender Modellgröße von 168 auf 98 DM/1.000 Packungen erheblich senken. Die modellspezifischen Gesamtkosten der Abteilung „H-Milch“, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 75,7 Pf/Packung, die sich im kleinsten Modell auf 78,4 Pf/Packung erhöhen. Die outputbezogenen Einzelkosten der Produkte differieren infolge des unterschiedlichen Fettgehaltes nur in den Rohstoffkosten; in den übrigen Kostenarten wird von den gleichen Produktionsverbräuchen ausgegangen, da für die Herstellung beider Produkte dieselbe Technologie verwendet wird. Bei einem Beschäftigungsgrad von 63 % entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 58-61 % auf die Rohstoffkosten, 3 - 5 % auf die Anlagekosten und 30 % auf die Verpackungskosten. Die übrigen Kostenarten wie Energiekosten mit 3 - 4 % und Personalkosten mit 0,8 -1,5 % sind von geringerer Bedeutung. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind. So empfehlen sich beispielsweise bei verminderten Produktionsmengen Anpassungen in der Ausstattung der Abteilung, die zu sprunghaften Kostensenkungen führen können. Kostendegressionseffekte ergeben sich auch bei der Verringerung der Produktionstage in Beschäftigungssituationen eines 2- und 1-Schichtbetriebes. Wird z.B. in einer Abteilung mit zwei Abfüllanlagen (Modell 2) die Produktion eines 2-Schichtbetriebes von 250 Produktionstagen auf 200 Produktionstage/Jahr konzentriert, lassen sich die Abteilungskosten um 70.000 DM/Jahr verringern
In huge warehouses or stockrooms, it is often very difficult to find a certain item, because it has been misplaced and is therefore not at its assumed position. This position paper presents an approach on how to coordinate mobile RFID agents using a blackboard architecture based on Complex Event Processing.
Ziel der nachfolgenden Arbeit ist die Erhebung des aktuellen Stands der Digitalisierung in der Landwirtschaft. Es gilt herauszufinden, wie weit landwirtschaftliche Betriebe in Deutschland heute bereits digitalisiert sind. Parallel dazu soll erörtert werden, welche Gründe eine weitergehende Digitalisierung gegenwärtig verhindern. Dabei ist zu berücksichtigen, welche Bedeutung Digitalisierung in der Landwirtschaft hat. Zur Beantwortung der Forschungsfrage werden sowohl qualitative (Systematische Literaturanalyse) als auch quantitative Forschungsmethoden (Online-Umfrage mit anschließender statistischer Auswertung) angewendet. Wesentliche Erkenntnisse dieser Arbeit sind, dass die Messung von Digitalisierungsgraden landwirtschaftlicher Betriebe mittels eines Reifegradmodells signifikante Unterschiede in der deutschen Landwirtschaft widerspiegeln und dass der Kostenfaktor einen erheblichen Druck auf den digitalen Wandel im Agrarsektor ausübt. Generationenwechsel, sowie herstellerübergreifende Lösungen stellen neben der Forderung von mehr Unterstützung seitens der Politik und öffentlicher Institutionen Diskussionspunkte dieser Abschlussarbeit dar.
Die vorliegende Arbeit befasst sich mit dem Trend "Gamification" und untersucht an Hand einer Szenario-Analyse, wie sich der Trend auf die Standgestaltung der B2B-Messen im Jahr 2030 auswirken wird.
Hierfür wurde intensive Literaturrecherche betrieben zu den Kernthemen: Gamification, Design, B2B-Messe und Trends im Messewesen.
Nach einer Auswertung dieser Themen in Bezug auf deren Kernelemente und Schlüsselkombinationen wurden 15 Zukunftsprojektionen erstellt, welche anschließend in 3 Szenarien zu Zukunftsbildern ausformuliert wurden.
Fazit der Arbeit ist, dass der Trend Gamification zwar an Bedeutung gewinnt, das Standdesign jedoch nur geringfügig beeinflussen wird. Andere Trendthemen wie Nachhaltigkeit, Sicherheit und die generelle Digitalisierung sowie ein Drang zu Kommunikation werden stärkeren Einfluss auf die Zukunft des Messewesens, und dadurch auch die Standgestaltung bei B2B-Messen, nehmen.
Hintergrund: Das System der pflegerischen Versorgung in Deutschland befindet sich in einer Umbruchphase. Seit Jahren wird über eine Weiterentwicklung der Kooperation im Gesundheitswesen und damit über eine Veränderung der Aufgabenverteilung zwischen den Gesundheitsberufen diskutiert. Im Jahr 2008 hat der Gesetzgeber die Einführung von Modellvorhaben zur Übertragung von Heilkunde auf Pflegende gem. § 63 Abs. 3c SGB V ermöglicht. Die Umsetzung verläuft sehr schleppend. Das Ziel der Untersuchung war, die Gründe für diese schleppende Umsetzung aus Sicht der gesetzlichen Krankenkassen zu analysieren.
Methode: Quantitative Befragung aller gesetzlichen Krankenkassen (n=124) in Deutschland.
Ergebnisse: Zur Sicherstellung der Versorgung halten 94 % der Krankenkassen die Übertragung von Heilkunde auf nichtärztliche Leistungserbringer für einen sinnvollen Ansatz. Sie wird von 96 % der Krankenkassen als sehr wichtig empfunden. Zwar befürworten 96 % der Krankenkassen grundsätzlich die Durchführung von Modellvorhaben, tatsächlich sind aber nur 8 % an derartigen Verträgen beteiligt; 71 % der Krankenkassen planen auch keine eigenen Modellvorhaben für die Zukunft.
Als mögliche Ursachen für die bislang schleppende Umsetzung werden aus Sicht der GKV insbesondere rechtliche Hürden (90 %), Widerstand durch ärztliche Standesvertreter (84 %), ungeklärte Finanzierungs- (74 %) und Haftungsfragen (70 %) sowie nicht-praxistaugliche Regelungen in der G-BA-Richtlinie (79 %) und im Gesetz (85 %) angeführt. Weniger als die Hälfte (46 %) der Krankenkassen vermutet hohe Kosten als Ursache für die schleppende Umsetzung.
Diskussion: Die vom Gesetzgeber im aktuellen Pflegeberufereformgesetz (PflBRefG) vorgenommenen Änderungen, insbesondere die Tatsache, dass Krankenkassen entsprechende Modellvorhaben bis zum 31. Dezember 2020 vereinbaren und durchführen sollen, sind vor dem Hintergrund der geäußerten Kritik als zielführend und adäquat zu bezeichnen.
Wie kann man den empfundenen Alltagsstress bewältigen und eigene, sinnvolle Ziele erreichen? Woher kommt die Zeitnot und was kann man tun? Gibt es Faktoren, die Glück und Erfolg fördern? Was kann man in seinem Studien- und Arbeitsalltag tun, um sich wohl zu fühlen und erfolgreich zu sein? Welche Zeitmanagement-Tools helfen bei der Organisation von Studium und Arbeitsalltag?
Diese und weitere Fragen werden im Workbook beantwortet. Der Selbstmanagement-Prozesskreis wird vorgestellt, verschiedene Modelle, Prinzipien und Techniken werden vermittelt. Mit vielen Reflexionsfragen und Übungen.
Gender und Diversity spielen in der Wirtschaft und Verwaltung eine große Rolle. Der Begriff Gender beschreibt das soziale Geschlecht. In unserer Wahrnehmung unterscheiden wir zwischen männlich und weiblich und ordnen entsprechende Attribute zu. Die Differenzierung geschieht auf individueller, interaktionaler und institutionaler Ebene und ist immer mit Wertungen versehen (Gender Orders). Dadurch kommt es zu Ungleichheiten und Ungerechtigkeiten. Der Begriff „Diversity“ (Vielfalt) beschreibt die Vielfalt der Mitglieder (z.B. die Mitarbeitenden), der Bezugsgruppen (z.B. Geldgeber) und der Kunden einer Organisation bzw. eines Betriebes. Unterschieden werden Geschlecht, Kultur, Alter, Behinderung, familiäre Situation und sexuelle Orientierung. Ziel von Gender Mainstreaming und Diversity Management ist es, Chancengleichheit im Unternehmen bzw. in der Verwaltung zu schaffen. Chancengleichheit als personalpolitisches Ziel beinhaltet den Abbau von Diskriminierungen, gleiche Rechte und Chancen und Möglichkeiten sowie die sinnvolle Berücksichtigung und Einbeziehung der verschiedenen Mitarbeiter- und Kundengruppen. In dem folgenden Artikel werden Gender Mainstreaming und Diversity Management und deren Instrumente beschrieben. Eine Checkliste, Praxis und Fallbeispiele ermöglichen das Bearbeiten des Themas und die Umsetzung in die Praxis.
Gender und Kommunikation
(2010)
In diesem Artikel werden die Zusammenhänge zwischen Gender und Kommunikation erörtert, an Fallbeispielen und Untersuchungen erläutert und reflektiert. Der Begriff Gender beschreibt das soziale Geschlecht. Der Prozess der Kommunikation besteht aus Encodieren und Decodieren auf der nonverbalen, paraverbalen und verbalen Ebene. Dies wird unter anderem von Gender beeinflusst. Durch das Konzept des Doing Gender werden Wahrnehmungen, Kommunikationsverhalten sowie die statistischen Gegebenheiten und Rahmenbedingungen, in denen sich die Kommunikation abspielt, analysiert. Geschlechtstypische kommunikative Muster werden beschrieben und deren Grenzen durch Rahmenbedingungen reflektiert.
In diesem Beitrag wird zunächst geklärt, was der Begriff Authentizität beinhaltet und was entsprechend authentische Führung bedeutet. Im dritten Kapitel geht es ausführlich um den Begriff der Persönlichkeit und ausgewählte Theorien der Persönlichkeitspsychologie. Das vierte Kapitel beschäftigt sich mit Professionalität und professioneller Führung. Anschließend werden die Ausführungen stärker auf die berufliche Praxis bezogen. Im fünften Kapitel werden zwei ausgewählte Persönlichkeitstests vorgestellt, die auch in Unternehmen im Recruitment von Führungskräften eingesetzt werden. Das sechste Kapitel befasst sich mit Konzepten und Techniken zur Persönlichkeitsentwicklung. Im siebten Kapitel wird noch einmal ein Fazit gezogen. Die in der Einleitung aufgeworfenen Fragen werden zusammenfassend beantwortet.
Zunächst werden ausgewählte Theorien und Modelle zu Persönlichkeit dargestellt, der Bezug zu Führungseigenschaften und Führungsverhalten wird gezogen. Im dritten Kapitel wird Führung definiert und vertiefend erläutert. Nach einem Modell von Schulz von Thun werden in den nachfolgenden Kapiteln Wesensgemäße Führung, Situationsgerechte Führung sowie Metakommunikative Führung anhand ausgewählter Modelle erörtert. Danach wird spezifisch auf die Führungsbeziehung eingegangen (wobei natürlich auch Kommunikation sich bereits mit der Beziehung von Führungskraft und Mitarbeiter befasst). Abschließend werden die eingangs aufgeworfenen Fragen beantwortet.
In diesem Text werden Moderationsmethode und Moderationszyklus erläutert. Die einzelnen Phasen und deren Bausteine werden beschrieben. Durch viele Beispiele soll die Anwendung der Bausteine erleichtert werden. Durch die Anwendungsbeispiele der Bausteine sowie die Erläuterungen zu Moderationsvorbereitung und Moderatorenrolle (Haltung und Fragetechnik) sollen die Lesenden in die Lage versetzt werden, die Moderationsmethode nach der Teilnahme an der Beispielmoderation und deren Reflexion selbst anzuwenden.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership".
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at work. Positive Psychologie im Unternehmen und Positive Leadership". Checklisten, Übungen, Arbeitsblätter, Links und Foliensätze.
Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Begleitheft zum Seminar "Psychology at Work - Selbstmanagement im Unternehmen und Authentic Leadership". Checklisten, Übungen, Arbeitsblätter, Links und Foliensätze. Zusätzlich zu den Videos und den Live online Einheiten enthält das Begleitheft die Video-Übungen zur besseren Übersicht und Bearbeitung, sowie zusätzliche online-Links und vertiefende Arbeitsblätter.
Recent developments in the field of deep learning have shown promising advances for a wide range of historically difficult computer vision problems. Using advanced deep learning techniques, researchers manage to perform high-quality single-image super-resolution, i.e., increasing the resolution of a given image without major losses in image quality, usually encountered when using traditional approaches such as standard interpolation. This thesis examines the process of deep learning super-resolution using convolutional neural networks and investigates whether the same deep learning models can be used to increase OCR results for low-quality text images.
Die vorliegende Bachelorarbeit stellt den Einsatz von Social Software beim Regionalfernsehsender „h1 – Fernsehen aus Hannover“ dar. Nach einem kurzen Einblick in die Grundlagen von Social Software folgt die Vorstellung des Senders. Hierbei wird vor allem der organisatorische Aufbau und die Kommunikation im Sender näher betrachtet. Anschließend wird dargestellt, welche Informationsmittel bei h1 durch den Einsatz von Social Software ersetzt wurden und wie sich dadurch die Kommunikation und das Informationsmanagement innerhalb des Unternehmens verbessert hat.
Angebote Kultureller Bildung im Kontext von Prävention arbeiten vor allem mit Jugendlichen, die im Sinne des Empowerment-Ansatzes gestärkt werden sollen, um gegen Rechtsextremismus einzutreten. Selten gibt es Projekte, die mit Jugendlichen arbeiten, die rechtsextreme Orientierungen aufweisen. Ausgehend von unterschiedlichen Dimensionen der Präventionsarbeit mit Jugendlichen in Radikalisierungsprozessen stellt der Beitrag mehrere Handlungsfelder der Kulturellen Bildung dar, in denen sich sowohl besondere Potenziale als auch Ambivalenzen der Jugendkulturarbeit mit rechtsorientierten Jugendlichen ergeben. Dabei zeigt sich, dass es für eine erfolgversprechende künstlerisch-pädagogische Arbeit mit rechtsorientierten Jugendlichen nicht nur eines besonderen milieuspezifischen Wissens über die Lebenswelt der rechtsextremen Szene bedarf. Diese Arbeit erfordert auch eine pädagogische sowie politische Haltung, die rechtsorientierte Jugendliche als Personen und Menschen mit Bedürfnissen, Träumen, Lebenszielen usw. anerkennt und mit einer milieuübergreifenden, diversitätsbewussten Perspektive die unterschiedlichen Wege und Faktoren, die zu einer „rechten Karriere“ führen können, in der jugendkulturellen Arbeit berücksichtigt, ohne die menschenverachtenden Weltbilder zu akzeptieren.
Streptococcus dysgalactiae is among the most important pathogens causing bovine mastitis. Unfortunately, there is presently a lack of clear knowledge about the mode of transmission — contagious or environmental — of this pathogen. To obtain more information on this, knowledge of the genetic diversity of the isolated microorganisms at the farm level can be useful. To observe the strain variety in different herds of cattle, isolates of Strep. dysgalactiae were collected from clinical mastitis samples at different farms, and the strains were typed using the pulsed-field gel electrophoresis (PFGE) method. Overall, we performed strain typing on 93 isolates from 16 farms in Germany and used an index to describe the degree of contagiosity of Strep. dysgalactiae at each farm. This index (CI) represents the number of isolates divided by the number of strains found in mastitis milk of clinical cases within a period of 14 months. The results differed between the farms. In one farm, all six Strep. dysgalactiae cases that occurred during the study period were caused by a single strain (CI = 6), while in another farm the six cases that occurred were caused by five different strains (CI = 1.2). All other farms fell between these two extremes. This indicates that Strep. dysgalactiae infections can occur via several routes of transmission. At the farm level, strain comparisons are necessary to determine the routes of transmission. Two strains were able to survive on the farm for a minimum of 14 months.
Milk concentrates are used in the manufacturing of dairy products such as yogurt and cheese or are processed into milk powder. Processes for the nonthermal separation of water and valuable milk ingredients are becoming increasingly widespread at farm level. The technical barriers to using farm-manufactured milk concentrate in dairies are minimal, hence the suspicion that the practice of on-farm raw milk concentration is still fairly uncommon for economic reasons. This study, therefore, set out to investigate farmers’ potential willingness to adopt a raw milk concentration plant. The empirical analysis was based on discrete choice experiments with 75 German dairy farmers to identify preferences and the possible adoption of on-farm raw milk concentration. The results showed that, in particular, farmers who deemed the current milk price to be insufficient viewed on-farm concentration using membrane technology as an option for diversifying their milk sales. We found no indication that adoption would be impeded by a lack of trustworthy information on milk processing technologies or capital.
Cradle to Cradle – An analysis of the market potential in the German outdoor apparel industry
(2016)
The purpose of this study is to investigate the market potential in the German outdoor apparel industry by focusing on sustainable production in terms of environmental and human health. A literature study of the Cradle to Cradle (C2C) design concept is provided, as it represents a solution for pollution, waste and environmental destruction caused by the current industrial design and waste management. The data for the subsequent market- and competitive analysis of the German outdoor apparel industry was collected through secondary research in order to identify several key market indicators for the assessment of the market potential. The outcome of this research is the identification of a positioning strategy for outdoor apparel according to the C2C design concept. The results show stagnant growth rates in recent years in the German outdoor apparel market and strong rivalry among the competitors. However, a significant market potential was calculated and beneficial trends for sustainable outdoor brands were recognised. These findings reveal the existence of a market potential for an outdoor apparel brand according to the C2C design concept. By following a positioning strategy of transparency and full commitment to a sustainable production, the company might be able to gain market shares from its competitors, as future predictions indicate slow growth rates in the market. The results of this analysis can be of great interest for entrepreneurs that plan to enter the German outdoor apparel industry.
Die Bachelorarbeit "Content-Strategien im Luxusmodemarketing" befasst sich mit den jeweiligen Besonderheiten von Content-Strategie und Luxusmodemarketing. Diese Ansatzpunkte werden zur Hilfe genommen, um die jeweiligen Disziplinen aufeinander zu beziehen. Dabei spielen bei der Content-Strategie die Faktoren Zielgruppe, Zeitpunkt, Inhalt, Kanäle und Formate eine übergeordnete Rolle, während im Luxusmodemarketing die Symbolkraft der Marke, die Saisonalität der Mode, die Visualität sowie die Akzeptanz seitens des Konsumenten von Bedeutung sind. Mithilfe dieser Kernaspekte, die in dieser Arbeit anhand von Theorien und Modellen untersucht werden, können Bezugspunkte zu den beiden Disziplinen hergestellt werden.
Der Theorieteil erläutert diese Facetten und arbeitet heraus, welche genauen Muster innerhalb der Content-Strategie sowie des Luxusmodemarketings vorliegen. Schließlich beschreibt der Anwendungsteil, wie die relevanten Zielgruppen, die passenden Inhalte, der richtige Zeitpunkt, die erforderlichen Kanäle und die angemessenen Formate auszusehen haben, um eine Content-Strategie erfolgreich im Luxusmodemarketing zu implementieren. Diese Arbeit versucht dies anhand der gewonnenen theoretischen Erkenntnisse sowie entsprechenden Praxisbeispielen näher zu betrachten.
The paper presents a comprehensive model of a banking system that integrates network effects, bankruptcy costs, fire sales, and cross-holdings. For the integrated financial market we prove the existence of a price-payment equilibrium and design an algorithm for the computation of the greatest and the least equilibrium. The number of defaults corresponding to the greatest price-payment equilibrium is analyzed in several comparative case studies. These illustrate the individual and joint impact of interbank liabilities, bankruptcy costs, fire sales and cross-holdings on systemic risk. We study policy implications and regulatory instruments, including central bank guarantees and quantitative easing, the significance of last wills of financial institutions, and capital requirements.
Das Metavorhaben „Partizipation, Praxisbezug, Ethik und Monitoring in der Förderlinie ‚sexualisierte Gewalt in pädagogischen Kontexten‘ (ParPEM)“, zielt auf die inhaltliche Begleitung der vom BMBF am 7.11.2016 ausgeschriebenen Anschlussförderlinie ab, durch die fünf Einzelvorhaben und elf Verbundvorhaben gefördert werden. Dieser Schlussbericht fasst die Forschungsergebisse des Teilprojekts „Münster“ zusammen.
Automatic classification of scientific records using the German Subject Heading Authority File (SWD)
(2012)
The following paper deals with an automatic text classification method which does not require training documents. For this method the German Subject Heading Authority File (SWD), provided by the linked data service of the German National Library is used. Recently the SWD was enriched with notations of the Dewey Decimal Classification (DDC). In consequence it became possible to utilize the subject headings as textual representations for the notations of the DDC. Basically, we we derive the classification of a text from the classification of the words in the text given by the thesaurus. The method was tested by classifying 3826 OAI-Records from 7 different repositories. Mean reciprocal rank and recall were chosen as evaluation measure. Direct comparison to a machine learning method has shown that this method is definitely competitive. Thus we can conclude that the enriched version of the SWD provides high quality information with a broad coverage for classification of German scientific articles.
We present a simple method to find topics in user reviews that accompany ratings for products or services. Standard topic analysis will perform sub-optimal on such data since the word distributions in the documents are not only determined by the topics but by the sentiment as well. We reduce the influence of the sentiment on the topic selection by adding two explicit topics, representing positive and negative sentiment. We evaluate the proposed method on a set of over 15,000 hospital reviews. We show that the proposed method, Latent Semantic Analysis with explicit word features, finds topics with a much smaller bias for sentiments than other similar methods.
Regional Innovation Systems describe the relations between actors, structures and infrastructures in a region in order to stimulate innovation and regional development. For these systems the collection and organization of information is crucial. In the present paper we investigate the possibilities to extract information from websites of companies. First we describe regional innovation systems and the information types that are necessary to create them. Then we discuss the possibilities of text mining and keyword extraction techniques to extract this information from company websites. Finally, we describe a small scale experiment in which keywords related to economic sectors and commodities are extracted from the websites of over 200 companies. This experiment shows what the main challenges are for information extraction from websites for regional innovation systems.
Library of Congress Subject Headings (LCSH) are popular for indexing library records. We studied the possibility of assigning LCSH automatically by training classifiers for terms used frequently in a large collection of abstracts of the literature on hand and by extracting headings from those abstracts. The resulting classifiers reach an acceptable level of precision, but fail in terms of recall partly because we could only train classifiers for a small number of LCSH. Extraction, i.e., the matching of headings in the text, produces better recall but extremely low precision. We found that combining both methods leads to a significant improvement of recall and a slight improvement of F1 score with only a small decrease in precision.
Diese Studie untersucht Gruppen von Ortsnamen in Deutschland (in den Postleitregionen) nach vorhandenen Ähnlichkeiten. Als Messgröße wird ein Häufigkeitsvektor von Trigrammen in jeder Gruppe herangezogen. Mit der Anwendung des Average Linkage-Algorithmus auf die Messgröße werden Cluster aus räumlich zusammenhängenden Gebieten gebildet, obwohl das Verfahren keine Kenntnis über die Lage der Cluster zueinander besitzt. In den Clustern werden die zehn häufigsten n-Gramme ermittelt, um charakteristische Wortpartikel darzustellen. Die von den Clustern umschriebenen Gebiete lassen sich zwanglos durch historische oder linguistische Entwicklungen erklären. Das hier verwendete Verfahren setzt jedoch kein linguistisches, geographisches oder historisches Wissen voraus, ermöglicht aber die Gruppierung von Namen in eindeutiger Weise unter Berücksichtigung einer Vielzahl von Wortpartikeln in einem Schritt. Die Vorgehensweise ohne Vorwissen unterscheidet diese Studie von den meisten bisher angewendeten Untersuchungen.
We compare the effect of different text segmentation strategies on speech based passage retrieval of video. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video, using speech transcripts, no author defined segmentation is available. We compare retrieval results from 4 different types of segments based on the speech channel of the video: fixed length segments, a sliding window, semantically coherent segments and prosodic segments. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusion is that the retrieval results highly depend on the right choice for the segment length. However, results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently less segments have to be considered at retrieval time.
Distributional semantics tries to characterize the meaning of words by the contexts in which they occur. Similarity of words hence can be derived from the similarity of contexts. Contexts of a word are usually vectors of words appearing near to that word in a corpus. It was observed in previous research that similarity measures for the context vectors of two words depend on the frequency of these words. In the present paper we investigate this dependency in more detail for one similarity measure, the Jensen-Shannon divergence. We give an empirical model of this dependency and propose the deviation of the observed Jensen-Shannon divergence from the divergence expected on the basis of the frequencies of the words as an alternative similarity measure. We show that this new similarity measure is superior to both the Jensen-Shannon divergence and the cosine similarity in a task, in which pairs of words, taken from Wordnet, have to be classified as being synonyms or not.
Lemmatization is a central task in many NLP applications. Despite this importance, the number of (freely) available and easy to use tools for German is very limited. To fill this gap, we developed a simple lemmatizer that can be trained on any lemmatized corpus. For a full form word the tagger tries to find the sequence of morphemes that is most likely to generate that word. From this sequence of tags we can easily derive the stem, the lemma and the part of speech (PoS) of the word. We show (i) that the quality of this approach is comparable to state of the art methods and (ii) that we can improve the results of Part-of-Speech (PoS) tagging when we include the morphological analysis of each word.
We compare the effect of different segmentation strategies for passage retrieval of user generated internet video. We consider retrieval of passages for rather abstract and complex queries that go beyond finding a certain object or constellation of objects in the visual channel. Hence the retrieval methods have to rely heavily on the recognized speech. Passage retrieval has mainly been studied to improve document retrieval and to enable question answering. In these domains best results were obtained using passages defined by the paragraph structure of the source documents or by using arbitrary overlapping passages. For the retrieval of relevant passages in a video no author defined paragraph structure is available. We compare retrieval results from 5 different types of segments: segments defined by shot boundaries, prosodic segments, fixed length segments, a sliding window and semantically coherent segments based on speech transcripts. We evaluated the methods on the corpus of the MediaEval 2011 Rich Speech Retrieval task. Our main conclusions are (1) that fixed length and coherent segments are clearly superior to segments based on speaker turns or shot boundaries; (2) that the retrieval results highly depend on the right choice for the segment length; and (3) that results using the segmentation into semantically coherent parts depend much less on the segment length. Especially, the quality of fixed length and sliding window segmentation drops fast when the segment length increases, while quality of the semantically coherent segments is much more stable. Thus, if coherent segments are defined, longer segments can be used and consequently fewer segments have to be considered at retrieval time.
The dependency of word similarity in vector space models on the frequency of words has been noted in a few studies, but has received very little attention. We study the influence of word frequency in a set of 10 000 randomly selected word pairs for a number of different combinations of feature weighting schemes and similarity measures. We find that the similarity of word pairs for all methods, except for the one using singular value decomposition to reduce the dimensionality of the feature space, is determined to a large extent by the frequency of the words. In a binary classification task of pairs of synonyms and unrelated words we find that for all similarity measures the results can be improved when we correct for the frequency bias.
This paper describes the approach of the Hochschule Hannover to the SemEval 2013 Task Evaluating Phrasal Semantics. In order to compare a single word with a two word phrase we compute various distributional similarities, among which a new similarity measure, based on Jensen-Shannon Divergence with a correction for frequency effects. The classification is done by a support vector machine that uses all similarities as features. The approach turned out to be the most successful one in the task.
This paper presents a possibility to extend the formalism of linear indexed grammars. The extension is based on the use of tuples of pushdowns instead of one pushdown to store indices during a derivation. If a restriction on the accessibility of the pushdowns is used, it can be shown that the resulting formalisms give rise to a hierarchy of languages that is equivalent with a hierarchy defined by Weir. For this equivalence, that was already known for a slightly different formalism, this paper gives a new proof. Since all languages of Weir's hierarchy are known to be mildly context sensitive, the proposed extensions of LIGs become comparable with extensions of tree adjoining grammars and head grammars.
In this paper we investigate how concreteness and abstractness are represented in word embedding spaces. We use data for English and German, and show that concreteness and abstractness can be determined independently and turn out to be completely opposite directions in the embedding space. Various methods can be used to determine the direction of concreteness, always resulting in roughly the same vector. Though concreteness is a central aspect of the meaning of words and can be detected clearly in embedding spaces, it seems not as easy to subtract or add concreteness to words to obtain other words or word senses like e.g. can be done with a semantic property like gender.
In der Arbeit wird untersucht, wie der Einstieg in die WebGL-Programmierung erleichtert werden kann. Dafür wurde eine bestehende Entwicklungsumgebung um möglichst hilfreiche Fehlermeldungen erweitert. Außerdem gibt das System Rückmeldungen, wenn eine gegebene Übungsaufgabe nicht richtig oder unvollständig gelöst wurde. Hierzu werden neben dem Vergleich von bestehenden Hilfen für den Einstieg in WebGL, auch verschiedene Fehlerszenarien definiert und näher untersucht. Auf dieser Grundlage werden Anforderungen an die Anwendung gestellt und daraufhin umgesetzt.
PROFINET Security: A Look on Selected Concepts for Secure Communication in the Automation Domain
(2023)
We provide a brief overview of the cryptographic security extensions for PROFINET, as defined and specified by PROFIBUS & PROFINET International (PI). These come in three hierarchically defined Security Classes, called Security Class 1, 2 and 3. Security Class 1 provides basic security improvements with moderate implementation impact on PROFINET components. Security Classes 2 and 3, in contrast, introduce an integrated cryptographic protection of PROFINET communication. We first highlight and discuss the security features that the PROFINET specification offers for future PROFINET products. Then, as our main focus, we take a closer look at some of the technical challenges that were faced during the conceptualization and design of Security Class 2 and 3 features. In particular, we elaborate on how secure application relations between PROFINET components are established and how a disruption-free availability of a secure communication channel is guaranteed despite the need to refresh cryptographic keys regularly. The authors are members of the PI Working Group CB/PG10 Security.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
»Digital(isiert)e« Beratung verspricht neben Innovation auch Flexibilität, Ubiquität, Globalität, Geschwindigkeit und Legitimität durch evidenzbasierte Wirksamkeit. Für eine sozialwissenschaftlich fundierte arbeitsweltliche Beratung wie Coaching und Supervision ist danach zu fragen, welches Menschen- und Weltbild sich hinter der Digitalisierung verbirgt und welche Anliegen sie transportiert. Dazu wird mit den Theorien Michel Foucaults der gegenwärtige Diskurs auf Steuerungslogiken und Machtverhältnisse hin kritisch analysiert. Dabei zeigt sich, dass die Digitalisierung das »Zeitalter der Gouvernementalität« (Foucault) festigt: Humanistisch geprägte Werte und Ziele wie Reflexion, Anerkennung und Selbsterkenntnis treten in den Hintergrund, während die Nutzbarmachung und Optimierung des Selbst sowie des Beratungsprozesses wichtiger werden: Beratung will und muss effizienzgetrieben ihre Wirksamkeit evidenzbasiert legitimieren, und Digitalisierung erleichtert dies.