Refine
Year of publication
Document Type
- Article (309)
- Working Paper (111)
- Bachelor Thesis (89)
- Conference Proceeding (68)
- Book (59)
- Report (42)
- Periodical Part (34)
- Master's Thesis (31)
- Part of a Book (28)
- Study Thesis (14)
Keywords
- Milchwirtschaft (36)
- Bibliothek (35)
- Molkerei (27)
- Digitalisierung (25)
- Ausbildung (22)
- Herbarium (20)
- Logistik (20)
- Informationsmanagement (19)
- Herbar Digital (18)
- E-Learning (17)
Welche Rolle zwischen Anpassung und Widerstand spielten die deutschen evangelischen Kirchen in der Zeit des Nationalsozialismus? Kämpften sie allein um ihre Selbsterhaltung als Organisation oder auch für die Wahrung der Menschenrechte außerhalb der Kirchenmauern? Wie gingen sie nach dem Ende des NS-Regimes mit ihrem eigenen Verhalten in den Jahren 1933-1945 um?
Diesen Fragen geht Heinrich Grosse in acht Aufsätzen nach, die zusammenfassende Darstellungen kirchlichen Verhaltens sowie Forschungsergebnisse zu einzelnen Personen enthalten. An den Anfang hat er Untersuchungen über die evangelische Kirche und die Judenverfolgung gestellt, weil sich besonders hier zeigen musste, ob sie Kirche im Sinne Jesu war. Drei der Beiträge sind Studien zur regionalen Kirchengeschichte und konzentrieren sich auf die hannoversche Landeskirche, die größte der sog. intakten Landeskirchen im „Kirchenkampf“. Mit einer Vielzahl von konkreten Belegen fundiert der Verfasser seine Aussagen über die Rolle der Kirchen.
Der Autor teilt die Auffassung Richard von Weizsäckers: „Wer vor der Vergangenheit die Augen verschließt, wird blind für die Gegenwart.“ Grosse ist überzeugt, dass die Kirchen an Glaubwürdigkeit und Zukunft gewinnen, wenn sie aufklärend und ehrlich mit ihrer eigenen Geschichte umgehen. Die acht Untersuchungen sollen einen Beitrag dazu leisten.
All of us are aware of the changes in the information field during the last years. We all see the paradigm shift coming up and have some idea how it will challenge our profession in the future. But how the road to excellence - in education of information specialists in the future - will look like? There are different models (new and old ones) for reorganising the structure of education: * Integration * Specialisation * Step-by step-model * Modul System * Network System / Combination model The paper will present the actual level of discussion on building up a new curriculum at the Department of Information and Communication (IK) at the FH Hannover. Based on the mission statement of the department »Education of information professionals is a part of the dynamic evolution of knowledge society« the direction of change and the main goals will be presented. The different reorganisation models will be explained with its objectives, opportunities and forms of implementation. Some examples will show the ideas and tools for a first draft of a reconstruction plan to become fit for the future. This talk has been held at the German-Dutch University Conference »Information Specialists for the 21st Century« at the Fachhochschule Hannover - University of Applied Sciences, Department of Information and Communication, October 14 -15, 1999 in Hannover, Germany.
13 Dinge
(2008)
Noch bis vor wenigen Jahren galt die interne Kommunikation in den meisten Unternehmen im Vergleich zur Kommunikation mit externen Zielgruppen als deutlich weniger anspruchsvoll oder gar als in irgendeiner Weise wettbewerbsrelevant. Wurde sie lange als reine Sozialleistung betrachtet, rückt sie nun - insbesondere vor dem Hintergrund voranschreitender Globalisierung und ihren Auswirkungen auf die Wettbewerbsfähigkeit der Unternehmen - langsam als strategisches Führungsinstrument in das Bewusstsein vieler Unternehmenslenker. Denn mehr und mehr wird deutlich, dass die eigenen Mitarbeiter ausschlaggebender Faktor bei der Bewältigung von Veränderungen sind.
[Geld]
(2002)
Objectives: To assess the relation between the number of clinical trials conducted and respective new drug approvals in India and South Africa.
Design: Construction and analysis of a comprehensive database of completed randomised controlled clinical trials based on clinicaltrials.gov from 1 January 2005 to 31 December 2010 and drug approval data from 2006 until 2013 for India and South Africa.
Setting: USA, the EU, India and South Africa.
Main outcome measures: Percentage of completed randomised clinical trials for an Investigational Medicinal Product (IMP) leading to new drug approval in India and South Africa.
Results: A total of 622 eligible randomised controlled trials were identified as per search criteria for India and South Africa. Clustering them for the same sponsor and the same Investigational New Drug (IND) resulted in 453 eligible trials, that is, 224 for India and 229 for South Africa. The distribution of the market application approvals between the EU/USA as well as India and South Africa revealed that out of clinical trials with the participation of test centres in India and/or South Africa, 39.6% (India) clinical trials and 60.1% (South Africa) clinical trials led to market authorisation in the EU/USA without a New Drug Application (NDA) approval in India or South Africa.
Conclusions: Despite an increase in clinical trial activities, there is a clear gap between the number of trials conducted and market availability of these new drugs in India and South Africa. Drug regulatory authorities, investigators, institutional review boards and patient groups should direct their efforts to ensuring availability of new drugs in the market that have been tested and researched on their population.
BACKGROUND: Even though physician rating websites (PRWs) have been gaining in importance in both practice and research, little evidence is available on the association of patients' online ratings with the quality of care of physicians. It thus remains unclear whether patients should rely on these ratings when selecting a physician. The objective of this study was to measure the association between online ratings and structural and quality of care measures for 65 physician practices from the German Integrated Health Care Network "Quality and Efficiency" (QuE). METHODS: Online reviews from two German PRWs were included which covered a three-year period (2011 to 2013) and included 1179 and 991 ratings, respectively. Information for 65 QuE practices was obtained for the year 2012 and included 21 measures related to structural information (N = 6), process quality (N = 10), intermediate outcomes (N = 2), patient satisfaction (N = 1), and costs (N = 2). The Spearman rank coefficient of correlation was applied to measure the association between ratings and practice-related information. RESULTS: Patient satisfaction results from offline surveys and the patients per doctor ratio in a practice were shown to be significantly associated with online ratings on both PRWs. For one PRW, additional significant associations could be shown between online ratings and cost-related measures for medication, preventative examinations, and one diabetes type 2-related intermediate outcome measure. There again, results from the second PRW showed significant associations with the age of the physicians and the number of patients per practice, four process-related quality measures for diabetes type 2 and asthma, and one cost-related measure for medication. CONCLUSIONS: Several significant associations were found which varied between the PRWs. Patients interested in the satisfaction of other patients with a physician might select a physician on the basis of online ratings. Even though our results indicate associations with some diabetes and asthma measures, but not with coronary heart disease measures, there is still insufficient evidence to draw strong conclusions. The limited number of practices in our study may have weakened our findings.
In this paper, we consider the route coordination problem in emergency evacuation of large smart buildings. The building evacuation time is crucial in saving lives in emergency situations caused by imminent natural or man-made threats and disasters. Conventional approaches to evacuation route coordination are static and predefined. They rely on evacuation plans present only at a limited number of building locations and possibly a trained evacuation personnel to resolve unexpected contingencies. Smart buildings today are equipped with sensory infrastructure that can be used for an autonomous situation-aware evacuation guidance optimized in real time. A system providing such a guidance can help in avoiding additional evacuation casualties due to the flaws of the conventional evacuation approaches. Such a system should be robust and scalable to dynamically adapt to the number of evacuees and the size and safety conditions of a building. In this respect, we propose a distributed route recommender architecture for situation-aware evacuation guidance in smart buildings and describe its key modules in detail. We give an example of its functioning dynamics on a use case.
Library of Congress Subject Headings (LCSH) are popular for indexing library records. We studied the possibility of assigning LCSH automatically by training classifiers for terms used frequently in a large collection of abstracts of the literature on hand and by extracting headings from those abstracts. The resulting classifiers reach an acceptable level of precision, but fail in terms of recall partly because we could only train classifiers for a small number of LCSH. Extraction, i.e., the matching of headings in the text, produces better recall but extremely low precision. We found that combining both methods leads to a significant improvement of recall and a slight improvement of F1 score with only a small decrease in precision.
Background: After kidney transplantation, immunosuppressive therapy causes impaired cellular immune defense leading to an increased risk of viral complications. Trough level monitoring of immunosuppressants is insufficient to estimate the individual intensity of immunosuppression. We have already shown that virus-specific T cells (Tvis) correlate with control of virus replication as well as with the intensity of immunosuppression. The multicentre IVIST01-trial should prove that additional steering of immunosuppressive and antiviral therapy by Tvis levels leads to better graft function by avoidance of over-immunosuppression (for example, viral infections) and drug toxicity (for example, nephrotoxicity).
Methods/design: The IVIST-trial starts 4 weeks after transplantation. Sixty-four pediatric kidney recipients are randomized either to a non-intervention group that is only treated conservatively or to an intervention group with additional monitoring by Tvis. The randomization is stratified by centre and cytomegalovirus (CMV) prophylaxis. In both groups the immunosuppressive medication (cyclosporine A and everolimus) is adopted in the same target range of trough levels. In the non-intervention group the immunosuppressive therapy (cyclosporine A and everolimus) is only steered by classical trough level monitoring and the antiviral therapy of a CMV infection is performed according to a standard protocol. In contrast, in the intervention group the dose of immunosuppressants is individually adopted according to Tvis levels as a direct measure of the intensity of immunosuppression in addition to classical trough level monitoring. In case of CMV infection or reactivation the antiviral management is based on the individual CMV-specific immune defense assessed by the CMV-Tvis level. Primary endpoint of the study is the glomerular filtration rate 2 years after transplantation; secondary endpoints are the number and severity of viral infections and the incidence of side effects of immunosuppressive and antiviral drugs.
Discussion: This IVIST01-trial will answer the question whether the new concept of steering immunosuppressive and antiviral therapy by Tvis levels leads to better future graft function. In terms of an effect-related drug monitoring, the study design aims to realize a personalization of immunosuppressive and antiviral management after transplantation. Based on the IVIST01-trial, immunomonitoring by Tvis might be incorporated into routine care after kidney transplantation.
The Gravitational Search Algorithm is a swarm-based optimization metaheuristic that has been successfully applied to many problems. However, to date little analytical work has been done on this topic.
This paper performs a mathematical analysis of the formulae underlying the Gravitational Search Algorithm. From this analysis, it derives key properties of the algorithm's expected behavior and recommendations for parameter selection. It then confirms through empirical examination that these recommendations are sound.
Lemmatization is a central task in many NLP applications. Despite this importance, the number of (freely) available and easy to use tools for German is very limited. To fill this gap, we developed a simple lemmatizer that can be trained on any lemmatized corpus. For a full form word the tagger tries to find the sequence of morphemes that is most likely to generate that word. From this sequence of tags we can easily derive the stem, the lemma and the part of speech (PoS) of the word. We show (i) that the quality of this approach is comparable to state of the art methods and (ii) that we can improve the results of Part-of-Speech (PoS) tagging when we include the morphological analysis of each word.
The objective of this student project was for the students to develop, conduct, and supervise a training course for basic work place applications (word processing and business graphics). Students were responsible for the planning, organizing and the teaching of the course. As participants, underprivileged adolescents took part in order to learn the handling of IT applications and therefore, improve their job skills and have a better chance to get into employment. Therefore the adolescents do the role of trainees at the course. Our students worked with a population that is continually overlooked by the field.
As a result, the students trained to design and implement training courses, exercised to manage projects and increased their social responsibility and awareness concerning the way of life and living conditions of other young people. The underprivileged adolescents learned to use important business applications and increased their job skills and job chances. The overall design of our concept required extensive resources to supervise and to steer the students and the adolescents. The lecturers had to teach and to counsel the students and had to be on “stand-by” just in case they were needed to solve critical situations between the two groups of young people.
Background: India has the third largest HIV epidemic in the world. The Indian epidemic is characterized by low levels in the general population and elevated concentrations among high-risk groups. The present study was planned to determine the awareness of HIV among students from Mumbai University.
Methods: A cross-sectional study was carried out among students from Mumbai University, India during May–June 2017. Two hundred and fifty students were approached to participate in the study of which 199 agreed to participate (males: 132; females: 67). Pretested questionnaire was distributed and collected data was analyzed using IBM SPSS version 23.
Results: Study participants had high knowledge (86%) and attitude score (87%). There was no significant difference between males and female participants for attitude and knowledge, except for one question regarding knowledge about HIV transmission via breastfeeding to child.
Conclusions: Present study showed that there are no misconceptions or negative attitudes regarding HIV among students. A longitudinal study with a larger sample size across India is recommended for further investigation.
Background: Immunization is the most cost-effective intervention for infectious diseases which are the major cause of morbidity and mortality worldwide. There is a scarcity of information on the vaccination status of young adults and the role of socioeconomic conditions in India. Objectives: Present study explored the adult vaccination status and influence of income and education of parents on adult vaccination status in university students from Mumbai, India.
Methods: On the basis of the eligibility criterion 149 students were selected for the present study. A total of 8 vaccines namely Tdap/DTP, Varicella, MMR, Influenza, Pneumococcal, Hepatitis A, Hepatitis B and Meningococcal were included in this study for all the respondents. In addition to these vaccines, Human Papilloma Virus vaccine was also included for female respondents.
Results: There were total of 149 (75 male and 74 females) respondents with the mean age of 21.5 years. The top 3 immunizations were Td/Tdap (97.3%), MMR (66.4%) and Hepatitis B (55%) among the respondents. Only 4 (5.5%) female respondents have been immunized against the HPV. Conclusions: Td/Tdap (97.3%) and MMR (66.4%) coverage was in line with the recommendations. For all the other vaccines the coverage was low varying from 5.5% to 35.4%. The vaccination coverage was better in respondents with higher educated and higher income parents. We suggest that patient education, planning by government for the implementation of policy for adult vaccination and involvement of physicians are must for better adult vaccination coverage.
Immunization is the most cost-effective intervention for infectious diseases, which are the major cause of morbidity and mortality worldwide. Vaccines not only protect the individual who is vaccinated but also reduce the burden of infectious vaccine-preventable diseases for the entire community.1 Adult vaccination is very important given that >25% of mortality is due to infectious diseases.2 There is a scarcity of information on the vaccination status of young adults and the role of socioeconomic conditions in India.
The drugs we use to treat any condition – from an innocuous cough to a life-threatening cancer – are the outcome of painstaking human clinical trials. These trials are the only way to credibly determine the safety and efficacy of drugs. In recent years there has been a clear shift in clinical trial sites from core developed countries like USA, European countries to developing countries like India, China, South American countries. This shift is related to challenges and opportunities like costs of trials, recruitment issues, and regulatory challenges in developed vs. developing countries. Developing countries and developed countries have their unique disease burden patterns based on various parameters like but not limited to age, health care facilities, health insurance, sanitary conditions, environmental issues, education, nutrition
and GDP. Previous studies have reported that many of the important global diseases are not much explored in clinical trials and many published clinical trials have very less international health relevance. This study was aimed at finding the correlation between disease burdens, number of clinical trials done and trial success rates. We compared 2005 - 2010 Global Burden of Disease data for Germany, India and number of clinical trials from clinicaltrials.gov database done in the same period. Our findings indicated that there was a good correlation between the disease burden and clinical trials for Germany in 2005 and 2010. For India in 2005 there was a moderate positive correlation, 2010 data showed the improvement in India in terms of match between disease burden and clinical trials. But careful observation of the data shows still a need for more trials on Communicable, maternal, neonatal and nutritional disorders.
Background: Pharmacovigilance (PV); also known as drug safety surveillance, is the science of enhancing patient care and patient safety regarding the use of medicines by collecting, monitoring, assessing, and evaluating information from healthcare providers and patients. Pharmacists are pivotal players in adverse drug event (ADE) monitoring and reporting. However, most pharmacists are unaware or not knowledgeable about the guidelines used by their respective countries’ drug regulatory bodies. It is the need of the hour to train pharmacy students on the concept of pharmacovigilance.
Methods: A cross-sectional study was carried out among pharmacy students from Mumbai University, India during May-June 2017. On the basis of the eligibility criterion 352 students were selected for the present study. Four hundred students were approached to participate in the study of which 201 agreed to participate (males: 179; females: 173). Pretested questionnaire was distributed and collected data was analyzed using IBM SPSS version 23.
Results: Overall pharmacovigilance knowledge (44%) and perception (58%) was low among the participants of the present study. Seventy four percent of the participants felt that adverse drug reaction (ADR) reporting should be made compulsory for healthcare professionals. And only 21% agreed that the topic of Pharmacovigilance is well covered in pharmacy curriculum.
Conclusions: Pharmacy council of India, pharmacy teacher’s association and respective pharmacy college should take necessary steps to increase the knowledge and create awareness regarding pharmacovigilance and adverse drug reaction reporting among pharmacy students.
A systematic review of the literature on survey questionnaires to assess self-medication practices
(2017)
Self-medication is of great public health importance as it often bypasses regulatory mechanisms to assure quality of health care. Nevertheless there are no established standards on how to assess self-medication. We therefore intended to systematically retrieve questionnaires and survey tools used to capture self-medication, with the aim to identify the scope of information investigated in this context and commonalities between the tools. We conducted a systematic review of the literature on questionnaires used for self-medication assessment by searching PubMed and Web of Science databases using the combinations of following keywords; self-medication, self-prescription, non-prescription, questionnaire. Truncation was used to ensure retrieval of all possible variations of search terms. The search was limited to articles published between 1st January 2000 and 31st December 2015, human studies and English language. Duplicate and irrelevant studies were excluded from the final review. A total of 158 studies were included in the review. Studies were from diverse geographical locations, most of the studies were from Nigeria 16 (10.1%) followed by India 10 (6.3%) and Iran 8 (5%). Forty-three studies (27.2%) focused on antibiotic self-medication. Majority of the studies (106; 67%) were done with adult populations. The components addressed by the questionnaires covered: reasons for self-medications in 147 (93%) studies, purchasing source in 136 (86%) studies, medical conditions to be treated in 153 (96.8%) studies, adverse events in 67 (42.4%) studies, use of prescribing information in 24 (15.1%) studies and antibiotic resistance awareness in 20 (46.5%) antibiotic studies. For 74 (46.8%) studies, survey questionnaires were self-administered and most studies (57; 36%) were done at homes of respondents. Thirty-seven (23.4%) studies did not report any recall period for self-medication practices. Study response rates varied from 17.9% to 100%, and while validity of the study questionnaire was reported for 100 (63.3%) studies, 15 (9.5%) studies reported reliability test of the study questionnaire. There is a large variety of questionnaires being used for investigating self-medication practices making comparability and meta-analyses very difficult. It is desirable to have a basic set of standardized survey questions on this topic to make available for future research groups in this field.
Background: We sought to develop and test an objective scorecard-based system for assessing and categorizing available research sites in Lassa fever-affected countries based on their preparedness and capability to host Lassa fever vaccine clinical trials.
Methods: We mapped available clinical research sites through interrogation of online clinical trial registries and relevant disease-based consortia. A structured online questionnaire was used to assess the capability of clinical trial sites to conduct Lassa fever vaccine clinical trials. We developed a new scoring template by allocating scores to questionnaire parameters based on perceived importance to the conduct of clinical trials as described in the WHO/TDR Global Competency Framework for Clinical Research. Cutoff points of 75% and 50% were used to categorize sites into categories A, B, or C.
Results: This study identified 44 clinical trial sites in 8 Lassa fever-affected countries. Out of these, 35 sites were characterized based on their capacity to hold Lassa fever vaccine clinical trials. A total of 14 sites in 4 countries were identified as ready to host Lassa fever vaccine trials immediately or with little support.
Conclusion: It is feasible to hold Lassa fever vaccine trials in affected countries based on the outcome of the survey. However, the findings are to be validated through sites' visits. This experience with a standardized and objective method of the site assessment is encouraging, and the site selection method used can serve as an orientation to sponsors and researchers planning clinical trials in the region.
In diesem Beitrag wird die Möglichkeit dargestellt, wie Belastungsspitzen beim Betrieb von Flussturbinen in Inselnetzen durch die kinetische Energie des Wassers abgedeckt werden können. Als Beispiel dienen dabei Kühlgeräte für Lebensmittel. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Sie stellen eine Möglichkeit zur Energieversorgung von kleinen Siedlungen ohne öffentliche Stromversorgung dar. Der besondere Vorteil ist, dass sie ohne aufwändige Bauwerke zur Wasserführung auskommen.
Bei der Versorgung von Inselnetzen muss die Turbine alleine die benötigte Leistung bereitstellen. Dies gilt auch für die Abdeckung von Belastungsspitzen. In diesem Beitrag wird anhand von Beispielrechnen dargestellt, welches Potenzial die kinetische Energie des Wassers in der Turbine hat, um die Belastungsspitzen abzudecken. Die Berechnungen an Kühlgeräten zeigen, dass das Einschalten der Kühlaggregate ein kritischer Betriebspunkt beim Betrieb von Flussturbinen in Inselnetzen sein kann. Dies gilt besonders dann, wenn die stationäre Leistung bereits nahe an der verfügbaren Leistung ist.
Hier muss in recht kurzer Zeit eine große elektrische Arbeit zur Verfügung gestellt werden, die Leistung also in kurzer Zeit ansteigen und anschließend wieder abfallen. Die Abschätzung der elektrischen Arbeit, die sich aus der kinetischen Energie des Wassers in der Turbine gewinnen lässt, zeigt aber, dass durch Absenken der Fließgeschwindigkeit kurzfristig die benötigte elektrische Leistung und Arbeit bereit gestellt werden kann.
Das Projekt Promise2007 befasste sich mit der Erstellung und Auswertung einer Statistik zur Mitgliedersituation im Berufsverband Medizinischer Informatiker e.V.. Mit dem Ziel mehr über die Mitglieder und ihre derzeitige Situation zu erfahren wurde das Projekt an der Fachhochschule Hannover initiiert. Statistisch erfasst wurden Fragen zum Beschäftigungsverhältnis, zu Aus- und Weiterbildung, der beruflichen Situation und persönliche Angaben. Die Ergebnisse wurden ausgewertet und daraus wichtige Erkenntnisse für den BVMI e.V. abgeleitet, welche auf die weitere Verbandsarbeit Einfluss nehmen.
Die vorliegende Ausführung bezieht sich ausschließlich auf die, im Rahmen des Forschungsprojekts „Großtagespflegestellen in Niedersachsen“ durchgeführte, Hauptuntersuchung zur pädagogischen Qualität in sieben Großtagespflegestellen. Die Ergebnisse der darüber hinaus stattgefundenen schriftlichen Befragungen der kommunalen Träger werden nur im Kontext zu den untersuchten Betreuungssettings berücksichtigt. Neben der Datenerhebung mittels der Tagespflegeskala-R wurde im Anschluss an die Beobachtungen ein leitfadengestütztes Interview mit den anwesenden Kindertagespflegepersonen geführt. Weitere Informationen wurden aus Dokumenten wie Satzungen, Konzeption, Flyer und Internetauftritt gewonnen.
Die Ergebnisse werden in diesem Bericht in Form von sieben Thesen dargestellt. Die Erste These bezieht sich ausschließlich auf die Daten der TAS-R Untersuchung. Die Thesen zwei bis sieben wurden aus dem o.g. gesamten empirischen Material abgeleitet.
Als Instrument zur Erfassung der pädagogischen Qualität in den ausgewählten Großtagespflegestellen (GTPS) wurde die Tagespflegeskala-R (Tietze, Knobeloch, Gerszonowiec, 2011, überarbeitete Version) eingesetzt. Die TAS-R basiert auf der Family Day Care Rating Scale (FDCRS) von Harms, Cryer und Clifford (2003). Sie wurde bereits in vielen wissenschaftlichen Untersuchungen bzw. Studien genutzt und ist als internationales Instrument zur Erfassung von pädagogischer Qualität in Kindertagespflegestellen anerkannt.
Daten einer umfangreichen Erhebung bei Absolventen/innen des Bachelor-Studiengangs Wirtschaftsinformatik der Hochschule Hannover eröffnen einen Einblick in das Berufsleben von Wirtschaftsinformatiker/n in den ersten Jahren nach Studienabschluss. Die Ergebnisse weisen auf eine hohe Berufszufriedenheit. Allerdings sind durchaus auch Einschränkungen der Zufriedenheit zu verzeichnen, die teilweise auf die typische Arbeitskultur in IT-Berufen zurückzuführen sind. Daneben wird das Arbeitsklima zwischen Männern und Frauen durchaus unterschiedlich wahrgenommen, auch der Wunsch nach einem ausgewogenen Verhältnis von Arbeits- und Privatleben (work/life balance) zeigt Unterschiede zwischen Männern und Frauen. Insgesamt lassen sich aus den Ergebnissen Hinweise ableiten, durch welche Maßnahmen das Studium und die Berufstätigkeiten in IT-Berufen attraktiver gestaltet werden und damit dem Fachkräftemangel entgegengewirkt werden kann.
Radioisotope-guided sentinel lymph node dissection (sLND) has shown high diagnostic reliability in prostate (PCa) and other cancers. To overcome the limitations of the radioactive tracers, magnetometer-guided sLND using superparamagnetic iron oxide nanoparticles (SPIONs) has been successfully used in PCa. This prospective study (SentiMag Pro II, DRKS00007671) determined the diagnostic accuracy of magnetometer-guided sLND in intermediate- and high-risk PCa. Fifty intermediate- or high-risk PCa patients (prostate-specific antigen (PSA) >= 10 ng/mL and/or Gleason score >= 7; median PSA 10.8 ng/mL, IQR 7.4–19.2 ng/mL) were enrolled. After the intraprostatic SPIONs injection a day earlier, patients underwent magnetometer-guided sLND and extended lymph node dissection (eLND, followed by radical prostatectomy. SLNs were detected in in vivo and in ex vivo samples. Diagnostic accuracy of sLND was assessed using eLND as the reference. SLNs were detected in all patients (detection rate 100%), with 447 sentinel lymph nodes SLNs (median 9, IQR 6–12) being identified and 966 LNs (median 18, IQR 15–23) being removed. Thirty-six percent (18/50) of patients had LN metastases (median 2, IQR 1–3). Magnetometer-guided sLND had 100% sensitivity, 97.0% specificity, 94.4% positive predictive value, 100% negative predictive value, 0.0% false negative rate, and 3.0% additional diagnostic value (LN metastases only in SLNs outside the eLND template). In vivo, one positive SLN/LN-positive patient was missed, resulting in a sensitivity of 94.4%. In conclusion, this new magnetic sentinel procedure has high accuracy for nodal staging in intermediate- and high-risk PCa. The reliability of intraoperative SLN detection using this magnetometer system requires verification in further multicentric studies.
Akademisierung von Pflege
(1994)
Der vorliegende Sammelband hochschulischer Abschlussarbeiten, d. h. wissenschaftlich besonders ansprechende Bachelor- und Masterarbeiten und aktuelle Beiträge von ProjektmitarbeiterInnen, hat sich die Aufgabe gestellt, Beiträge des wissenschaftlichen Nachwuchses der Pflege- und Gesundheitswissenschaften aus den drei beteiligten Hochschulen Hannover, Esslingen und Bielefeld zur Diskussion zu stellen. Dabei haben die drei Herausgebenden dieser Hochschulen für angewandte Wissenschaften, die einschlägige Studiengänge für Gesundheits- und Pflegeberufe anbieten, die hier veröffentlichten Beiträge jeweils an den entsprechenden Hochschulstandorten begleitet. Zusätzlich wurden alle Beiträge auch einem wechselseitigen Review durch die drei Herausgebenden unterzogen, um abschließend eine einheitliche Formatierung von hochschulisch zwar durchaus ähnlichen ggfs. aber in den Details etwas unterschiedlichen Standards wissenschaftlichen Arbeitens in den Beiträgen umzusetzen.
Im Ergebnis sind so im Zeitraum von Dezember 2017 bis Mai 2019 insgesamt 13 pflege- und gesundheitswissenschaftliche Beiträge, d. h. 14 Bachelor- und Masterarbeiten (hier drei kooperative Arbeiten von jeweils zwei AutorInnen) und zwei Drittmittelprojekte unter Beteiligung von NachwuchswissenschaftlerInnen sehr verbindlich und konzentriert bearbeitet worden, die nun hier unter einer jeweils gemeinsamen Kapitelüberschrift nach den drei Standorten kurz vorgestellt und gewürdigt werden sollen.
Für das digitale Flugführungssystem des Versuchsflugzeugs HFB 320 wurde am Institut für Flugführung der DFVLR in Braunschweig eine Betriebsart zum automatischen zeitgenauen Fliegen im Flughafen-Nahbereich entwickelt und im Flugversuch erprobt. Der Bericht enthält die Beschreibung der eingesetzten Algorithmen zur Berechnung 4-dimensionaler Flugbahnen unter Berücksichtigung der momentanen Windsituation. Es werden verschiedene Verfahren zur Messung, Filterung und Vorhersage des Windvektors entwickelt und an Hand von Flugversuchsergebnissen diskutiert.
Das Berufsbild von Sozialarbeitern beinhaltet viele Anforderungen, zentral sind dabei Sprach- und Lesekompetenzen. Der vorliegende Beitrag stellt die Ergebnisse einer explorativen Studie zu Sprachkompetenzen (i.S. von Wortschatz) und Lesekompetenzen (i.S. von Lesegeschwindigkeit und Leseverständnis) von Studierenden der Sozialen Arbeit dar und zeigt auf, das hier Verbesserungsbedarf besteht, wenn Studierende optimal auf Ihren späteren Beruf vorbereitet werden sollen. Auch wird ein Vergleich zu anderen Studiengängen gezogen, wo sich ähnliche Bedarfslagen zeigen.
Am Ende des Beitrags findet sich ein Kommentar zur (Nicht-)Veröffentlichung der Studienergebnisse.
During the intraoperative radiograph generation process with mobile image intensifier systems (C-arm) most of the radiation exposure for patient, surgeon and operation room personal is caused by scattered radiation. The intensity and propagation of scattered radiation depend on different parameters, e.g. the intensity of the primary radiation, and the positioning of the mobile image intensifier. Exposure through scattered radiation can be minimized when all these parameters are adjusted correctly. Because radiation is potentially dangerous and could not be perceived by any human sense the current education on correct adjustment of a C-arm is designed very theoretical. This paper presents an approach of scattered radiation calculation and visualization embedded in a computer based training system for mobile image intensifier systems called virtX. With the help of this extension the virtX training system should enrich the current radiation protection training with visual and practical training aspects.
Smart Cities require reliable means for managing installations that offer essential services to the citizens. In this paper we focus on the problem of evacuation of smart buildings in case of emergencies. In particular, we present an abstract architecture for situation-aware evacuation guidance systems in smart buildings, describe its key modules in detail, and provide some concrete examples of its structure and dynamics.
Background: Virtual reality (VR) is increasingly used as simulation technology in emergency medicine education and training, in particular for training nontechnical skills. Experimental studies comparing teaching and learning in VR with traditional training media often demonstrate the equivalence or even superiority regarding particular variables of learning or training effectiveness.
Objective: In the EPICSAVE (Enhanced Paramedic Vocational Training with Serious Games and Virtual Environments) project, a highly immersive room-scaled multi-user 3-dimensional VR simulation environment was developed. In this feasibility study, we wanted to gain initial insights into the training effectiveness and media use factors influencing learning and training in VR.
Methods: The virtual emergency scenario was anaphylaxis grade III with shock, swelling of the upper and lower respiratory tract, as well as skin symptoms in a 5-year-old girl (virtual patient) visiting an indoor family amusement park with her grandfather (virtual agent). A cross-sectional, one-group pretest and posttest design was used to evaluate the training effectiveness and quality of the training execution. The sample included 18 active emergency physicians.
Results: The 18 participants rated the VR simulation training positive in terms of training effectiveness and quality of the training execution. A strong, significant correlation (r=.53, P=.01) between experiencing presence and assessing training effectiveness was observed. Perceived limitations in usability and a relatively high extraneous cognitive load reduced this positive effect.
Conclusions: The training within the virtual simulation environment was rated as an effective educational approach. Specific media use factors appear to modulate training effectiveness (ie, improvement through “experience of presence” or reduction through perceived limitations in usability). These factors should be specific targets in the further development of this VR simulation training.
Die allgemeine Digitalisierung und besonders die IT Branche in Hannover, stellen Arbeitgeber_innen und Arbeitnehmer_innen vor große Herausforderungen. Berufsbezeichnungen im IT Sektor zeichnen sich im Gegensatz zu klassischen Berufsfeldern nicht dadurch aus, dass sie vereinheitlicht sind. Unterschiedlichste Berufsbezeichnungen verlangen oftmals identische Kompetenzen. Die Kompetenzen und Fähigkeiten der Arbeitnehmer_innen stehen ebenso immer mehr im Fokus der Arbeitgeber_innen, wie die Bereitschaft der permanenten Weiterbildung.
Zielgebend der vorliegenden Abschlussarbeit ist eine Datenbasis für ein kompetenzbasiertes IT Tool zu liefern, welches den Anspruch hat, die bereits beschriebenen Herausforderungen zu analysieren und zu klassifizieren. Zunächst ist daher eine Klassifikation, der auf dem hannoverschen Jobmarkt gesuchten IT Kompetenzen, zu erstellen. Vorbereitend wird eine Marktanalyse angefertigt, die sowohl Jobsuchmaschinen auf ihre Kompetenzorientierung als auch IT Kompetenzklassifikationen untersucht. Die erstellte Klassifikation bildet anschließend die Grundlage für das Kompetenzmatching zwischen Klassifikation und den Kompetenzen, die hannoversche IT Studierende erlernen, um zu verdeutlichen, in welchen Kompetenzen Weiterbildungsbedarf besteht. Die entstandene Datenbasis wird in einer MySQL Datenbank präsentiert, um eine möglichst flexible Verwendung und Weiterentwicklung des Datenbestands zu ermöglichen.
Sustainable tourism is a niche market that has been growing in recent years. At the same time, companies in the mass tourism market have increasingly marketed themselves with a “green” image, although this market is not sustainable. In order to successfully market sustainability, targeted marketing tactics are needed.
The aim of this research is to establish appropriate marketing tactics for sustainable tourism in the niche market and in the mass market. The purpose is to uncover current marketing tactics for both the mass tourism market and the sustainable tourism niche market. It also intends to explore how consumers who are more interested in sustainability differ from consumers with less interest in sustainability in terms of their perception of sustainability in tourism. Furthermore, this research paper will assess the trustworthiness of sustainable travel offers and the trustworthiness of quality seals in sustainable tourism. For this purpose, an online survey was conducted, which was addressed at German-speaking consumers. The survey showed, that consumers with more general interest in sustainability also consider sustainability to be more relevant in tourism. Offers for sustainable travel and quality seals were perceived as not very trustworthy. Moreover, no link could be found between the interest in sustainability and the perception of trustworthiness.
On the basis of the above, it is advisable to directly advertise sustainability in the niche market and to mention sustainability in the mass market only as an accompaniment or not at all. Further research could be undertaken to identify which factors influence the trustworthiness of offers, and trustworthiness of quality seals in sustainable tourism.
Fenster versorgen die Innenräume mit Tageslicht, dienen der Lufterneuerung in den Räumen und schützen vor Umwelteinflüssen wie Kälte, Wärme, Lärm, Wind und Niederschlägen. Entsprechend weitgefächert ist das Spektrum deer planungsrelevanten Aspekte. Sowohl licht-, lüftungs-, wärme-, schall und wohntechnische als auch hygienische, psychologische und nicht zuletzt wirtschaftliche Gesichtspunkte sind bei edr täglichen Arbeit zu beachten.
Die in den Betrieben häufig mit hohem gerätetechnischen und organisatorischem Aufwand installierten EDV-gestützten Informationssysteme zur Planung und Steuerung des Fertigungsprozesses genügen im allgemeinen nicht den an sie gestellten Anforderungen. Die Gründe dafür liegen in der Hauptsache in einem falschen Modellansatz und der mangelnden Datenqualität der eingesetzten Daten, verbunden mit einer unzureichenden Rückkopplung zwischen Vorgabe und Rückmeldung. Hinzu kommen das Fehlen geeigneter Aussagen (Kenngrößen) zur gezielten Beeinflussung des Prozesses und Akzeptanzprobleme der Mitarbeiter beim Umgang mit der EDV. Die genannten Schwachstellen geben die Richtung der Zielsetzung dieser Arbeit vor. Dieses Ziel bestand zunächst darin, eine Methode zu entwickeln, mit der die Anforderungen an die in einem Industriebetrieb zur Planung, Steuerung und Überwachung verwendeten Daten zu formulieren sind, um dann eine anforderungsgerechte Abstimmung dieser Daten im betrieblichen Datenfluß im Sinne eines kybernetischen Regelkreises vorzunehmen und Aussagen über die betrieblichen Zielgrößen zu erhalten. Aus der Vielzahl betrieblicher Vorgänge und Funktionsbereiche wurde der Fertigungsprozeß bei der Werkstättenfertigung im Produktionsbetrieb deshalb ausgewählt, weil hier in der Praxis wegen der Komplexität der Abläufe die höchsten Anforderungen an die Daten gestellt werden und deshalb auch die meisten Probleme bei der Erfüllung dieser Anforderungen auftreten. Außerdem ist die Fertigung nach dem Werkstättenprinzip am häufigsten in der Praxis anzutreffen. Als erstes war es nötig, die zeitlichen, quantitativen und qualitativen Anforderungen an die Daten aus einer Vielzahl durchgeführter Schwachstellenanalysen herauszuarbeiten und zu definieren. Die nächste Aufgabe bestand darin, die Einflußgrößen auf die Datenanforderungen, hier unterteilt in innere (datumsbezogene) und äußere (prozeßbezogene) zu bestimmen und in ihren Auswirkungen zu untersuchen. Die Betrachtung der Einflußgrößen ergab, daß die Aufgabe und die Verwendung des Datums im Prozeß für die Ermittlung der Anforderungen exakt bestimmt werden müssen. Aus diesem Grund war der Prozeß primär- und sekundärseitig in Abhängigkeit der Aufgabenstellung ausführlich zu beschreiben. Die Einflüsse der Aufbauorganisation waren ebenso wie die der Ablauforganisation zu berücksichtigen, darunter fielen auch die Auswirkungen der Automatisierungsansätze, z.B. durch den Einsatz flexibler Fertigungssysteme im Primärprozeß. Der Ansatz, von dem hier ausgegangen wurde, baut sich deshalb im ersten Schritt der vorgeschlagenen Vorgehensweise auf dem Modell eines Produktionssystems auf, das aus den Erkenntnissen von in mehreren Firmen durchgeführten Prozeßanalysen entwickelt wurde. In diesem Modell ist der Datenfluß und organisatorische Ablauf im Fertigungsprozeß in Matrixform festgehalten. Für jedes einzelne Prozeßdatum sind in der Matrix, bezogen auf die Aufgabenstellung, detailliert die Verwendungs- und Verflechtungsbeziehungen aufgezeichnet. Im zweiten Schritt erfolgt auf der Grundlage dieses Modells eine bedarfsgerechte Prozeßdatenauswahl. Die zeitliche Struktur des Datenflusses im Prozeß wird in Schritt drei mit Hilfe eines Ereignis-Zeitgraphens dargestellt. Die eigentliche zeitliche, quantitative und qualitative Anforderungsermittlung findet im vierten und gleichzeitig letzten Schritt anhand einer dafür entworfenen Datenanforderungsliste statt. Die Ergebnisse dieser anforderungsgerechten Datenanalyse nach der hier entwikkelten Systematik können in vielerlei Hinsicht Verwendung finden. Im Hinblick auf die eingangs genannten Problemstellungen sind beispielsweise folgende Einsatzmöglichkeiten denkbar und an Beispielen im einzelnen erläutert. - Verbesserung der Datenqualität - Rückkopplung im Sinne des kybernetischen Regelkreismodells - Bilden von Prozeßkenngrößen - Transparenz der EDV-Prozeßabläufe
Die Umsetzung der an sich seit längerem bekannten Logistikkonzepte stößt in vielen Unternehmen auf Schwierigkeiten. Oft fehlen durchgängige, prozessorientierte Gesamtlösungen. Zum Teil liegt dies daran, dass die üblichen PPS-Systeme im Feinplanungs- und Steuerungsbereich die gestiegenen logistischen Anforderungen nicht erfüllen können.
Logistische Funktionsketten mit der Integration von Information, Arbeits- und Materialflüssen für einen durchgängigen Auftragsabwicklungsprozeß müssen auch Qualitätssicherungsfunktionen mit beinhalten. Dies ist nur über eine entsprechende QS-Systemarchitektur zu realisieren, die an jeder Stelle im dispositiven und operativen Ablauf im Sinne der Fehlervermeidung dafür sorgt, daß die angestrebten Qualitätsziele erreicht werden.
Die vorliegende Arbeit befasst sich mit dem Ansatz und der Bewertung originärer immaterieller Vermögensgegenstände des Anlagevermögens im handelsrechtlichen Jahresabschluss. Es handelt sich hierbei um die Untersuchung der Frage, ob die Verpflichtung zur Aktivierung oben genannter Vermögensgegenstände die Aussagekraft eines Jahresabschlusses nach HGB erhöht. Während die internationalen Rechnungslegungsstandards (IFRS) den Ansatz immaterieller Vermögensgegenstände – unabhängig davon, ob sie entgeltlich erworben oder selbst erstellt wurden – schon lange vorsehen, hat sich der Gesetzgeber in Deutschland im Rahmen des Bilanzrechtsmodernisierungsgesetzes nun auch dazu entschlossen, das HGB-Bilanzrecht u. a. in diesem Punkt den IFRS anzupassen und das bisher in § 248 Abs. 2 HGB kodifizierte Aktivierungsverbot aufzuheben. Der vom Bundesministerium der Justiz am 21. Mai 2008 veröffentlichte Gesetzentwurf dient als Grundlage der Untersuchung. Die einzelnen geplanten Änderungen wurden ausführlich betrachtet und werden je nach Bedeutung für den Ansatz und die Bewertung – mehr oder weniger stark – diskutiert. Wie sich im Verlauf dieser Arbeit zeigen wird, ist davon auszugehen, dass die zukünftig für originäre immaterielle Vermögensgegenstände geltende Aktivierungspflicht auf Grund der zu erbringenden Nachweise – ebenso wie nach IFRS – als faktisches Wahlrecht betrachtet werden kann. Somit hätte die Aufhebung des § 248 Abs. 2 HGB nur geringe Auswirkungen auf die Bilanzierung von Unternehmen. Wenn allerdings die Möglichkeit der Aktivierung in Anspruch genommen wird und relevante Angaben im Anhang gemacht werden, ist eine Erhöhung des Informationsgehaltes eines Jahresabschlusses zweifellos gegeben.
Wissensmanagement (knowledge management) ist ein aktuelles Thema in Theorie und Praxis vieler verschiedener Fachgebiete. Sowohl Wirtschaftsinformatik, Organisationslehre, Kommunikationswissenschaften als auch Soziologie und Erkenntnistheorie setzen sich mit Fragen auseinander, die sich mit dem Verständnis von Wissensprozessen und mit der Handhabung von Wissen beschäftigen. Viele Branchen und Wirtschaftsbereiche werden dabei aufgegriffen, so wird beispielsweise die Handhabung von Wissen in multinationalen, verteilten Unternehmen und Allianzen, die Kreation und Weitergabe von Wissen in Innovationsprozessen und nicht zuletzt die Handhabung von Wissen in Beratungsunternehmen wie Steuerkanzleien, Unternehmensberatungen und auch Anwaltsbüros diskutiert. Mit Wissen sollte in Unternehmen nicht beiläufig und zufällig umgegangen werden, sondern bewusst, zielgerichtet, systematisch und methodisch. Dies gilt besonders für Anwälte, deren Beruf und Berufsausübung durch mehrere aktuelle Entwicklungen geprägt sind. Der Umgang mit dem Wissen der Mitarbeiter und der Kanzlei gewinnt durch einige Entwicklungen unmittelbar Bedeutung.
Antimicrobial resistance in livestock is a matter of general concern. To develop hygiene measures and methods for resistance prevention and control, epidemiological studies on a population level are needed to detect factors associated with antimicrobial resistance in livestock holdings. In general, regression models are used to describe these relationships between environmental factors and resistance outcome. Besides the study design, the correlation structures of the different outcomes of antibiotic resistance and structural zero measurements on the resistance outcome as well as on the exposure side are challenges for the epidemiological model building process. The use of appropriate regression models that acknowledge these complexities is essential to assure valid epidemiological interpretations. The aims of this paper are (i) to explain the model building process comparing several competing models for count data (negative binomial model, quasi-Poisson model, zero-inflated model, and hurdle model) and (ii) to compare these models using data from a cross-sectional study on antibiotic resistance in animal husbandry. These goals are essential to evaluate which model is most suitable to identify potential prevention measures. The dataset used as an example in our analyses was generated initially to study the prevalence and associated factors for the appearance of cefotaxime-resistant Escherichia coli in 48 German fattening pig farms. For each farm, the outcome was the count of samples with resistant bacteria. There was almost no overdispersion and only moderate evidence of excess zeros in the data. Our analyses show that it is essential to evaluate regression models in studies analyzing the relationship between environmental factors and antibiotic resistances in livestock. After model comparison based on evaluation of model predictions, Akaike information criterion, and Pearson residuals, here the hurdle model was judged to be the most appropriate model.
The antimicrobial activity of a phagemixture and a lactic acid bacteriumagainst Staphylococcus aureus isolates from bovine origin was investigated in vitro with regard to possible applications in the therapy of udder inflammation (mastitis) caused by bacterial infections. The S. aureus isolates used for inoculation derived from quarter foremilk samples of mastitis cases. For the examination of the antimicrobial activity, the reduction of the S. aureus germ density was determined [log10 cfu/mL]. The phage mixture consisted of the three obligatory lytic and S. aureus-specific phages STA1.ST29, EB1.ST11 and EB1.ST27 (1:1:1). The selected Lactobacillus plantarum strain with proven antimicrobial properties and the phage mixture were tested against S. aureus in milk, both alone and in combination. The application of the lactic acid bacterium showed only a low reduction ability for a 24 h incubation period. The bacteriophage mixture as well as its combination with the lactic acid bacterium showed high antimicrobial activity against S. aureus for a 24 h incubation period at 37 C, with only the phage mixture showing significance.
Das Forschungscluster Industrie 4.0 stellt in acht Beiträgen aktuelle Ergebnisse aus seinen vielfältigen Forschungsprojekten vor. Es werden virtuelle Techniken in der Produktentwicklung, Lehrkonzepte für Industrie 4.0, Energy Harvesting bei Antennen, Energiemanagement in Produktionsanlagen, firmenübergreifende IT-Security Anforderungen, dezentral gesteuerte Produktionsprozesse und Spracherkennung mit Mikrocontrollern behandelt.
In this article, we present the software architecture of a new generation of advisory systems using Intelligent Agent and Semantic Web technologies. Multi-agent systems provide a well-suited paradigm to implement negotiation processes in a consultancy situation. Software agents act as clients and advisors, using their knowledge to assist human users. In the presented architecture, the domain knowledge is modeled semantically by means of XML-based ontology languages such as OWL. Using an inference engine, the agents reason, based on their knowledge to make decisions or proposals. The agent knowledge consists of different types of data: on the one hand, private data, which has to be protected against unauthorized access; and on the other hand, publicly accessible knowledge spread over different Web sites. As in a real consultancy, an agent only reveals sensitive private data, if they are indispensable for finding a solution. In addition, depending on the actual consultancy situation, each agent dynamically expands its knowledge base by accessing OWL knowledge sources from the Internet. Due to the standardization of OWL, knowledge models easily can be shared and accessed via the Internet. The usefulness of our approach is proved by the implementation of an advisory system in the Semantic E-learning Agent (SEA) project, whose objective is to develop virtual student advisers that render support to university students in order to successfully organize and perform their studies.
In der Schule unterrichtet man Einzelfächer wie Mathematik, Deutsch, Englisch, Physik, Kunst. Kein Fachlehrer fühlt sich für das übergreifende Thema "Lernen" zuständig. Die Naturtalente unter den Schülern können es eh - das Lernen. Die anderen wursteln sich durch, mit mehr Anstrengung als nötig wäre - oder sie scheitern. Für das Studium genügt Wursteln nicht, man braucht effiziente Arbeits- und Lerntechniken. Diese Ausarbeitung hilft bei der Selbstorganisation des Studiums.
Untersuchungen zu Berufen der Wirtschaftsinformatik bleiben weiterhin
interessant, wenn sie helfen können, dem mittlerweile länger anhaltenden
IT-Fachkräftemangel entgegenzuwirken. Eine Untersuchung der Hochschule
Hannover zu Wirtschaftsinformatikern/-informatikerinnen in den ersten zehn Jahren im Beruf zeigt deren berufliche Ziele und die berufliche Zufriedenheit, die sie erlangen. Deutlich wird, dass Frauen und Männer das Arbeitsklima und die Arbeitsbedingungen sehr unterschiedlich wahrnehmen und daher auch unterschiedlich zufrieden sind. Dabei bemängeln Frauen vor allem Merkmale, die mit „fehlender Fairness“ zu beschreiben sind.
Mit der Forderung nach einem arbeitsfreien Sonntag haben die Kirchen im 19. Jahrhundert in die Diskussion um die Wochenarbeitszeit eingegriffen. Auch wenn das Thema der menschlichen Arbeit in der evangelischen Theologie des vergangenen Jahrhunderts nicht in dem Maße bedacht worden ist, wie es die neuzeitliche Veränderung im Verständnis der Arbeit und die Industrialisierung erfordert hätten, so lässt sie die bekannte Formel vom "Versagen der Kirche gegenüber der sozialen Frage" nicht aufrechterhalten. Die vorliegende Untersuchung fragt nach der Begründung der Sonntagsruhe für die Arbeit: Kann Sonntagsruhe im Gegensatz zu Freizeit als ein Begriff bestimmt werden, der in keinem komplementären Verhältnis zur Arbeit steht, nicht im Sinn eines Primats der Ruhe, sondern in dem Sinn, daß der Sonntag Kontrapost ist gegen den Primat der Arbeit in der Gegenwart?
In this paper various techniques in relation to large-scale systems are presented. At first, explanation of large-scale systems and differences from traditional systems are given. Next, possible specifications and requirements on hardware and software are listed. Finally, examples of large-scale systems are presented.
Sehen ist für den Menschen eine besonders wichtige Form der Wahrnehmung. Über den Sehsinn nimmt der Mensch ca. 80 Prozent seiner Informationen auf, sodass „etwa ein Viertel des gesamten Gehirns und 60 Prozent der Großhirnrinde, dem Sitz höherer Hirnfunktionen, mit der Analyse der sichtbaren Welt beschäftigt ist“ (Simm, 2011). Sogar auf unsere Sprache hat das Sehen einen großen Einfluss ausgeübt. So bezeichnet man auch nicht visuelle Dinge oder Darbietungen als farblos, wenn diesen „aus unserer Sicht eine bestimmt Qualität fehlt“ (Erb, 1998, S. 1). Die große Bedeutung des Sehsinns erkannte natürlich auch Aristoteles. Er widmete dem Sehen daher einige Gedanken, die überwiegend in de anima (II 7, 418a 26 – 419b 3), aber auch in de sensu (439a 21 bis 447a 11) zu finden sind. Eine besondere Schwierigkeit der Erklärung der visuellen Wahrnehmung besteht darin, dass im Unterschied zum Fühlen, Riechen und Hören unklar ist, welches Medium zur Übertragung der Sehinformationen vom Objekt ins Auge des Betrachters verwendet wird bzw. wie diese Übertragung eventuell auch ohne klar erkennbares Medium funktionieren kann.
Das Ziel dieser Arbeit ist es also, Aristoteles´ Auffassung des Sehvorganges und des hierzu benötigten Übertragungsmediums zu analysieren. Hierzu wird zunächst versucht, die teilweise schwer verständlichen und teilweise auch widersprüchlichen Ausführungen Aristoteles´ systematisch aufzuarbeiten und klar und einfach darzustellen. Dabei wird sich diese Arbeit auf das Sehen im
physikalischen Sinne beschränken, also darauf wie es gelingen kann, dass Informationen über die reale Welt optisch bis zum Auge gelangen und somit der Wahrnehmung zur Verfügung stehen.
The development of Artificial Intelligence (AI) has profound implications for improving human and computational productivity in the future. However, it also is an existential risk to human life because it could exceed human capabilities. As such, information about the technology, the direction of the development and its purpose is important. This can be achieved through openness and transparency of processes. Indeed, companies hold property rights over AI and monopolies of software, data and experts. As a countermovement to leading AI companies, the “Open AI Movement” has evolved to push open-source AI research and products, to empower users, and to bridge the digital divide through participation and access. In this thesis, the implications of the declaration of AI as a commons have been analyzed through interviews with AI experts in the United States. The legal placement of AI is controversial but it could be seen as a basic human right. Other findings are that this field is very competitive and that the best approach is to collaboratively develop software that adds additional value on the edge of the commons.
The objective of this study was to investigate the association between teat skin colonization and intramammary infection (IMI) with Staphylococcus aureus or Streptococcus agalactiae at the quarter level in herds with automatic milking systems. Milk and teat skin samples from 1,142 quarters were collected from 300 cows with somatic cell count >200,000 cells/mL from 8 herds positive for Strep. agalactiae. All milk and teat skin samples were cultured on calf blood agar and selective media. A subset of samples from 287 quarters was further analyzed using a PCR assay (Mastit4 PCR; DNA Diagnostic A/S, Risskov, Denmark). Bacterial culture detected Staph. aureus in 93 (8.1%) of the milk samples and 75 (6.6%) of the teat skin samples. Of these, 15 (1.3%) quarters were positive in both the teat skin and milk samples. Streptococcus agalactiae was cultured in 84 (7.4%) of the milk samples and 4 (0.35%) of the teat skin samples. Of these, 3 (0.26%) quarters were positive in both the teat skin and milk samples. The PCR detected Staph. aureus in 29 (10%) of the milk samples and 45 (16%) of the teat skin samples. Of these, 2 (0.7%) quarters were positive in both the teat skin and milk samples. Streptococcus agalactiae was detected in 40 (14%) of the milk samples and 51 (18%) of the teat skin samples. Of these, 16 (5.6%) quarters were positive in both the teat skin and milk samples. Logistic regression was used to investigate the association between teat skin colonization and IMI at the quarter level. Based on bacterial culture results, teat skin colonization with Staph. aureus resulted in 7.8 (95% confidence interval: 2.9; 20.6) times higher odds of Staph. aureus IMI, whereas herd was observed as a major confounder. However, results from the PCR analyses did not support this association. Streptococcus agalactiae was isolated from the teat skin with both PCR and bacterial culture, but the number of positive teat skin samples detected by culture was too low to proceed with further analysis. Based on the PCR results, Strep. agalactiae on teat skin resulted in 3.8 (1.4; 10.1) times higher odds of Strep. agalactiae IMI. Our results suggest that Staph. aureus and Strep. agalactiae on teat skin may be a risk factor for IMI with the same pathogens. Focus on proper teat skin hygiene is therefore recommended also in AMS.
OSGi is a popular Java-based platform, which has its roots in the area of embedded systems. However, nowadays it is used more and more in enterprise systems. To fit this new application area, OSGi has recently been extended with the Remote Services specification. This specification enables distribution, which OSGi was previously lacking. However, the specification provides means for synchronous communication only and leaves out asynchronous communication. As an attempt to fill a gap in this field, we propose, implement and evaluate an approach for the integration of asynchronous messaging into OSGi.
Die computergestützte Erkennung von Personen basiert auf der quantitativen Feststellung einer möglichst weitgehenden Übereinstimmung zwischen einer gespeicherten Graphik und dem momentan erfassten Kamerabild. Der vorliegende Forschungsbericht beschreibt ein solches Erkennungssystem, das auf der optimalen Kombination unterschiedlicher, sich gegenseitig ergänzender Erkennungsverfahren beruht. Im Zentrum des Erkennungssystems arbeitet als wesentliche Komponente ein neuronales Netz.
Das Ziel der Arbeit bestand darin, eine für die klinische Praxis geeignete Testreihe zur psychologischen Untersuchung von zerebralen Erkrankungen zu erstellen und zu erproben. Dazu erschien es vorab notwendig, wichtige theoretische Konzepte und ausgewählte Themenschwerpunkte der neuropsychologischen Forschung zu erörtern. Aus der Zusammenschau klinischer und experimenteller Befunde wurde deutlich, mit welchen Fragestellungen eine neuropsychologische Diagnostik konfrontiert ist.
In der vorliegenden Arbeit wurde für die Erhebung von rheologischen Parametern ein großmaßstäbliches Rohrviskosimeter verwendet. Originalproben aus fünf Biogasfermentern und Nachgärern wurden mit variiertem Volumenstrom durch verschieden dimensionierte Messrohrstrecken im Kreis gefördert. Über definierte Längen der Messrohrstrecken konnte der Differenzdruck bei laminarem Strömungsverhalten aufgenommen werden. Aus den geometrischen Größen sowie den Wertepaaren Volumenstrom und Differenzdruck ließen sich nach einer Korrektur der Schergeschwindigkeit die Parameter für die Abbildung der absoluten Fließ- und Viskositätseigenschaften nach dem Potenzansatz approximieren.
Der konventionelle Auskunftstresen ist in Deutschland nach wie vor weit verbreitet. Im Falle der Zentralbibliothek der Fachhochschule (FH) Hannover wird seit Mitte 2009 auf einen solchen Tresen verzichtet. Es stellt sich die Frage inwieweit weiterhin ein zufriedenstellender Auskunftsdienst in der Bibliothek geleistet werden kann. Die vorliegende Bachelorarbeit analysiert vor diesem Hintergrund verschiedene Auskunftskonzepte, die auf einen traditionellen Auskunftsplatz verzichten. Die Autorinnen präsentieren allgemeingültige Hinweise und geben Beispiel für eine mögliche Umsetzung der Konzepte. Die Ergebnisse der Bachelorarbeit sollen zu einem effizienteren und nutzerorientierteren Auskunftsdienst führen.
In der vorliegenden Mastererarbeit wird untersucht, wie implizites Wissen in Arbeitsteams optimal zwischen den Teammitgliedern ausgetauscht werden kann. Dazu werden Austauschmethoden für implizites Wissen und Movationstheorien analysiert. Anhand der Austauschmethoden und Motivationstheorien wird ein Modell entwickelt, das Teamleitern helfen soll, den Austausch von implizitem Wissen in Arbeitsteams am Besten zu nutzen.
Der systematische Umgang mit Wissen wird für Unternehmen immer bedeutender, seitdem Wissen als Ressource im Unternehmen erkannt wurde. Hierbei hilft der Einsatz von Knowledge Management. Die Organisation von Wissen in einem Unternehmen kann durch eine Vielzahl von Knowledge Management-Tools erfolgen. Die Auswahl des dafür geeignetsten Knowledge Management-Tools stellt viele Knowledge Manager und Mitarbeiter eines Unternehmens vor schwierige Entscheidungen. Durch eine gezielte Auswahl lässt sich die Identifizierung, der Erwerb, die Entwicklung und die (Ver)Teilung sowie die Bewahrung und die Nutzung von Wissen steigern und steuern. Ziel dieser vorliegenden Bachelorarbeit ist es, ein Auswahlverfahren zu beschreiben, das die Auswahl geeigneter Knowledge Management-Tools unterstützt. Zur Unterstützung des Verfahrens wurde die Form einer Matrix gewählt. Durch die Knowledge Management-Tool-Matrix wird Knowledge Managern und Mitarbeitern die Auswahl geeigneter Knowledge Management-Tools erleichtert und zusätzlich transparent und nachvollziehbar gemacht. Vor der Erläuterung der Knowledge Management-Tool-Matrix als neues Auswahlverfahren, beschäftigt sich die Arbeit mit den Grundlagen des Knowledge Managements und stellt das Unternehmen PricewaterhouseCoopers Aktiengesellschaft Wirtschaftsprüfungsgesellschaft vor. Anschließend werden die vorhandenen Verfahren zur Auswahl von Knowledge Management-Tools vorgestellt. Nachfolgend wird das Vorgehen zur Entwicklung der Knowledge Management-Tool-Matrix beschrieben. Die ausführliche Beschreibung der Dimensionen und der Verwendung dieser Knowledge Management-Tool-Matrix bildet den Schwerpunkt dieser Arbeit und wird von der Zusammenfassung abgeschlossen.
Obwohl durchgängige CIM- und Logistik-Konzepte zur Erfüllung der permanent steigenden Kundenforderungen hinsichtlich spezifischer Produktausführungen bei qualitätsgerechter und termintreuer Auslieferung in den meisten Unternehmen noch nicht realisiert sind, beginnt bereits die Diskussion um eine neue Unternehmensstrategie: die "Lean Production". Das Ziel heißt diesmal, in allen Bereichen Ressourcen zu minimieren, um mit Hilfe einer schlanken Fertigung bei den Kosten Weltstandard zu erreichen.
Mit dem Krankenhausfinanzierungsreformgesetz hat der Gesetzgeber 2008 die Möglichkeit zur finanziellen Umstrukturierung von psychiatrischen und psychosomatischen voll- und teilstationären Kliniken geschaffen, nachdem seit 2003 bereits für allgemeine und somatische Krankenhäuser durch das German Diagnosis Related Groups-System (G-DRG-System) eine Umstellung der Abrechnung auf Fallpauschalen erfolgte. Nach heftiger Kritik diverser Fach- und Selbsthilfeverbände wurde das Pauschalierendes Entgeltsystem Psychiatrie und Psychosomatik (PEPP) 2016 überarbeitet. Entstanden ist das Psych-Entgeltsystem, welches zum 01.01.2017 in Kraft getreten ist. Ziel dieser Masterarbeit ist die Erfassung des Informationsstandes von Ergotherapeuten über das neue System und die Entwicklung von Hypothesen über die Auswirkungen des Psych-Entgelt auf die Arbeit von Ergotherapeuten im Fachbereich teil- und vollstationäre Psychiatrie. Dafür wurden sechs teilstrukturierte, Leitfaden gestützte qualitative Experteninterviews durchgeführt und die Ergebnisse hinsichtlich auf das Wissen der Therapeuten ausgewertet und interpretiert. Weiterhin wurde eine umfassende Literaturrecherche in deutschen Datenbanken, Fachzeitschriften und Monographien durchgeführt, um den aktuellen State of the Art der Forschungsliteratur darzustellen. Trotz großer Medienberichterstattung in der allgemeinen Presse und Fachliteratur anderer Berufsgruppen ist das Thema sowohl in der ergotherapeutischen Fachdiskussion als auch bei den Ergotherapeuten in den psychiatrischen Kliniken wenig präsent. Der Wissensstand der Ergotherapeuten variiert und ist abhängig von der Informationspolitik der Kliniken. Die Auswirkungen des neuen Finanzierungsmodells auf die Arbeit der Ergotherapeuten sind noch nicht absehbar, jedoch vermuten die Interviewpartner gravierende Veränderungen. Das neue Finanzierungsmodell wird in den nächsten Jahren zu einem Wandel in psychiatrischen und psychosomatischen Kliniken führen. Für die Ergotherapie besteht eine Chance zur inhaltlichen Neuausrichtung und Neuaufstellung innerhalb der hierarchischen Strukturen der Einrichtungen.
In diesem Beitrag wird zunächst geklärt, was der Begriff Authentizität beinhaltet und was entsprechend authentische Führung bedeutet. Im dritten Kapitel geht es ausführlich um den Begriff der Persönlichkeit und ausgewählte Theorien der Persönlichkeitspsychologie. Das vierte Kapitel beschäftigt sich mit Professionalität und professioneller Führung. Anschließend werden die Ausführungen stärker auf die berufliche Praxis bezogen. Im fünften Kapitel werden zwei ausgewählte Persönlichkeitstests vorgestellt, die auch in Unternehmen im Recruitment von Führungskräften eingesetzt werden. Das sechste Kapitel befasst sich mit Konzepten und Techniken zur Persönlichkeitsentwicklung. Im siebten Kapitel wird noch einmal ein Fazit gezogen. Die in der Einleitung aufgeworfenen Fragen werden zusammenfassend beantwortet.
The automated transfer of flight logbook information from aircrafts into aircraft maintenance systems leads to reduced ground and maintenance time and is thus desirable from an economical point of view. Until recently, flight logbooks have not been managed electronically in aircrafts or at least the data transfer from aircraft to ground maintenance system has been executed manually. Latest aircraft types such as the Airbus A380 or the Boeing 787 do support an electronic logbook and thus make an automated transfer possible. A generic flight logbook transfer system must deal with different data formats on the input side – due to different aircraft makes and models – as well as different, distributed aircraft maintenance systems for different airlines as aircraft operators. This article contributes the concept and top level distributed system architecture of such a generic system for automated flight log data transfer. It has been developed within a joint industry and applied research project. The architecture has already been successfully evaluated in a prototypical implementation.
Automatic classification of scientific records using the German Subject Heading Authority File (SWD)
(2012)
The following paper deals with an automatic text classification method which does not require training documents. For this method the German Subject Heading Authority File (SWD), provided by the linked data service of the German National Library is used. Recently the SWD was enriched with notations of the Dewey Decimal Classification (DDC). In consequence it became possible to utilize the subject headings as textual representations for the notations of the DDC. Basically, we we derive the classification of a text from the classification of the words in the text given by the thesaurus. The method was tested by classifying 3826 OAI-Records from 7 different repositories. Mean reciprocal rank and recall were chosen as evaluation measure. Direct comparison to a machine learning method has shown that this method is definitely competitive. Thus we can conclude that the enriched version of the SWD provides high quality information with a broad coverage for classification of German scientific articles.
For indexing archived documents the Dutch Parliament uses a specialized thesaurus. For good results for full text retrieval and automatic classification it turns out to be important to add more synonyms to the existing thesaurus terms. In the present work we investigate the possibilities to find synonyms for terms of the parliaments thesaurus automatically. We propose to use distributional similarity (DS). In an experiment with pairs of synonyms and non-synonyms we train and test a classifier using distributional similarity and string similarity. Using ten-fold cross validation we were able to classify 75% of the pairs of a set of 6000 word pairs correctly.
Das Thema dieser Bachelorarbeit ist die automatische Generierung von Notationen der Dewey-Dezimalklassifikation für Metadaten. Die Metadaten sind im Dublin-Core-Format und stammen vom Server für wissenschaftliche Schriften der Hochschule Hannover. Zu Beginn erfolgt eine allgemeine Einführung über die Methoden und Hauptanwendungsbereiche des automatischen Klassifizierens. Danach werden die Dewey-Dezimalklassifikation und der Prozess der Metadatengewinnung beschrieben. Der theoretische Teil endet mit der Beschreibung von zwei Projekten. In dem ersten Projekt wurde ebenfalls versucht Metadaten mit Notationen der Dewey-Dezimalklassifikation anzureichern. Das Ergebnis des zweiten Projekts ist eine Konkordanz zwischen der Schlagwortnormdatei und der Dewey-Dezimalklassifikation. Diese Konkordanz wurde im praktischen Teil dieser Arbeit dazu benutzt um automatisch Notationen der Dewey-Dezimalklassifikation zu vergeben.
In den letzten Jahren ist, nicht zuletzt aufgrund der schnellen und einfachen Verfügbarkeit von Daten und Informationen, ein Anstieg an veröffentlichter Literatur zu beobachten. Bibliotheken stehen vor der Herausforderung, diese Ressourcen zu erschließen und damit verfügbar zu machen. Ein Teilaspekt ist hierbei die Klassifizierung. Die Arbeit untersucht Voraussetzungen und Möglichkeiten der automatischen Klassifizierung am Beispiel medizinischer Literatur. Der erste, theoretische Teil beinhaltet die Beschreibung der Grundlagen der Inhaltserschließung, des Data Mining und der automatischen Klassifizierung sowie eine umfassende Übersicht über den aktuellen Forschungsstand in diesem Bereich. Im zweiten Teil wird die Auswahl, Aufbereitung und Analyse eines aus Katalogdatensätzen der Bibliothek der Medizinischen Hochschule Hannover bestehenden Datenbestandes erläutert. Die Anwendung von Verfahren des maschinellen Lernens zur Klassifizierung bibliographischer Datensätze wird am Beispiel des Algorithmus k-nearest-neighbours verdeutlicht. Hierbei lässt sich eine korrekte Klassifizierung von rund 58 % der Dokumente erreichen. Abschließend werden Optimierungsansätze (z.B. semi-automatische Verfahren) und Herausforderungen automatischer Klassifizierungsverfahren (z.B. uneinheitlich erschlossene Datensätze oder ungleiche Verteilung der Klassen einer Systematik in den Dokumenten) aufgezeigt.
Praktische Übungen anhand von Programmieraufgaben sind ein gängiger und zentraler Bestandteil der Programmierausbildung in der Informatik und verwandten Fächern. Die manuelle Korrektur von Lösungen zu Programmieraufgaben ist jedoch zeitaufwändig und nicht immer einfach. Gerade in Szenarien, die auf sogenanntes „formatives Assessment“ setzen, ist jedoch ein zeitnahes Feedback zumindest zu den wesentlichen Aspekten einer Lösung sehr wünschenswert. In diesem – aber auch in weiteren Szenarien – kann eine automatisierte Bewertung der Lösungen von Programmieraufgaben einen wertvollen Beitrag zur Verbesserung der Lehre leisten. Darüber hinaus ermöglichen geeignete Systeme eine Darstellung des Lernfortschritts, halten Lernende durch regelmäßig bewertete Übungsaufgaben zur kontinuierlichen Mitarbeit an und unterstützen Lehrende durch einen Überblick über Lernfortschritte und Lernhürden einzelner Studierender und der gesamten Gruppe bei der Planung und Ausrichtung ihrer Lehre.
Dieses Buch richtet sich an Lehrende an Hochschulen, Schulen und anderen Ausbildungseinrichtungen, an Hochschuldidaktiker mit Bezug zur Programmierausbildung und an Informatiker, die mit der Entwicklung oder Integration von Systemen zur automatischen Programmbewertung beschäftigt sind. Die Ziele dieses Buches sind zum einen, Lehrenden die praktische Relevanz und Tauglichkeit automatisierter Programmbewertung aufzuzeigen und damit den Einsatz automatischer Programmbewertung durch die Darstellung erfolgreicher Ansätze zu fördern. Zum anderen soll dem Thema der automatisierten Programmbewertung ein größerer Bekanntheitsgrad in der Fachöffentlichkeit verschafft und Arbeitsergebnisse aus Forschungs- und Praxisprojekten einem größeren Anwenderkreis präsentiert werden.
Die Nutzung von Messenger-Diensten hat die Nutzung von sozialen Medien übertroffen. Diese Mediennutzung bringt veränderte Erwartungen an Unternehmen mit sich. Unternehmen begegnen den Erwartungen ihrer Kund*innen in der Online-Kundenkommunikation mit dem Einsatz textbasierter Dialogsysteme. Im Facebook-Messenger wurden 2018 bereits über 300.000 Chatbots angeboten. Das Problem ist, dass Studien seit mehreren Jahren aufzeigen, dass diese Kommunikationstechnologie sich bei den Kund*innen noch nicht durchgesetzt hat und häufig noch skeptisch betrachtet wird. Für Unternehmen ist es daher notwendig zu verstehen, welche Kriterien erfüllt sein müssen, um die Akzeptanzbildung der Kund*innen gegenüber textbasierten Dialogsystemen positiv zu beeinflussen.
Das Ziel dieser Arbeit ist es zu betrachten, inwiefern die Eigenschaften textbasierter Dialogsysteme die Akzeptanzkriterien der Kund*innen erfüllen können. Dazu wird die folgende Forschungsfrage gestellt: Wie akzeptieren Kunden den Einsatz textbasierter Dialogsysteme in der Online-Kundenkommunikation von Unternehmen?
Um die Forschungsfrage zu beantworten, wird eine Literaturanalyse durchgeführt. Die Literatur wird mit Studienergebnissen verglichen, um Übereinstimmungen und Abweichungen herauszuarbeiten.
Eine Akzeptanzanalyse hat ergeben, dass Kund*innen textbasierte Dialogsysteme vor allem akzeptieren, wenn sie darin einen Nutzen erkennen. Jedoch beeinflussen neben nutzenorientierten Faktoren auch emotionale Faktoren die Akzeptanz.
Auf dieser Grundlage ist es empfehlenswert, positive und negative Einflussfaktoren des Akzeptanzprozesses zu identifizieren und die Gestaltung textbasierter Dialogsysteme an die Kund*innen anzupassen, bevor diese eingesetzt werden.
Das Thema Elektromagnetische Verträglichkeit (EMV) ist noch immer ein wesentlicher Aspekt bei der Planung, bei der Installation und beim Betrieb von Automatisierungssystemen. Kommunikationsnetzwerke wie zum Beispiel PROFIBUS und PROFINET sind als robuste und zuverlässige Übertragungssysteme bekannt. Dennoch ist für deren Funktion die Beachtung einiger grundlegender Prinzipien wichtig, um einen störungsfreien Betrieb über ein langes Anlagenleben zu gewährleisten. Der Beitrag beschreibt zunächst einige Grundlagen der EMV. Basierend auf diesen Grundlagen werden dann sechs Handlungsempfehlungen abgeleitet, die bei der Planung eines Automatisierungssystems für den Einsatz in der Fertigungsindustrie zu beachten sind. Abschließend wird ein Ausblick auf die weiterführenden Arbeiten für Anlagen der Prozessindustrie gegeben.
Dieser Text soll das Verfassen von Bachelorarbeiten erleichtern. Schrittweise wird dargestellt, wie man recherchiert, wie man eine Bachelorarbeit strukturiert, wie man argumentiert, wie man Ergebnisse darstellt und wie man eine zielführende Diskussion führt. Zwei Meilensteine für eine gute Bachelorarbeit sind das eigenständige Strukturieren von Informationen sowie das Entwickeln einer Argumentationslinie. Informationen sollen nicht unverbunden nebeneinander stehen, sondern argumentativ verknüpft werden. Es werden abschließend Grundregeln des Darstellens und Zitierens erläutert.
Trotz Wachstumsmarkt konkurrieren Hochschulen um leistungsstarke Studienanfänger. Ziel dieser Arbeit war eine Untersuchung der Wettbewerbsfähigkeit des Bachelorstudiengangs Betriebswirtschaftslehre der Hochschule Hannover, Fakultät IV – Abteilung Betriebswirtschaft. Zu diesem Zweck wurde eine vergleichende Analyse von 23 Studiengängen des Fachs Betriebswirtschaftslehre oder Wirtschaftswissenschaft in Niedersachsen und angrenzenden Bundesländern anhand der Kriterien Wahlmöglichkeiten, Methodenausbildung, Ausbildung in Schlüsselkompetenzen und Internationalisierung durchgeführt. In dieser Arbeit werden die Ergebnisse der Untersuchung und Schlussfolgerungen für den Studiengang Betriebswirtschaftslehre der Hochschule Hannover berichtet.
In order to reduce antimicrobial treatment and prevent environmental mastitis, the aim of the present study was to investigate associations between herd level factors and microbial load on teat ends with environmental mastitis pathogens. Quarterly farm visits of 31 dairy farms over a one-year period were used for statistical analysis. During each farm visit, teat-skin swabs, bedding and air samples were taken and management practices and herd parameters were documented. Total mesophilic bacteria, esculin-positive streptococci and coliform bacteria were examined in the laboratory procedures from teat skin and environmental samples. Esculin-positive streptococci and coliform bacteria on teat ends increased with high temperature–humidity indices (THI) in the barn during the spring and summer. Significantly more coliform bacteria on teat ends were found in herds with an increased percentage of normal or slightly rough teat ends. Cleaning cubicles more frequently, pre-cleaning teats before milking as well as post-dipping them after milking had a decreasing effect of teat-skin load with total mesophilic and coliform bacteria at the herd level. To conclude, teat-skin bacterial load with environmental pathogens is subject to fluctuations and can be influenced by aspects of farm hygiene.
Die Anpassungsfähigkeit eines Unternehmens an rasch wechselnde Wettbewerbssituationen bei kundenwunschorientierter Produktion mit veränderlichen Losgrößen und unterschiedlichen Terminrestriktoren kann nur über ausgefeilte Strategien und durch DV-Einsatz erzeugt werden. Anforderungsgerechte CIM- und Logistik-Konzepte sind eine wesentliche Vorraussetzung, damit die geforderte Flexibilität erreicht wird. Den unabdingbaren Informationsfluss schafft hierbei die Betriebsdatenerfassung.
Wegen der Vielzahl unterschiedlicher Teile in variierenden Losgrößen ist es in der spanenden Fetigung besonders wichtig, Hardware und Software für logistische Aufgaben anforderungsgerecht auszuwählen. Ausgehend von den logistischen Grundfunktionen im Betrieb sind die Grunddatenbereitstellung, die Prozessstruktur, die Produktgestaltung, das Beschaffen und das Lagern auf die rechnergestützte Logistik auszurichten.
Im Rahmen der Projektphase des 6. Semesters der Studiengänge Bachelor Informationsmanagement (BIM) und Bachelor medizinisches Informationsmanagement (BMI) wurde eine Webseite für die Forschung erstellt. Um die Notwendigkeit zu ermitteln, sowie den Wünschen und Bedürfnissen der Angestellten an der Hochschule nachkommen zu können, wurde eine Bedarfsanalyse durchgeführt. Der nachfolgende Beitrag zeigt die Ergebnisse in aufbereiteter Form. Nach einer kurzen Einleitung werden die Bereiche statistische und allgemeine Fragen, Fragen zu digitalen Forschungsdaten und Netzwerken, zur Forschungswebseite und zur Pflege der Daten ausgewertet dargestellt.
Die vorliegenden Bachelorarbeit befasst sich mit der Analyse und der zunehmenden Wichtigkeit von Social Media im emotionalen Wirtschaftszweig Profifußball. Hierzu werden verschiedenste Social-Media- und Web 2.0-Angebote vorgestellt und Fakten zum Einsatz in der freien Wirtschaft präsentiert. Unter Berücksichtigung des Wandels zu mehr Kommerzialisierung im Profifußball, fällt die Analyse der aktuellen Präsenz der Bundesligisten auf Facebook, Twitter und Co kritisch aus. Besonders im Vergleich mit europäischen Vereinen zeigt sich ein großer Nachholbedarf deutscher Clubs. Abschließend folgt der Versuch einer Strategiebewertung anhand des Bundesligisten SV Werder Bremen. Die Auswertung von offiziellen und inoffiziellen Angeboten sowie die Analyse Diskussionen über den Verein, zeigen vielfältige Ergebnisse und Möglichkeiten für die Umsetzung einer umfangreichen Social-Media-Strategie. Mögliche Inhalte einer solchen Umsetzung auf relevanten Plattformen bilden den Abschluss der vorliegenden Arbeit.
Der vorliegende Artikel bezieht sich auf die unterschiedlichen Begrifflichkeiten, die im Umfeld der Wettbewerberforschung in der Literatur Verwendung finden. Neben den Begriffen des angloamerikanischen Sprachraums (Competitive Intelligence, Competitor Intelligence und Competitor Analyse) existieren für den deutschsprachigen Raum (Wettbewerber-, Konkurrenten-, Wettbewerbs- und Konkurrenzanalyse) ebenfalls verschiedenartige Begriffe, denen in der Literatur eine häufig unterschiedliche Verwendung zu Teil wird. Dieser Artikel baut einen Ordnungsansatz auf, der die angesprochenen Begrifflichkeiten in eine Struktur bringt, um somit eine klare inhaltliche Trennung der einzelnen Begriffe sowie eine in Relation bringende Darstellung aufbauen zu können. Dies ermöglicht eine ambiguitätsfreie Verwendung innerhalb der wissenschaftlichen Arbeit durch definitorisch fixierte Begriffsinhalte.
Dieser Beitrag adressiert einleitend die aktuelle Bedrohungslage aus Sicht der Industrie mit einem Fokus auf das Feld und die Feldgeräte. Zentral wird dann die Frage behandelt, welchen Beitrag Feldgeräte im Kontext von hoch vernetzten Produktionsanlagen für die künftige IT-Sicherheit leisten können und müssen. Unter anderem werden auf Basis der bestehenden Standards wie IEC 62443-4-1, IEC 62443-4-2 oder der VDI 2182-1 und VDI 2182-4 ausgewählte Methoden und Maßnahmen am Beispiel eines Durchflussmessgerätes vorgestellt, die zur künftigen Absicherung von Feldgeräten notwendig sind.
In der philosophischen Ethik wird unterschieden zwischen deskriptiver Ethik, normativer Ethik und Metaethik. In diesem Beitrag steht die normative Ethik im Mittelpunkt. Es soll die Frage erörtert werden, welche ethischen Kriterien für die Praxis von Beratung gelten sollten. Zu diesem Zweck werden zunächst beratungskritische Traditionen angeführt und im Anschluss professionsethische Überlegungen mit Rückgriff auf Impulse aus Foucaults Philosophie angestellt.
Im Frühling 2007 beauftragte die Landeshauptstadt Hannover die damalige Evangelische Fachhochschule Hannover (jetzt: Fachhochschule Hannover, Fakultät V, Soziale Arbeit) mit der Evaluation zur „flächendeckenden Sprachförderung für Migrantenkinder und Kinder mit Sprachschwierigkeiten“. In der Zeit vom Mai 2007 bis zum April 2009 führte Frau Rosemarie Lüters unter Leitung von Joachim Romppel die Forschungsarbeiten durch.
Während des letzten Jahres haben wir als Forschungsteam eine Vielzahl an Informationen durch persönliche Gespräche, Eindrücke vor Ort und Auswertung von Materialien und Berichten erhalten. Der Umfang der Arbeiten führte weit über die ursprüngliche Planung hinaus. Die Vorbereitungsgespräche pendelten zwischen den Anliegen von Politik und Verwaltung einen Überblick einerseits und sehr detaillierte Einblicke andererseits zu erhalten. Dieser Spannbreite haben wir versucht durch Bezug auf die drei Jugendeinrichtungen und auf die Fachgespräche im Jugendforum gerecht zu werden. Mit diesem Bericht stellen wir die wichtigen Ergebnisse heraus, an denen eine Weiterarbeit und Vertiefung von Fachleuten und Aktiven der Stadt in den nächsten Jahren erfolgen kann. Der Bericht enthält Bestandsaufnahmen sowie Vorschläge und Empfehlungen mit weiterführenden Hinweisen. Eine Prioritätensetzung wurde nicht vorgenommen, sondern obliegt den Entscheidern vor Ort.
Seit einigen Jahren wird zunehmend intensiver über das Angebot und den Bedarf an Fachkräften in der Pflege diskutiert. Dazu wurden bereits eine Reihe von Studien und Prognosen veröffentlicht, die allerdings zu sehr unterschiedlichen Ergebnissen kamen. In der öffentlichen wie auch in der wissenschaftlichen Diskussion sind deshalb gegenwärtig eine Vielzahl unterschiedlicher Zahlen anzutreffen. Die Unterschiede sind allerdings nicht nur auf methodische Unterschiede zurückzuführen, sondern vor allem auch darauf, dass es bislang an zuverlässigen und ausreichend differenzierten Daten amtlicher Statistiken zur Gesamtzahl der Beschäftigten in Pflegeberufen mangelt. Zwar bietet die Gesundheitspersonalrechnung (GPR) des Statistischen Bundesamtes einrichtungsübergreifende Angaben zur Gesamtzahl der Beschäftigten in Pflegeberufen, diese sind jedoch zum einen nicht ausreichend differenziert und basieren zum anderen zu einem wesentlichen Teil auf einer Hochrechnung von Ergebnissen der 1 %-Haushaltsstichprobe des Mikrozensus. Die Angaben der GPR sind darum mit dem Risiko behaftet, dass sie aufgrund von Schätzfehlern die tatsächliche Zahl der Beschäftigten über- oder unterschätzen. Zuverlässigere Angaben zur Beschäftigung in Pflegeberufen bieten Teilstatistiken des Gesundheitswesens, die ihre Daten auf dem Wege einer Vollerhebung mit gesetzlicher Auskunftspflicht der befragten Einrichtungen gewinnen. Dies sind die Krankenhausstatistik, die Statistik der Vorsorge- und Rehabilitationseinrichtungen und die Pflegestatistik. In der vorliegenden Studie werden deren Daten erstmals zu einer Gesamtstatistik der Pflegeberufe zusammengeführt. Das Ergebnis ist eine Datenaufbereitung zur Entwicklung und zum Stand der Beschäftigung in Pflegeberufen in Deutschland im Zeitraum 1999-2009, die nicht nur Zahlen zur Gesamtbeschäftigung bietet, sondern auch differenziert nach einzelnen Pflegeberufen und Versorgungsbereichen (Krankenhaus, Rehabilitationsbereich, ambulante Pflegeeinrichtungen und Pflegeheime). Die Analyse der zusammengeführten Daten führt zu einer Reihe von Ergebnissen, die insbesondere auch für die gesundheitspolitische Diskussion von Bedeutung sind.
Die Studie gibt einen Überblick über Energiemanagementfunktionen und deren Integration in Automatisierungssysteme. Sie besteht aus den folgenden Teilen:
1.) Bestandsaufnahme und Marktübersicht von Energiemanagementsystemen, insbesondere von den an der Studie beteiligten Firmen und zwei weitere Produkte als Referenz.
2.) Anwenderinterviews mit Anwendern aus verschiedenen Schlüsselindustrien der Prozess- und Fertigungsautomatisierung zur Evaluierung künftiger Anforderungen und Erwartungen an ein Energiemanagement insbesondere auch im Hinblick auf die Integration in Automatisierungssysteme.
3.) Bedeutung des Energiemanagements in der Zukunft und daraus abzuleitende Maßnahmen.
Es werden die Kosten der H-Milchabteilung bei drei verschiedenen Kapazitätsgrößen mit jeweils variierter Kapazitätsauslastung nach einer speziellen Form der Teilkostenrechnung bestimmt. Die Kapazitätsgrößen betragen 3300, 6600 und 9900 1-l-Packungen pro Stunde. Im Jahr werden zwischen 2,9 und 53,6 Mio. Einheiten hergestellt; dabei variieren die Stückkosten zwischen 30,65 und 18,85 Pf/1-l-Packung. Es zeigt sich dabei, daß die Kostendegression entscheidend stärker durch den Grad der Kapazitätsauslastung als durch die Kapazitätsgröße beeinflußt wird.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in zahlreichen Molkereibetrieben sowie bei Herstellern von Molkereimaschinen, Verpackungsmaterial und sonstigen Bedarfsartikeln erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
Für die Produktion von drei Sorten stichfestem Joghurt (Natur, mit unterlegter Frucht und Mix) werden die Kosten nach einer speziellen Form der Teilkostenrechnung in Abhängigkeit von der Kapazitätsauslastung bestimmt. Es werden drei Modelle mit unterschiedlicher Kapazitätsgröße dargestellt: 6500, 13.000 und 26.000 Becher/h. Durch Variationen der Produktmenge, Produktionstage und Produktanteile ergeben sich Kosten zwischen 12,6 und 9,3 Pf/Becher Joghurt Natur bzw. 18,7 und 15,5 Pf/Becher Joghurt mit unterlegter Frucht bzw. 17,0 und 14,0 Pf/Becher Joghurt Mix. Je nach Produktionsbedingungen können Stückkostendifferenzen von über 20 Pfennig je kg Produkt auftreten.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in umfangreichen Feldanalysen erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in umfangreichen Feldanalysen erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
In der vorliegenden Arbeit werden die Produktionskosten für Sauerrahmbutter nach einer speziellen Form der Teilkostenrechnung in Abhängigkeit der Kapazitätsgröße und -auslastung bestimmt. Die untersuchten 3 Modelle haben eine Kapazität von 1350, 2700 und 4050 kg Butter/h. Durch Variation der Produktionsmengen von rd. 1600 bis 24 000 t/Jahr und der Produktionstage (360/252/180) ergeben sich Kosten der Buttereiabteilung zwischen 19,3 Pf/kg und 34,3 Pf/kg Butter. Bei einer mittleren Auslastung von 50% bewegen sich die Kosten von 20,3 bis 23,6 Pf/kg. Die Kostenanalyse zeigt, daß die Kostendegression bedeutend stärker durch den Kapazitätsauslastungsgrad als durch die Kapazitätsgröße beeinflußt wird.
In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.