Refine
Year of publication
Document Type
- Article (526)
- Conference Proceeding (162)
- Bachelor Thesis (149)
- Report (102)
- Working Paper (85)
- Book (73)
- Master's Thesis (66)
- Part of a Book (40)
- Periodical Part (38)
- Study Thesis (25)
Is part of the Bibliography
- no (1323)
Keywords
- Bibliothek (44)
- Digitalisierung (38)
- Milchwirtschaft (36)
- E-Learning (27)
- Molkerei (27)
- Ausbildung (23)
- Euterentzündung (23)
- Informationsmanagement (22)
- Computersicherheit (21)
- Herbarium (20)
From an ethical perspective, clinical research involving humans is only acceptable if it involves the potential for benefit. Various characteristics can be applied to differentiate research benefit. Often benefit is categorized in direct or indirect benefit, whereby indirect benefit might be further differentiated in collective or benefit for the society, excluding or including the trial patient in the long term. Ethical guidelines, such as the Declaration of Helsinki in its latest version, do not precisely favor a particular type of benefit.
The world health organization defines musculoskeletal disorder (MSD) as “a disorder of muscles, tendons, peripheral vascular system not directly resulting from an acute or instantaneous event.1 Work related MSDs are one of the most important occupational hazards.1 Among many other occupations, dentistry is a highly demanding profession that requires good visual acuity, hearing, depth perception, psychomotor skills, manual dexterity, and ability to maintain occupational postures over long periods.
Malnutrition is the condition in which the body does not get the right amount of proteins, vitamins, or other nutrients.1 The global prevalence of malnutrition was reported as 13% in 2015.2 The subregion of South Asia is especially known as a critical area for severe wasted children aged <5 years.3 In India, 38.4% of children aged <3 years are stunted, and 46% are underweight.4 Malnutrition can lead to mortality as well as disabilities and long-term consequences such as cognitive disabilities, less economic productivity, or diseases.
BACKGROUND: Even though physician rating websites (PRWs) have been gaining in importance in both practice and research, little evidence is available on the association of patients' online ratings with the quality of care of physicians. It thus remains unclear whether patients should rely on these ratings when selecting a physician. The objective of this study was to measure the association between online ratings and structural and quality of care measures for 65 physician practices from the German Integrated Health Care Network "Quality and Efficiency" (QuE). METHODS: Online reviews from two German PRWs were included which covered a three-year period (2011 to 2013) and included 1179 and 991 ratings, respectively. Information for 65 QuE practices was obtained for the year 2012 and included 21 measures related to structural information (N = 6), process quality (N = 10), intermediate outcomes (N = 2), patient satisfaction (N = 1), and costs (N = 2). The Spearman rank coefficient of correlation was applied to measure the association between ratings and practice-related information. RESULTS: Patient satisfaction results from offline surveys and the patients per doctor ratio in a practice were shown to be significantly associated with online ratings on both PRWs. For one PRW, additional significant associations could be shown between online ratings and cost-related measures for medication, preventative examinations, and one diabetes type 2-related intermediate outcome measure. There again, results from the second PRW showed significant associations with the age of the physicians and the number of patients per practice, four process-related quality measures for diabetes type 2 and asthma, and one cost-related measure for medication. CONCLUSIONS: Several significant associations were found which varied between the PRWs. Patients interested in the satisfaction of other patients with a physician might select a physician on the basis of online ratings. Even though our results indicate associations with some diabetes and asthma measures, but not with coronary heart disease measures, there is still insufficient evidence to draw strong conclusions. The limited number of practices in our study may have weakened our findings.
This paper describes the latest accomplishments on the current research that is based on the master’s thesis “Ein System zur Erstellung taktiler Karten für blinde und sehbehinderte Menschen” (German for “A system creating tactile maps for blind and visually impaired people”) (Hänßgen, 2012). The system consists of two parts. The first part is new software especially designed and developed for creating tactile maps addressing the needs of blind and visually impaired people on tactile information. The second is an embossing device based on a modified CNC (computer numerical control) router. By using OpenStreetMap-data, the developed system is capable of embossing tactile maps into Braille paper and writing film.
Streptococcus (S.) uberis is a causative agent for clinical and subclinical bovine mastitis which significance for the udder health has increased over the last decades. Molecular diagnosis methods revealed that S. uberis may be subdivided into many different varieties with different epidemiological properties. In addition, some varieties were reclassified as Streptococcus parauberis and Globicatella sanguinis. The present paper reviews S. uberis and its role in modern dairy farming. This pathogen is ubiquitous for which it is considered as environment- associated. Straw bedding and pasture, but also the bovine skin and digestive mucosae are typical localizations inhabited by S. uberis. Due to its capacity to persist within the mammary tissue, some infections may eventually turn cow-associated. In other cases, the infection is short, but in any case, there is a high risk of re-infection. Although many varieties remain susceptible to most antimicrobial agents, the problem for the dairy farm lies in the high rate of re-infection. This paper also reviews risk factors, therapies and measures to control S. uberis at farm level.
BACKGROUND: Over the past decade, physician-rating websites have been gaining attention in scientific literature and in the media. However, little knowledge is available about the awareness and the impact of using such sites on health care professionals. It also remains unclear what key predictors are associated with the knowledge and the use of physician-rating websites. OBJECTIVE: To estimate the current level of awareness and use of physician-rating websites in Germany and to determine their impact on physician choice making and the key predictors which are associated with the knowledge and the use of physician-rating websites. METHODS: This study was designed as a cross-sectional survey. An online panel was consulted in January 2013. A questionnaire was developed containing 28 questions; a pretest was carried out to assess the comprehension of the questionnaire. Several sociodemographic (eg, age, gender, health insurance status, Internet use) and 2 health-related independent variables (ie, health status and health care utilization) were included. Data were analyzed using descriptive statistics, chi-square tests, and t tests. Binary multivariate logistic regression models were performed for elaborating the characteristics of physician-rating website users. Results from the logistic regression are presented for both the observed and weighted sample. RESULTS: In total, 1505 respondents (mean age 43.73 years, SD 14.39; 857/1505, 57.25% female) completed our survey. Of all respondents, 32.09% (483/1505) heard of physician-rating websites and 25.32% (381/1505) already had used a website when searching for a physician. Furthermore, 11.03% (166/1505) had already posted a rating on a physician-rating website. Approximately 65.35% (249/381) consulted a particular physician based on the ratings shown on the websites; in contrast, 52.23% (199/381) had not consulted a particular physician because of the publicly reported ratings. Significantly higher likelihoods for being aware of the websites could be demonstrated for female participants (P<.001), those who were widowed (P=.01), covered by statutory health insurance (P=.02), and with higher health care utilization (P<.001). Health care utilization was significantly associated with all dependent variables in our multivariate logistic regression models (P<.001). Furthermore, significantly higher scores could be shown for health insurance status in the unweighted and Internet use in the weighted models. CONCLUSIONS: Neither health policy makers nor physicians should underestimate the influence of physician-rating websites. They already play an important role in providing information to help patients decide on an appropriate physician. Assuming there will be a rising level of public awareness, the influence of their use will increase well into the future. Future studies should assess the impact of physician-rating websites under experimental conditions and investigate whether physician-rating websites have the potential to reflect the quality of care offered by health care providers.
BACKGROUND:
Despite their increasing popularity, little is known about how users perceive mobile devices such as smartphones and tablet PCs in medical contexts. Available studies are often restricted to evaluating the success of specific interventions and do not adequately cover the users' basic attitudes, for example, their expectations or concerns toward using mobile devices in medical settings.
OBJECTIVE:
The objective of the study was to obtain a comprehensive picture, both from the perspective of the patients, as well as the doctors, regarding the use and acceptance of mobile devices within medical contexts in general well as the perceived challenges when introducing the technology.
METHODS:
Doctors working at Hannover Medical School (206/1151, response 17.90%), as well as patients being admitted to this facility (213/279, utilization 76.3%) were surveyed about their acceptance and use of mobile devices in medical settings. Regarding demographics, both samples were representative of the respective study population. GNU R (version 3.1.1) was used for statistical testing. Fisher's exact test, two-sided, alpha=.05 with Monte Carlo approximation, 2000 replicates, was applied to determine dependencies between two variables.
RESULTS:
The majority of participants already own mobile devices (doctors, 168/206, 81.6%; patients, 110/213, 51.6%). For doctors, use in a professional context does not depend on age (P=.66), professional experience (P=.80), or function (P=.34); gender was a factor (P=.009), and use was more common among male (61/135, 45.2%) than female doctors (17/67, 25%). A correlation between use of mobile devices and age (P=.001) as well as education (P=.002) was seen for patients. Minor differences regarding how mobile devices are perceived in sensitive medical contexts mostly relate to data security, patients are more critical of the devices being used for storing and processing patient data; every fifth patient opposed this, but nevertheless, 4.8% of doctors (10/206) use their devices for this purpose. Both groups voiced only minor concerns about the credibility of the provided content or the technical reliability of the devices. While 8.3% of the doctors (17/206) avoided use during patient contact because they thought patients might be unfamiliar with the devices, (25/213) 11.7% of patients expressed concerns about the technology being too complicated to be used in a health context.
CONCLUSIONS:
Differences in how patients and doctors perceive the use of mobile devices can be attributed to age and level of education; these factors are often mentioned as contributors of the problems with (mobile) technologies. To fully realize the potential of mobile technologies in a health care context, the needs of both the elderly as well as those who are educationally disadvantaged need to be carefully addressed in all strategies relating to mobile technology in a health context.
The automated transfer of flight logbook information from aircrafts into aircraft maintenance systems leads to reduced ground and maintenance time and is thus desirable from an economical point of view. Until recently, flight logbooks have not been managed electronically in aircrafts or at least the data transfer from aircraft to ground maintenance system has been executed manually. Latest aircraft types such as the Airbus A380 or the Boeing 787 do support an electronic logbook and thus make an automated transfer possible. A generic flight logbook transfer system must deal with different data formats on the input side – due to different aircraft makes and models – as well as different, distributed aircraft maintenance systems for different airlines as aircraft operators. This article contributes the concept and top level distributed system architecture of such a generic system for automated flight log data transfer. It has been developed within a joint industry and applied research project. The architecture has already been successfully evaluated in a prototypical implementation.
Purpose. To identify stroke survivors with symptoms of poststroke depression and the extent of psychiatry needs and care they have received while on physiotherapy rehabilitation. Participants. Fifty stroke survivors (22 females and 28 males) at the outpatient unit of Physiotherapy Department, University of Nigeria Teaching Hospital, Enugu, who gave their informed consent, were randomly selected. Their age range and mean age were 26–66 years and 54.76 ± 8.79 years, respectively. Method. A multiple case study of 50 stroke survivors for symptoms of poststroke depression was done with Beck’s Depression Inventory, mini mental status examination tool, and Modified Motor Assessment Scale. The tests were performed independently by the participants except otherwise stated and scored on a scale of 0–6. Data were analyzed using -test for proportional significance and chi-square test for determining relationship between variables, at p < 0.05. Results. Twenty-one (42.0%) stroke survivors had symptoms of PSD, which was significantly dependent on duration of stroke ( = 21.680, df = 6, and p = 0.001), yet none of the participants had a psychiatry review. Conclusions. Symptoms of PSD may be common in cold compared to new cases of stroke and may need psychiatry care while on physiotherapy rehabilitation.
A decline in the CD4 count is a common feature in HIV/AIDS, suggesting a compromise in immunity of patients. In response, highly active antiretroviral therapy (HAART) is prescribed to slow-down a diminution in the CD4 count and risk of AIDS-related malignancies. However, exercise may improve both the utility and population of innate immune cell components, and may be beneficial for patients with HIV infection. Comparing the effects of different exercises against HAART, on CD4 count, helps in understanding the role and evidence-based application of exercises to ameliorate immune deficiency.
Malnutrition, nutritional deficiency, or undernutrition is an imbalanced nutritional status resulting from insufficient intake of nutrients to meet normal physiologic requirements. Malnutrition in childhood has both short-term consequences and long-term consequences on mental and physical health as well as the overall health development of children. Of all regions in the world, the Asia and the Pacific region has achieved the fastest rate of economic growth. There is no evidence that this rapid economic growth translates into a decline in malnutrition of children in Asian countries such as India.
The use of secondary data in health care research has become a very important issue over the past few years. Data from the treatment context are being used for evaluation of medical data for external quality assurance, as well as to answer medical questions in the form of registers and research databases. Additionally, the establishment of electronic clinical systems like data warehouses provides new opportunities for the secondary use of clinical data. Because health data is among the most sensitive information about an individual, the data must be safeguarded from disclosure.
Objectives: To assess the relation between the number of clinical trials conducted and respective new drug approvals in India and South Africa.
Design: Construction and analysis of a comprehensive database of completed randomised controlled clinical trials based on clinicaltrials.gov from 1 January 2005 to 31 December 2010 and drug approval data from 2006 until 2013 for India and South Africa.
Setting: USA, the EU, India and South Africa.
Main outcome measures: Percentage of completed randomised clinical trials for an Investigational Medicinal Product (IMP) leading to new drug approval in India and South Africa.
Results: A total of 622 eligible randomised controlled trials were identified as per search criteria for India and South Africa. Clustering them for the same sponsor and the same Investigational New Drug (IND) resulted in 453 eligible trials, that is, 224 for India and 229 for South Africa. The distribution of the market application approvals between the EU/USA as well as India and South Africa revealed that out of clinical trials with the participation of test centres in India and/or South Africa, 39.6% (India) clinical trials and 60.1% (South Africa) clinical trials led to market authorisation in the EU/USA without a New Drug Application (NDA) approval in India or South Africa.
Conclusions: Despite an increase in clinical trial activities, there is a clear gap between the number of trials conducted and market availability of these new drugs in India and South Africa. Drug regulatory authorities, investigators, institutional review boards and patient groups should direct their efforts to ensuring availability of new drugs in the market that have been tested and researched on their population.
The technical, environmental and economic potential of hemp fines as a natural filler in bioplastics to produce biocomposites is the subject of this study – giving a holistic overview. Hemp fines are an agricultural by-product of the hemp fibres and shives production. Shives and fibres are for example used in the paper, animal bedding or composite area. About 15 to 20 wt.-% per kg hemp straw results in hemp fines after processing. In 2010 about 11,439 metric tons of hemp fines were produced in Europe. Hemp fines are an inhomogeneous material which includes hemp dust, shives and fibre. For these examinations the hemp fines are sieved in a further step with a tumbler sieving machine to obtain more specified fractions. The untreated hemp fines (ex work) as well as the sieved fractions are combined with a polylactide polymer (PLA) using a co-rotating twin screw extruder to produce biocomposites with different hemp fine content. By using an injection moulding machine standard test bars are produced to conduct several material tests. The Young’s modulus is increased and the impact strength reduced by hemp fines. With a content of above 15 wt.-% hemp fines are also improving the environmental (global warming potential) and economic performance in comparison to pure PLA.
The dependency of word similarity in vector space models on the frequency of words has been noted in a few studies, but has received very little attention. We study the influence of word frequency in a set of 10 000 randomly selected word pairs for a number of different combinations of feature weighting schemes and similarity measures. We find that the similarity of word pairs for all methods, except for the one using singular value decomposition to reduce the dimensionality of the feature space, is determined to a large extent by the frequency of the words. In a binary classification task of pairs of synonyms and unrelated words we find that for all similarity measures the results can be improved when we correct for the frequency bias.
Discovery and efficient reuse of technology pictures using Wikimedia infrastructures. A proposal
(2016)
Multimedia objects, especially images and figures, are essential for the visualization and interpretation of research findings. The distribution and reuse of these scientific objects is significantly improved under open access conditions, for instance in Wikipedia articles, in research literature, as well as in education and knowledge dissemination, where licensing of images often represents a serious barrier.
Whereas scientific publications are retrievable through library portals or other online search services due to standardized indices there is no targeted retrieval and access to the accompanying images and figures yet. Consequently there is a great demand to develop standardized indexing methods for these multimedia open access objects in order to improve the accessibility to this material.
With our proposal, we hope to serve a broad audience which looks up a scientific or technical term in a web search portal first. Until now, this audience has little chance to find an openly accessible and reusable image narrowly matching their search term on first try - frustratingly so, even if there is in fact such an image included in some open access article.
OSGi is a popular Java-based platform, which has its roots in the area of embedded systems. However, nowadays it is used more and more in enterprise systems. To fit this new application area, OSGi has recently been extended with the Remote Services specification. This specification enables distribution, which OSGi was previously lacking. However, the specification provides means for synchronous communication only and leaves out asynchronous communication. As an attempt to fill a gap in this field, we propose, implement and evaluate an approach for the integration of asynchronous messaging into OSGi.
Of late, decrease in mineral oil supplies has stimulated research on use of biomass as an alternative energy source. Climate change has brought problems such as increased drought and erratic rains. This, together with a rise in land degeneration problems with concomitant loss in soil fertility has inspired the scientific world to look for alternative bio-energy species. Euphorbia tirucalli L., a tree with C3/CAM metabolism in leaves/stem, can be cultivated on marginal, arid land and could be a good alternative source of biofuel.
We analyzed a broad variety of E. tirucalli plants collected from different countries for their genetic diversity using AFLP. Physiological responses to induced drought stress were determined in a number of genotypes by monitoring growth parameters and influence on photosynthesis. For future breeding of economically interesting genotypes, rubber content and biogas production were quantified.
Cluster analysis shows that the studied genotypes are divided into two groups, African and mostly non-African genotypes. Different genotypes respond significantly different to various levels of water. Malate measurement indicates that there is induction of CAM in leaves following drought stress. Rubber content varies strongly between genotypes. An investigation of the biogas production capacities of six E. tirucalli genotypes reveals biogas yields higher than from rapeseed but lower than maize silage.
Metagenomic studies use high-throughput sequence data to investigate microbial communities in situ. However, considerable challenges remain in the analysis of these data, particularly with regard to speed and reliable analysis of microbial species as opposed to higher level taxa such as phyla. We here present Genometa, a computationally undemanding graphical user interface program that enables identification of bacterial species and gene content from datasets generated by inexpensive high-throughput short read sequencing technologies. Our approach was first verified on two simulated metagenomic short read datasets, detecting 100% and 94% of the bacterial species included with few false positives or false negatives. Subsequent comparative benchmarking analysis against three popular metagenomic algorithms on an Illumina human gut dataset revealed Genometa to attribute the most reads to bacteria at species level (i.e. including all strains of that species) and demonstrate similar or better accuracy than the other programs. Lastly, speed was demonstrated to be many times that of BLAST due to the use of modern short read aligners. Our method is highly accurate if bacteria in the sample are represented by genomes in the reference sequence but cannot find species absent from the reference. This method is one of the most user-friendly and resource efficient approaches and is thus feasible for rapidly analysing millions of short reads on a personal computer.
Im Frühling 2007 beauftragte die Landeshauptstadt Hannover die damalige Evangelische Fachhochschule Hannover (jetzt: Fachhochschule Hannover, Fakultät V, Soziale Arbeit) mit der Evaluation zur „flächendeckenden Sprachförderung für Migrantenkinder und Kinder mit Sprachschwierigkeiten“. In der Zeit vom Mai 2007 bis zum April 2009 führte Frau Rosemarie Lüters unter Leitung von Joachim Romppel die Forschungsarbeiten durch.
Während des letzten Jahres haben wir als Forschungsteam eine Vielzahl an Informationen durch persönliche Gespräche, Eindrücke vor Ort und Auswertung von Materialien und Berichten erhalten. Der Umfang der Arbeiten führte weit über die ursprüngliche Planung hinaus. Die Vorbereitungsgespräche pendelten zwischen den Anliegen von Politik und Verwaltung einen Überblick einerseits und sehr detaillierte Einblicke andererseits zu erhalten. Dieser Spannbreite haben wir versucht durch Bezug auf die drei Jugendeinrichtungen und auf die Fachgespräche im Jugendforum gerecht zu werden. Mit diesem Bericht stellen wir die wichtigen Ergebnisse heraus, an denen eine Weiterarbeit und Vertiefung von Fachleuten und Aktiven der Stadt in den nächsten Jahren erfolgen kann. Der Bericht enthält Bestandsaufnahmen sowie Vorschläge und Empfehlungen mit weiterführenden Hinweisen. Eine Prioritätensetzung wurde nicht vorgenommen, sondern obliegt den Entscheidern vor Ort.
Open Educational Resources (OER) sind offen lizensierte und frei zugängliche Lehr- und Lernmaterialien, deren Inhalte übernommen, angepasst und unter der gleichen Lizenz weiter verbreitet werden dürfen. Sie stellen einen wichtigen Beitrag zum lebenslangen Lernen dar. In Zusammenhang mit dem wechselnden Rollenverständnis von Wissenschaftlichen Bibliotheken hin zu einem Lernort, gewinnen OER zunehmend an Bedeutung. Diese Arbeit beschäftigt sich mit der Nutzung und dem Umgang von OER in Wissenschaftlichen Bibliotheken. Dargestellt an ausgewählten Beispielen im Zusammenhang mit dem Studium von Flüchtlingen an der KIRON-Universität und deren Zugang zu deutschen Hochschulen. Abschließend gibt diese Arbeit einen Ausblick auf Bereiche, aus denen Bibliotheken zukünftige Dienstleistungen für Ihre Trägereinrichtungen im Bereich der OER entwickeln können. Die Arbeit basiert auf einer Prüfungsleistung vom 14.02.2016 in der Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ unter Frau Dr. Ina Blümel.
Die Aufnahme von Computerspielen in den Bibliotheksbestand stellt viele Einrichtungen vor neue Herausforderungen, da diese Medien vermehrt nicht in physischer Form vertrieben werden. Welche grundlegenden Überlegungen kommen auf Bibliotheken und ihre Mitarbeiter zu, wenn sie Konzepte zum Einsatz digitaler Spiele erarbeiten und mit diesen Medien erfolgreich arbeiten wollen? Anhand von Best-Practice-Beispielen werden innovative Ideen aufgezeigt, die abseits eines reinen Verleihkonzepts Bibliotheken in Spiel- und Lernorte verwandeln, in denen alle Medien gleichberechtigt als Informationsträger nebeneinander eingesetzt werden. Ausgehend von der Geschichte der Computerspiele über die Beleuchtung der Zusammenhänge zwischen der Nutzung digitaler Spiele und der Steigerung von (Lern-)Kompetenzen zeigt diese Arbeit abschließend ein Konzept, wie digitale und analoge Spielstrategien verknüpft und Nutzern ein einzigartiges Spielerlebnis im Bibliotheksraum geboten werden kann.
Dieses Paper geht auf eine Prüfungsleistung vom 14.02.2016 in der Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ im Wintersemester 2015/16 aus dem Studiengang Informationsmanagement (berufsbegleitend) der Hochschule Hannover unter Frau Dr. Ina Blümel zurück.
Das Ergebnis dieser Untersuchung ist eine umfassenden Literatur- und Internetrecherche zum Thema Open Government in Deutschland. Hierbei steht die Fragestellung "Welche Ziele hat die aktuelle Bundesregierung bis jetzt erreicht?" auf Basis des Koalitionsvertrags der 18.Legislaturperiode im Mittelpunkt. Es wird eine Übersicht über die Gesetzesgrundlage mit einem Fokus auf dem e-Government-Gesetz gegeben. Zudem wird der aktuelle Sachstand des Koalitionsvertrags betreffend Open Government an neun Punkten betrachtet und abschließend bewertet.
In der Zentralbibliothek der Hochschule Hannover wurde ab Wintersemester 2012 ein Experiment mit Roving Librarians durchgeführt, um die Auskunftsqualität zu verbessern. Die Mitarbeiterinnen und Mitarbeiter der Bibliothek liefen zu diesem Zweck mit einem Netbook ausgerüstet durch den Benutzungsbereich der Bibliothek, um Fragen der Nutzer und Nutzerinnen gleich dort aufzufangen, wo sie entstehen. Der Versuch kann nicht als erfolgreich bezeichnet werden, doch konnten während des Experiments wertvolle Einblicke in Nutzerwünsche gewonnen werden.
Angesichts der tiefgreifenden Veränderungen in der Medienbranche (z. B. Digitalisierung, Konvergenz) müssen Medienunternehmen gemeinsam mit externen Partnern innovative Geschäftsmodelle vorantreiben. Die vorliegende Arbeit untersucht die Bedeutung der Beziehungsqualität und der Nutzung von Steuerungsmechanismen für den Erfolg unternehmensübergreifender Geschäftsmodellinnovationen. Anhand eines Datensatzes von 198 Medienunternehmen weisen wir einen positiven Zusammenhang zwischen der Beziehungsintensität und der Umsetzung von Geschäftsmodellinnovationen nach. Dieser Zusammenhang wird durch ein starkes Vertrauen und detaillierte formelle Verträge zwischen den Partnern zusätzlich gefördert. Daraus lässt sich ableiten, wie Medienunternehmen Partnerschaften im Kontext von Business-Model-Innovationen effektiv gestalten können.
Ein Autobewerter für von Studierenden eingereichte Programme führt die im ProFormA-Aufgabenformat sequentiell spezifizierten "Tests" aus, um die Einreichung zu prüfen. Bzgl. der Interpretation und Darstellung der Testausführungsergebnisse gibt es derzeit keinen graderübergreifenden Standard. Wir beschreiben eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten, die nach didaktischen Aspekten gruppiert ist und Referenzen auf die Testausführungen besitzt. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detailaufschlüsselung der Bewertungsaspekte müssen in der Konsequenz Testausführungen in Teilausführungen aufgebrochen werden. Wir illustrieren unseren Vorschlag unter Einsatz der Testwerkzeuge Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Das Thema Linked Open Data hat in den vergangenen Jahren im Bereich der Bibliotheken viel Aufmerksamkeit erfahren. Unterschiedlichste Projekte werden von Bibliotheken betrieben, um Linked Open Data für die Einrichtung und die Kunden nutzbringend einzusetzen. Ausgangspunkt für diese Arbeit ist die These, dass Linked Open Data im Bibliotheksbereich das größte Potenzial freisetzen kann. Es wird überprüft, inwiefern diese Aussage auch auf Öffentliche Bibliotheken zutrifft und aufgezeigt, welche Möglichkeiten sich daraus ergeben könnten.
Die Arbeit führt in die Grundlagen von Linked Open Data (LOD) ein und betrachtet die Entwicklungen im Bibliotheksbereich. Dabei werden besonders Initiativen
zur Behandlung bibliothekarischer Metadaten und der aktuelle Entwicklungsstand von LOD-fähigen Bibliothekssystemen behandelt. Danach wird eine Auswahl
an LOD-Datensets vorgestellt, die bibliothekarische Metadaten liefern oder deren Daten als Anreicherungsinformationen in Kataloganwendungen eingesetzt werden können.
Im Anschluss wird das Projekt OpenCat der Öffentlichen Bibliothek Fresnes (Frankreich) sowie das LOD-Projekt an der Deichmanske Bibliothek Oslo (Norwegen) vorgestellt. Darauf folgt ein Einblick in die Möglichkeiten, welche durch die Verwendung von LOD in Öffentlichen Bibliotheken verwirklicht werden könnten sowie erste Handlungsempfehlungen für Öffentliche Bibliotheken.
Die Bachelorarbeit beschäftigt sich mit der Ontologie des Forschungsinformationssystems VIVO. In der Arbeit wird der Versuch unternommen, die Ontologie an die Besonderheiten des deutschen Wissenschaftsbetriebs anzupassen, mit dem Ziel, die Einführung des Systems für eine deutsche Einrichtung zu erleichtern. Das Mapping und die Erweiterung sind auf die Bereiche „Positionsbezeichnungen“ und „Organisationseinheiten“ beschränkt.
Der theoretische Teil behandelt das Thema der Forschungsinformationen und deren Implementierung in ein Forschungsinformationssystem. Unter anderem werden auch die Tendenzen der Standardisierung in dem Bereich beleuchtet.
Bei der Darstellung von VIVO als eine Semantic-Web-Anwendung steht die Ontologie, als Grundlage für die Funktionalitäten des Systems im Vordergrund.
Die vorliegende Arbeit bietet eine Einführung in die am weitesten verbreiteten Methoden der Usability Evaluation, die heuristische Evaluation und den Usability Test. Beide Methoden werden vorgestellt und anhand von vier Bibliothekskatalogen angewendet. Untersuchungsgegenstand sind die Bibliothekskataloge der Stadtbücherei Bamberg, der Stadtbücherei Würzburg, der Stadtbücherei Augsburg und der Stadtbücherei Osnabrück.
Die Erwartungen der Generation Y zu kennen, ist wichtig für Unternehmen, die Leistungsträger aus dieser Generation langfristig binden wollen. Die affektive Bindung der Generation Y gegenüber einer Organisation, der Zusammenhang zwischen der Erfüllung arbeitsbezogener Erwartungen und affektivem Commitment sowie der Fluktuationsneigung der Generation Y werden empirisch überprüft. Die Generation Y hat hohe Erwartungen an Unternehmenswerte und Unternehmenskultur. Es wurden Zusammenhänge zwischen der Erfüllung von Erwartungen und der affektiven Bindung gegenüber einer Organisation gefunden. Es wird empfohlen Personalmanagementmaßnahmen zu implementieren, die passgenau auf die Erfüllung der Erwartungen der Generation Y ausgerichtet sind.
Wir beschreiben und belegen anhand eines Pilotprojekts in einer zweiten Grundschulklasse, dass Informatik in der Grundschule das Potential hat, fächerübergreifend Kompetenzen in fast allen Fächern des Grundschulkanons zu fördern. Wir erläutern mehrere Unterrichtseinheiten eines ScratchJr-Einsatzes und dokumentieren positive Wirkungen auf vielfältige Kompetenzen, die Kinder im Grundschulalter erwerben sollen. Der Beitrag stellt einen Erfahrungsbericht und qualitative Ergebnisse zur Verfügung. Eingesetzte Arbeitsmaterialien werden online zur Verfügung gestellt. Die bisherigen positiven Erfahrungen haben uns veranlasst, die Arbeit mit ScratchJr in der Pilotklasse auf mehrere Monate auszudehnen.
Das Verhalten von Fußgängern wird seit einigen Jahrzehnten mit dem Ziel erforscht, Empfehlungen zur Reduzierung von Verletzten und Toten im Straßenverkehr auszusprechen. Diese Studie befasst sich mit ausgewählten Ergebnissen nationaler und internationaler Studien zum Fußgängerverhalten und verfolgt das Ziel, die bisherigen Forschungsergebnisse anhand einer verdeckten Beobachtung von Fußgängern im Straßenverkehr zu überprüfen. Hierzu wurde das Verhalten an einer Fußgängerampel in Hannover an zwei Wochentagen mehrere Stunden lang beobachtet. Bei der Auswertung der Ergebnisse konnten signifikante Zusammenhänge zwischen den untersuchten Einflussgrößen und dem Verhalten der beobachteten Personen festgestellt werden. Insbesondere deren Alter, die Anwesenheit weiterer Personen und das Fehlverhalten weiterer Personen erwiesen sich als die wichtige Prädiktoren für die Entscheidung, selbst bei Rot zu gehen.
Es wird der Fall des reinen Internverkehrs zwischen endlich vielen Teilnehmern bei voller Erreichbarkeit der Verbindungswege an einem einfachen Modell behandelt. Die Verkehrsgrößen werden berechnet. Der Verlust wird nach seinen verschiedenen möglichen Entstehungsursachen spezifiziert. Die entsprechenden Verlustwahrscheinlichkeiten werden exakt berechnet. Für die numerische Berechnung werden Rekursionsformeln abgeleitet. Unter den genannten Voraussetzungen sind die angegebenen Beziehungen auch für kleinste Teilnehmeranzahlen gültig. Ein aktueller Anwendungsfall liegt bei der Bemessung der Sprechkreisanzahl in einem Nachrichtensystem mit dezentraler Vermittlungstechnik und Vielfachzugriff zu den vorhandenen Sprechkreisen vor.
Wird ein Problem chronisch, könnte man dies als Mangel an Kreativität interpretieren. Die Antwort auf die Frage „wie könnte eine Problemlösung ohne schädliche Nebenwirkungen aussehen?“ fällt häufig allerdings nicht leicht.
Der vorliegende Arbeitsbericht hat sich zur Aufgabe gemacht, für solche Problemlösungen die Aufmerksamkeit auf eine Tür zu lenken, die heutzutage tendenziell verschlossen ist. Die Empfehlung lautet, das gewohnte Denken zu transzendieren. Viele große Künstler und Wissenschaftler sind diesen Weg gegangen und haben auf diese Weise Kreatives hervorgebracht. So hat sich z.B. Johannes Brahms für seine Kompositionen in einen besonderen Zustand versetzt, der ihm „transzendentale Offenbarungen“ ermöglichte. Er erwähnte auch, dass jeder Mensch über solche Möglichkeiten verfügt, um auf diese Weise unkonventionelle Problemlösungen auf die Erde zu holen.
Bitte recht freundlich!
(2013)
Die vorliegende Arbeit untersucht die Wirkung von Spitzenführungspersonal-Fotos. Sie liefert Antworten auf die Frage, welche Mimik und welche Gestik auf solchen Fotos bei den betrachtenden Personen die positivste Wirkung erzeugt und welche Wirkungsunterschiede existieren, in Abhängigkeit davon, wer das Foto betrachtet und in Abhängigkeit davon, ob auf dem Foto eine weibliche oder männliche Person zu sehen ist.
Beim Betrachten von Portraitfotos entstehen bei Menschen automatisch und unbewusst Vorstellungen über die Eigenschaften der abgebildeten Person, so genannte implizite Persönlichkeitstheorien.
Die Untersuchung wurde als Online-Befragung in Form einer Bildbewertungsstudie durchgeführt. Als Stimulusmaterial wurden jeweils 16 Fotos einer weiblichen und einer männlichen Spitzenführungskraft produziert, welche unterschiedliche Kombinationen aus Gestiken und Mimiken zeigten, die nach den Attributen Glaubwürdigkeit, Sympathie, Attraktivität, Kompetenz und Entschlossenheit bewertet wurden.
Weibliche Spitzenführungskräfte wirken am positivsten, wenn sie eine zugewandte Gestik zeigen. Besonders glaubwürdig wirken sie, wenn sie dazu ein Zahnlächeln zeigen. Kompetenz und Entschlossenheit wird bei weiblichen Spitzenführungskräften am stärksten durch eine Kombination aus einem Schmunzeln und einer zugewandten Gestik vermittelt – Attraktivität und Sympathie durch eine Kombination aus Lachen und einer zugewandten Gestik. Kompetenz und Entschlossenheit werden bei männlichen Spitzenführungskräften ebenfalls durch eine Kombination aus Schmunzeln und einer zugewandten Gestik am stärksten vermittelt. Glaubwürdigkeit wird durch eine Kombination aus Schmunzeln und einer vorgebeugten Gestik am stärksten vermittelt – Attraktivität und Sympathie durch eine Kombination aus Lachen und einer vorgebeugten Gestik.
Diese Literaturrecherche versucht eine Darstellung des Leseprozesses sowie der Leichten Sprache, die Menschen mit Lesestörungen dienen soll.
Es stellt sich heraus, dass künftig ein anderes System erforderlich sein wird, das es gestattet, Leserkategorien und Lernprozesse zu berücksichtigen.
Die Entwicklung einer Alternative auf der Basis einer geregelten Sprache (controlled language) könnte im Unterschied zur Leichten Sprache Dokumenttypen, Leserkategorien, Wort- und Grammatikkenntnisse sowie das beim Leser vorhandene Wissen berücksichtigen.
Die vorliegende Arbeit befasst sich mit der Erschließung historischer Bestände nach RDA. Inhaltlich begrenzt sie sich auf ausgewählte spezifische Merkmale alter Drucke und ihrer Formalerschließung mit RDA. Die Umstellung auf das neue Regelwerk, welches Anwen-dungsrichtlinien für alle Materialien vereinen soll, und einige in den Bibliotheksgremien diskutierte Aspekte wie z. B. „cataloger’s judgement“ haben die zentrale Frage dieser Arbeit veranlasst: Ist RDA für die Erschließung alter Drucke geeignet?
Die Arbeit untersucht spezifische Merkmale alter Drucke. Sie betrachtet die bestehende Erschließungspraxis alter Drucke und geht auf die Grundlagen und wesentliche Inhalte von RDA ein. Zu wissenschaftlichen Methoden der Arbeit gehören der Regelwerkevergleich und das Experteninterview. Die Gegenüberstellung von RDA und den RAK-WB lässt erkennen, dass RDA sich prinzipiell für die Erschließung alter Drucke eignet und Elemente der bibliographischen Beschreibung ähnlich wie die RAK-WB abbildet. Wegen des allgemeinen Charakters sind einige Richtlinien von RDA noch zu konkretisieren. Mehrwert gegenüber den RAK-WB versprechen die normierten Sucheinstiege, die Erfassung von Werken und Beziehungen. Das Interview mit Christoph Boveland, dem Experten auf dem Gebiet Katalogisierung Alter Drucke, bringt neue Erkenntnisse über geplante Empfehlungen zur Erschließung alter Drucke mit RDA, Erweiterung des Standardelemente-Set usw. Basierend auf den Ergebnissen der Gegenüberstellung und der Meinung von Christoph Boveland wird eine Aussage zur Entwicklung der Lehrveranstaltung „Formalerschließung historischer Bestände“ an der Hochschule Hannover getroffen.
Die Arbeit entwickelt einen Ansatz, mit dem Aktienkursreaktionen auf Unternehmensmeldungen untersucht werden können. Die Vorgehensweise entstammt der Forschungsfrage, ob Investoren im Sinne einer Kontrollfunktion des Kapitalmarktes angemessen auf Unternehmensmeldungen reagieren, die auf den Stand einer M&A-Integration hinweisen. Vermutet wird, dass Synergieeffekte vom Management im Vorfeld versprochen werden, um M&A-Transaktionen zu rechtfertigen. Anschließend würdigen bzw. kontrollieren Investoren die Entwicklung der Integration jedoch nicht ausreichend. Dies soll bewiesen werden, indem gezeigt wird, dass Kursreaktionen in Form von bereinigten Tagesrenditen und -volatilitäten, Handelsvolumen und Hoch-Tief-Spannen auf M&A-Meldungen vergleichsweise geringer ausfallen. Um eine Vergleichbarkeit von Unternehmensmeldungen verschiedener Gruppen (M&A, Produkte usw.) herstellen zu können, werden die Handlungsanreize der Meldungen mittels der qualitativen Inhaltsanalyse kategorisiert. Im Rahmen einer exemplarischen Anwendung zeigte sich, dass der Ansatz, dessen Besonderheit in der systematischen Auswahl probater Beobachtungen liegt, nicht für eine praktische Übertragung geeignet ist. Demnach konnte die Vermutung weder verworfen noch bestätigt werden. Theoretisch kann aufgrund der Betrachtung eines einzelnen Ereignistages, an dem neben der zu untersuchenden Meldung keine weiteren Informationen über das Unternehmen veröffentlicht worden sind, ein relativ starker Kausalitätsbezug zwischen Meldung und Reaktion hergestellt werden. Allerdings bestehen immer noch zu viele Störereignisse und Überlagerungseffekte, die eine kritische Validierung der Ergebnisse verhindern.
The IfBB – Institute for Bioplastics and Biocomposites is a research institute within the Hochschule Hannover, University of Applied Sciences and Arts, which was established in 2011 to respond to the growing need for expert knowledge in the area of bioplastics. With its practice-oriented research and its collaboration with industrial partners, the IfBB is able to shore up the market for bioplastics and, in addition, foster unbiased public awareness and understanding of the topic. As an independent research-led expert institution for bioplastics, the IfBB is willing to share its expertise, research findings and data with any interested party via the Internet, online and offline publications or at fairs and conferences. In carrying on these efforts, substantial information regarding market trends, processes and resource needs for bioplastics is being presented here in a concise format, in addition to the more detailed and comprehensive publication and “Engineering Biopolymers”1.
One of our main concerns is to furnish a more rational basis for discussing bioplastics and use fact-based arguments in the public discourse. Furthermore, “Biopolymers – facts and statistics” aims to provide specific, qualified answers easily and quickly for decision-makers in particular from public administration and the industrial sector. Therefore, this publication is made up like a set of rules and standards and largely foregoes textual detail. It offers extensive market-relevant and technical facts presented in graphs and charts, which means that the information is much easier to grasp. The reader can expect comparative market figures for various materials, regions, applications, process routes, agricultural land use or resource consumption, production capacities, geographic distribution, etc.
Das Forschungsinformationssystem VIVO bietet als Linked-Data-basiertes System die Möglichkeit, Daten aus anderen Quellen wiederzuverwenden. In der Praxis kann man dabei auf Konvertierungsprobleme stoßen. Oft liegen Daten nur in tabellarischem Format vor, z.B. als CSV-Datei. Zur Konvertierung dieser Daten existieren verschiedene Werkzeuge, viele dieser Werkzeuge erfordern jedoch entweder spezielle technische Umgebungen (oft Linux-Systeme) oder sie sind in der Bedienung sehr anspruchsvoll. Im Artikel wird ein Workflow für die Konvertierung von Daten aus GeoNames für VIVO mit Google Refine beschrieben.
Grundlage dieses Buches sind Vorträge und Veröffentlichungen, die in einem Zeitraum von etwa 10 Jahren entstanden. In dieser Zeit setzte sich die Digitalfotografie endgültig durch und die filmbasierte Fototechnik wurde zum Nischenprodukt.
Dieses Buch ist keine „Fotoschule“ und die Kenntnis der beschriebenen Zusammenhänge ist für die Bedienung digitaler Kameras nicht erforderlich. Die Zielgruppe sind Fotografen, welche die technischen Grundlagen verstehen möchten. Der Text entstand im Sinne einer populär-wissenschaftlichen Darstellung. Ziel ist die Erkenntnis: „Ach so geht das“.
Inhalt:
• Die Sache mit der Auflösung
• Scanner
• Digitalkameras
• Die Digitalisierung
• Grundbegriffe des Farbmanagements
• Speichern und Archivieren von Bilddaten
• Der Tinten(strahl)druck
• Glossar
Mit der Entscheidung für eine Promotion stellt sich häufig die Frage nach deren Finanzierung. Eine Möglichkeit stellt die Finanzierung durch ein Promotionsstipendium dar. Die vorliegende Arbeit dient der Erstorientierung über Promotionsstipendien. Ziel der Arbeit ist es, Promotionsinteressierten der Abteilung Betriebswirtschaftslehre an der Hochschule Hannover einen Überblick über das aktuelle Stipendienangebot zu geben. Es wurden Stipendien in Deutschland recherchiert, die aktuell zur finanziellen Unterstützung von Promotionsvorhaben an deutschen Hochschuleinrichtungen mit wirtschaftswissenschaftlichem Schwerpunkt vergeben werden.
Ziel des Projektes war es, nominative Grundlagen für die Kriterien eines Performace-Quality-Labels (PQL) für LED-Leuchten zu erarbeiten. Unter dem PQL wird ein Qualitäts- und Energielabel verstanden, das für LED-Produkte auf Grundlage der aktuellen und sich entwickelnden Normensituation erarbeitet werden soll. Durch das Bestimmen der für eine gute Produktqualität erforderlichen Faktoren, soll durch die beteiligten Forschungseinrichtungen ein Katalog von Mindestanforderungen für LED-Leuchten entwickelt werden. Auf der anderen Seite sollen der Leuchtenindustrie konkrete Hinweise für die Entwicklung und Optimierung von LED-Leuchten bezüglich der im Projekt geforderten Werte zur Verfügung gestellt werden.
Ergebnis: Es wurde die Alterung von Hoch- und Mittelleistungs-LEDs bei verschiedenen Strömen und Boardtemperaturen hinsichtlich Lichtstrom, Farbort, Spektren und Änderung des thermischen Widerstands untersucht, um die Lebensdauer der LEDs durch eine Extrapolation herstellerunabhängig ermitteln und den Leuchtenherstellern verfügbar zu machen. Durch umfangreiche Untersuchungen zu ESD und EMV-Eigenschaften sowie Temperatur- und Stromverhalten der LEDs, war eine thermische und elektrische Modellierung möglich. Ziel: ein korrektes Datenblatt für die LEDs seitens der LED-Hersteller zu erarbeiten sowie ein relevantes Binning-Schema mit Beurteilungskriterien für die verschiedenen Binning-Klassen zu erstellen. Zudem lassen sich Hinweise ableiten, wie zukünftige LED-Leuchten mit RGB- und weißen LEDs auf Farbort- und Lichtstromkonstanz bei verschiedenen Temperatur- und Stromänderungen geregelt werden können. Durch die Vergleichsmessungen von mehr als 70 LED-Leuchten konnten die Schwachstellen und Unzulänglichkeiten in der qualitätssicherenden Kette ermittelt und mit den Firmen besprochen werden. Die Auswertung der an der TU Darmstadt gealteten LED-Leuchten konnte der Leuchtenindustrie konkrete Hinweise über Alterungsmechanismen, thermisches Management bei verschiedenen Betriebstemperaturen und die Restwelligkeit der LED-Ströme geben. Zudem wurden Faktoren erarbeitet, wie die LED-Leuchte durch Materialauswahl (Wärmeleitpasten, Dichtungsring), durch konstruktive Kabelführung und Elektronik-Auswahl an Zuverlässigkeit gewinnen kann. Eine Datenbank mit einer Typisierung der LED-Fehler, Entstehungsorte, Ursachen und wirtschaftlicher Folge konnte erstellt und mit der Leuchtenindustrie und professionellen Anwendern ausgetauscht und gepflegt werden.
Die Grundlage für die Akzeptanz der LED-Beleuchtung durch die professionellen und privaten Anwender kann nur geschaffen werden, wenn die Licht- und Farbqualität untersucht und deren Mindestwerte für hochqualitive LED-Produkte definiert werden können. An Hand der Untersuchung der Farbwiedergabeskalierung konnte gezeigt werden, dass LED-Systeme mit guter Farbwiedergabe eine Ra-Wert von 86 und R9 für gesättigte rote Farben von mehr als 45 aufweisen sollten. Um die Detektierbarkeit der stroboskopischen Erscheinungen von PQWM-betriebenen LEDs zu minimieren sollte die Pulsfrequenz nicht weniger als als 350 Hz – 400 Hz betragen.
Alle gewonnenen optischen, lichttechnischen, thermischen und elektrischen Erkenntnisse und Erfahrungen wurden während der Projektarbeit systematisch zusammengestellt und mit Zielwerten bzw. Grenzwerten versehen, so dass sie über die Qualitätsmerkmale (Performance Quality Label) in drei Vorträgen der Leuchtenindustrie präsentiert werden konnten. Die Ziele des Projekts konnten im vollen Umfang erfüllt werden. Die Erkenntnisse vom Projekt konnten durch sechs reguläre Treffen, zwei Sonderworkshops, drei VDE/ZVEI Workshops und zahlreiche Publikationen, Buchbeiträge und Konferenzbeiträge an die Lichtindustrie, Lichtplaner und weitere Interessierte transferiert werden.
Das IGF-Vorhaben 14 LBG der Forschungsvereinigung Elektrotechnik wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Inhalt dieser Seminararbeit ist eine Untersuchung 20 großer Open-Access-Publisher zur Beantwortung der Fragen, welche der Publisher die Artikel in den von ihnen herausgegebenen Journals neben PDF auch strukturiert anbieten und welche zusätzlichen Features gegebenenfalls angeboten werden. Der Untersuchung liegen jeweils mindestens zwei Journals eines Publishers zugrunde. Die Arbeit wurde als Leistungsnachweis für die Lehrveranstaltung „Aktuelle Entwicklungen im Informationsmanagement“ im WS 2014/15 angefertigt.
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation.
Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche.
In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen.
Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Dieser Leitfaden dient als Hilfsmittel für die Vernehmung von erwachsenen Zeugen und Beschuldigten. Die Anwendung dieser Struktur folgt dem typischen Ablauf einer Vernehmung und wird durch ein spezielles Kartenformat unterstützt.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen bewährte praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Die gesamte Methodik der Befragung orientiert sich an neuesten wissenschaftlichen Erkenntnissen. Die Kartenform wurde gewählt, damit beispielsweise Polizeibeamte in der Lage sind, an jedem Ort und zu jeder Zeit eine Vernehmung durchfzuführen. Die vorgegebene Struktur trägt dazu bei, dass rechtliche Rahmenbedingungen eingehalten werden und die Verwertbarkeit der Aussagen vor Gericht erreicht wird. Im letzten Teil werden Fragen zu diesem Verfahren beantwortet sowie Hinweise zu weiterführender Literatur für den interessierten Leser gegeben.
Die automatisierte Bewertung studentischer Übungsabgaben in Programmieren-Lehrveranstaltungen weist Parallelen zum automatisierten Test in der professionellen Softwareentwicklung auf. Allerdings muss ein Autobewerter (Grader), um lernförderlich zu sein, andere Zielsetzungen erfüllen als üblicherweise im professionellen Softwaretest eingesetzte Analyse- und Testwerkzeuge. Dieser Beitrag identifiziert wesentliche Unterschiede und beschreibt, wie sich diese Unterschiede in dem an der Hochschule Hannover entwickelten und seit mehreren Jahren im Einsatz befindlichen Autobewerter "Graja" niederschlagen.
Bei dem Konzept Makerspace handelt es sich um ein niedrigschwelliges Angebot, das für alle Besucher Anreize, Ideen und Unterstützung bieten kann. Durch den Faktor des gemeinsamen Lernens werden soziale Grenzen überbrückt und neue Netzwerke gebildet, implizites Wissen wird ausgetauscht und Lernen neu erfahren. Der Makerspace bietet eine Bühne, um eigene Erfahrungen auszutauschen, Wissen an Interessierte weiterzugeben oder gemeinschaftlich an einem kreativen Projekt zu arbeiten. Als Ort des Lernens und der Information, aber auch als Treffpunkt bieten öffentliche Bibliotheken einen idealen Rahmen für ein entsprechendes Angebot. Das modulare Makerspace-Konzept ermöglicht ihnen, die Angebote ganz nach ihren Bedürfnissen und Ansprüchen auszurichten. Vorhandene Medienbestände können in die Makerspace-Aktivitäten eingebunden werden. Makerspaces sind vielversprechende Zukunftsmodelle kollektiver Erfahrungsräume und bieten Platz für eine inklusive Lernwerkstatt für die Gemeinschaft. Aufgrund der vorliegenden Analyse empfiehlt das Projektteam für die Stadtbibliothek Göttingen mit dem Koffermodul zu starten, um die Teilnehmer und Mitarbeiter nicht zu überfordern. Die räumlichen Gegebenheiten lassen aber in einem späteren Stadium auch die Module Schrank und Raum zu. Diese Erweiterungen sollten von der Nutzung und der Nachfrage abhängig gemacht werden.
Informationsberatung als zeitgemäßes Dienstleistungskonzept für wissenschaftliche Bibliotheken
(2015)
Ausgangspunkt für die vorliegende Arbeit ist die These, dass Informationsberatung in Anlehnung an die in den USA verbreiteten Research Consultations eine ergänzende Methode zur prozessorientierten Förderung von Informationskompetenz an wissenschaftlichen Bibliotheken sein kann. Im Zuge der Diskussion dieser These werden zunächst die der Dienstleistung zugrunde liegenden Konzepte wie etwa das Rollenverständnis des consultant librarian und das des counseling librarian vorgestellt. Daraufhin wird die in der Fachliteratur geführte Diskussion um die Einordnung der Dienstleistung aufgegriffen und Informationsberatung gegenüber den herkömmlichen Dienstleistungen Auskunftsdienst und Informationskompetenzschulung abgegrenzt. Dabei zeigt sich, dass professionelle bibliothekarische Beratung im Zuge der Förderung des informellen Lernens einen neuen, eigenständigen und nutzerorientierten Service darstellt, der den aktuellen Bedarf nach individueller Betreuung durch persönliche Ansprechpartner und Expertenberatung deckt. Durch die inhaltliche und zeitliche Flexibilität der Dienstleistung können Nutzer am point of need abgeholt werden. Umsetzungsmodelle finden sich bspw. an der Wissensbar der SLUB Dresden, dem Helpdesk Lern- und Arbeitstechniken an der KIT-Bibliothek und dem Learning Center der Universitätsbibliothek Mannheim. Seitens der Berater werden u.a. Kompetenzen im Bereich des wissenschaftlichen Arbeitens sowie Kommunikations- und Sozialkompetenzen benötigt. Neben der Qualifizierung des bibliothekseigenen Personals durch Fortbildungen stellen Kooperationen mit kompetenzbildenden Einrichtungen der Universität eine Möglichkeit zur Implementierung der Dienstleistung dar, die von entsprechenden Marketingmaßnahmen begleitet sein muss. Abschließend wird die Rolle von wissenschaftlichen Bibliotheken im Hinblick auf die an deutschen Universitäten zunehmend etablierten Schreibzentren diskutiert.
Der Leitfaden dient als Wegweiser für eine strukturierte Anhörung von Kindern im Alter von drei bis 14 Jahren im forensischen Kontext. Ziel soll es sein, kindgerecht möglichst umfangreiche und zuverlässige Informationen zu erhalten. Er gliedert sich in 1) Beispielformulierungen und prägnante Informationen sowie Erklärungen zur praktischen Befragung von Kindern, die in Form von einzelnen, aufeinanderfolgenden Karten präsentiert werden und 2) einen theoretischen Teil, der entwicklungspsychologische Aspekte, rechtliche Rahmenbedingungen, sowie Lösungsansätze für häufig aufkommende Fragen und Probleme bei der Anhörung von Kindern beinhaltet. Die Karten folgen dem typischen Verlauf einer strukturierten Anhörung: Belehrung, Themenneutrales Training zur Befragung, Tatrelevante Anhörung, Verständnisfragen. Sie können am Bildschirm eingeblendet, oder in ausgedruckter Form verwendet werden. Zu jeder Karte finden sich entsprechende Erklärungen zur Vertiefung. Der gesamte Leitfaden orientiert sich an neuesten wissenschaftlichen Erkenntnissen aus dem Bereich der Vernehmungs‐ und Entwicklungspsychologie sowie an relevanten gesetzlichen Grundlagen. Er eignet sich für Polizeibeamte, Richter, Staatsanwälte, Anwälte, forensische Gutachter und andere Personen, die Befragungen von Kindern im forensischen Kontext durchführen.
In der vorliegenden Arbeit, deren erster und zweiter Teil in den vorangegangenen Heften dieser Zeitschrift veröffentlicht wurden, werden die Kosten der “Weichkäserei” am Beispiel der Herstellung von Camembert- und Brie-Käse modellhaft bestimmt. Damit werden die im Jahr 1970 in gleicher Zeitschrift (Heft 5, Band 22) veröffentlichten Analysen der Produktionskosten in Camembertkäsereien hinsichtlich der Funktionsinhalte ausgedehnt und dem neuesten Stand der Technik sowie heutigen Produktionsstrukturen im Weichkäsesektor angepaßt. Gleichzeitig sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen (2) in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung/Portionierung, Umhorden/Salzen, Reifung, Abpackung und Fertiglager werden aus der Produktgruppe Weichkäse die Sorten Camembert mit 30 und 60 % F.i.Tr. sowie Brie mit 45 % F.i.Tr. in unterschiedlichen Stückgrößen hergestellt und hinsichtlich ihrer Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 700-17.0001 Käse/Jahr bestimmt werden.Nach den vorgegebenen Kapazitäten sind die technischen Voraussetzungen der einzelnen Unterabteilungen modellspezifisch festgelegt worden, wobei die technische Auslegung an eine verringerte Auslastung bei 65 und 33%iger Beschäftigung angepaßt wurde. Die zu tätigenden Investitionen für die Grundversion betragen 25,0 Mio DM im Modell 1 und 54,5 Mio DM im Modell 4. Bezogen auf die jeweilige Outputmenge an Käse ergeben sich hieraus spezifische Investitionen, die sich mit zunehmender Modellgröße von 5.125 auf 3.205 DM/t jährliche Käsemenge erheblich senken. Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten der ausgewählten Weichkäseprodukte, die z.B. für den Camembert mit 60 % F.i.Tr. je nach Modellgrößeund Beschäftigungsgrad zwischen 500,7 Pf/kg und 620,2 Pf/kg Käse liegen. Die Gesamtkosten der Abteilung “Weichkäserei”, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 522,1 Pf/kg Käse, die sich im kleinsten Modell bei nur 15%iger Beschäftigung auf 1.027,6 Pf/kg Käse erhöhen. Bei einem Beschäftigungsgrad von 65 %, dem die Produktionsmenge eines 2-Schichtbetriebes zugeordnet ist, entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 62-72 % auf die Rohstoffkosten, 14-20 % auf die Anlagekosten und 4-7 % auf die Personalkosten, während die übrigen Kostenartengruppen nur von geringerer Bedeutung sind. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die Unterabteilungen Bruchbereitung/Portionierung sowie Abpackung die höchsten Kosten verursachen. Für einen Beschäftigungsgrad von 65 % betragen die Kosten in den Unterabteilungen Bruchbereitung/Portionierung im Modell 1 85,8 Pf/kg, die mit zunehmender Modellgröße auf 45,9 Pf/kg im Modell 4 zurückgehen. Die Kosten für die Abpackung liegen im Modell 1 bei 76,2 Pf/kg, während sie im Modell 4 nur noch 58,3 Pf/kg betragen. Die geringsten Kosten verursacht die Unterabteilung Fertiglager mit 2,6 Pf/kg im kleinsten und 1,5 Pf/kg im größten Modell bei 65%iger Beschäftigung. Die Ergebnisse der Modellabteilungsrechnung lassen erkennen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind, die bei betriebsindividuellen oder branchenbedingten Entscheidungen genutzt werden sollten. So empfiehlt es sich, daß auf eine dem Markt angepaßte Produktion auch eine auf die geplante Tagesproduktionsmenge angepaßte Ausstattung der Abteilung folgt, da sich, wie in den Modellkostenkurven bei 65 und 33 % Beschäftigung dargestellt, die Kosten sprunghaft senken können. Kostendegressionseffekte werden auch erreicht, wenn durch Spezialisierung der Stückkäse-Produktion die Vielfalt der Formatgrößen eingeschränkt werden kann. Das höchste Kosteneinsparungspotential ist aber durch Strukturveränderungen im Weichkäsesektor zu erwarten, die, wie an zwei Beispielen erläutert, der Branche langfristige Kosteneinsparungen von rd.25 bzw. 95 Mio DM/Jahr ermöglichen können.
Im zweiten Teil dieser Arbeit bilden gemäß den allgemeinen technischen Prozeßbedingungen die maschinellen und baulichen Ausrüstungen der vier Modelle, deren Investitionsbeträge, Nutzungsdauer und Instandhaltungsquote unterabteilungsweise dargestellt sind, den Ausgangspunkt dieses Themenbereiches. Eine Anpassung der technischen Auslegung an eine verringerte Auslastung erfolgte bei einer 65%igen und 33%igen Beschäftigung. Die zu tätigenden Investitionen für die Grundversion (100 % Beschäftigung) betragen im Modell 1 25,0 Mio. DM und im Modell 4 54,5 Mio. DM. Die Mengenverbräuche der Produktionsfaktoren Rohstoff, Personal, Energie, Betriebs- und Hilfsstoffe sowie Reparaturen sind von den spezifischen Modellausstattungen abgeleitet. Es ergeben sich Faktoreinsatzmengen, die mengenproportional auftreten und den Produkten zugeordnet sind, sowie periodenabhängige fixe Verbrauche, die der Abteilung angelastet werden. Anhand einer ausgewählten Beschäftigungssituation, die einem 2-Schichtbetrieb bei 250 Produktionstagen entspricht, wird aufgezeigt, wie sich die auf Abteilungsebene aggregierten Faktoreinsatzmengen in Abhängigkeit von der Modellgröße gestalten. So ergibt sich z.B. im Bereich des Produktionsfaktors Personal, daß für das Modell 1 eine Beschäftigungszahl an Arbeitskräften von 25 und im Modell 4 von 40 vorgesehen ist.
In dem vorliegenden Teil 1 der Arbeit werden die Grundlagen und die Rohstoffmengenrechnung zur Ermittlung der Modellkosten in der Abteilung Weichkäserei dargestellt. In sechs Unterabteilungen - Vorstapelung, Bruchbereitung und Portionierung, Umhorden/Salzen, Reifung, Abpackung, Fertiglager - werden aus der Produktgruppe Weichkäse die Sorten Camembert 30 und 60 % F.i.Tr. sowie Brie 45 % F.i.Tr. mit unterschiedlichen Stückgewichten hergestellt und diese hinsichtlich ihrer Kostenverursachung untersucht. Zur Kalkulation der Modellkosten werden 4 Modelle gebildet, deren Verarbeitungskapazität an Kesselmilch zwischen 8.000 und 30.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 % und 100 % simuliert wurde, können so Kosten für Käsemengen zwischen rd. 700 und 17.0001 Käse/Jahr bestimmt werden. Da der Rohstoff Milch im kostenrechnerischen Ansatz als der wichtigste Kostenfaktor gilt, wird der verursachungsgerechten Rohstoffverbrauchsbestimmung in diesem Teil ein gesondertes Kapitel gewidmet. Die Arbeit wird mit dem Teil 2 ''Modellspezifischer Faktoreinsatz'' fortgesetzt, dem abschließend der Teil 3 "Ergebnisse und Interpretation der Modellkalkulation" folgt.
Mit der vorliegenden Arbeit wird die im Jahr 1975 durchgeführte Modellkalkulation in der H-Milch-Abteilung aktualisiert, indem die Funktionsinhalte der Abteilung erweitert werden und der neueste Stand der Technik entsprechend bestehender Produktionsstrukturen zur Anwendung kommt. Darüber hinaus werden die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen In den Kalkulationen berücksichtigt. Unterteilt in drei Unterabteilungen - Ultrahocherhitzung, Aseptische Abpackung und Lager - wird der Produktionsprozeß zur Herstellung der ausgewählten Produkte H-Vollmilch und teilentrahmte H-Milch hinsichtlich ihrer Kostenverursachung untersucht. Die Bestimmung der Abteilungs- und Stückkosten für H-Milch erfolgt in vier Modellen, deren Kapazitäten entsprechend der Abfülleistung zwischen 5.700 Packungen/Stunde und 34.200 Packungen/Stunde liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, können so die Kosten für Produktionsmengen zwischen 4,6 und 183,4 Mio. Packungen/Jahr ermittelt werden. Die zu tätigenden Investitionen für die Grundversion betragen im Modeln 5,1 Mio. DM, die sich im Modell 4 auf 18,0 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge, die sich zu 40 % aus H-Vollmilch und zu 60 % aus teilentrahmter H-Milch zusammensetzt, ergeben sich aus den Investitionssummen spezifische Investitionen, die sich mit zunehmender Modellgröße von 168 auf 98 DM/1.000 Packungen erheblich senken. Die modellspezifischen Gesamtkosten der Abteilung „H-Milch“, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 75,7 Pf/Packung, die sich im kleinsten Modell auf 78,4 Pf/Packung erhöhen. Die outputbezogenen Einzelkosten der Produkte differieren infolge des unterschiedlichen Fettgehaltes nur in den Rohstoffkosten; in den übrigen Kostenarten wird von den gleichen Produktionsverbräuchen ausgegangen, da für die Herstellung beider Produkte dieselbe Technologie verwendet wird. Bei einem Beschäftigungsgrad von 63 % entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 58-61 % auf die Rohstoffkosten, 3 - 5 % auf die Anlagekosten und 30 % auf die Verpackungskosten. Die übrigen Kostenarten wie Energiekosten mit 3 - 4 % und Personalkosten mit 0,8 -1,5 % sind von geringerer Bedeutung. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind. So empfehlen sich beispielsweise bei verminderten Produktionsmengen Anpassungen in der Ausstattung der Abteilung, die zu sprunghaften Kostensenkungen führen können. Kostendegressionseffekte ergeben sich auch bei der Verringerung der Produktionstage in Beschäftigungssituationen eines 2- und 1-Schichtbetriebes. Wird z.B. in einer Abteilung mit zwei Abfüllanlagen (Modell 2) die Produktion eines 2-Schichtbetriebes von 250 Produktionstagen auf 200 Produktionstage/Jahr konzentriert, lassen sich die Abteilungskosten um 70.000 DM/Jahr verringern
Mit der Analyse des Kostenverlaufes in der Abteilung "Pasteurisierte Konsummilch" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. Gegenüber dem 1975 durchgeführten Kostenvergleich verschiedener Trinkmilchverfahren (1) basiert diese Abteilungskalkulation auf der modellhaften Kostenermittlung einer Einproduktsimulation anhand eines Abpackverfahrens im Tetra-Rex-System. Unter Berücksichtigung des methodisch weiterentwickelten Kostenrechnungsprinzips (2) wird der Produktionsprozeß zur Herstellung pasteurisierter Vollmilch mit 3,5 % Fett in 1-l-Kartonverpackung hinsichtlich der Kostenverursachung untersucht. Drei Modellvarianten mit Abfülleistungen von 5.400 bis 22.800 Packungen/Stunde, die einer maximalen Produktion von 30,3 bis 128,0 Packungen/Jahr entsprechen, bilden den Ausgangspunkt für die Analyse der Produktionskosten der Abteilung. In Abhängigkeit von der täglichen Abfüllmenge und dem Produktionsprogramm werden spezifische Modellausrüstungen bestimmt, von denen sich unmittelbar die variablen und fixen Einsatzmengen der Produktionsfaktoren ableiten. Der Einfluß unterschiedlicher Kapazitätsgrößen und -auslastungen auf die Herstellungskosten wird mit simulierten Beschäftigungssituationen zwischen 15 und 100 % verdeutlicht, die eine Bestimmung der Kosten für Milchmengen zwischen 4,5 und 128,0 Mio. Packungen im Jahr ermöglichen. Gemäß der Kapazitätsgröße und der technischen Auslegung der Modelle betragen die Investitionen 1,7 Mio. DM im Modell 1 und 4,7 Mio. DM im Modell 3. Bezogen auf die jeweilige Outputmenge der Abteilung ergeben sich spezifische Investitionen, die mit zunehmender Modellgröße von 56 auf 37 DM je 1.000 Packungen sinken. Die Gesamtkosten der Abteilung “Pasteurisierte Konsummilch”, die sich aus den Produkt- und Abteilungseinzelkosten zusammensetzen, betragen im größten Modell bei 100 % Beschäftigung 73,8 Pf/Pckg. Abteilungs-Output und steigen mit abnehmender Modellgröße und sinkendem Beschäftigungsgrad (15 %) auf 83,1 Pf/Pckg.. In der beschäftigungsabhängigen Gesamtkostenentwicklung tritt zwischen dem 3- und 1-Schichtbetrieb eine Kostensenkung im Modell 1 von 3,0 Pf/Pckg. ein, die im Modell 3 2,0 Pf/Pckg. ausmacht. Der kapazltsgrößenbedingte Degressionseffekt Ist vom größten zum kleinsten Modell mit 1,7 Pf/Pckg. im 3-Schichtbetrieb und mit 2,7 Pf/Pckg. im 1-Schichtbetrieb markiert. Aus der prozentualen Zusammensetzung der Gesamtkosten bei einem Beschäftigungsgrad von 64 % dominieren die Rohstoffkosten mit modellspezifischen Anteilen von 72 - 73 %, die Betriebskosten beanspruchen 25 - 26 %, und die Anlagekosten sind anteilig mit 2 - 3 % vertreten. Mit der Darstellung der prozentualen Verteilung der Gesamtkosten ohne Rohstoffkosten treten die Kostenarten der Betriebskosten in den Vordergrund. Bei gleicher Ausgangssituation entfallen 83 - 89 % auf die Verpackungsmaterialkosten, 3 - 6 % auf die Personalkosten sowie 1 - 2 % auf die Energie- und Betriebsstoffkosten; 7 - 9 % ergeben sich hier für die Anlagekosten. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad nennenswerte Kosteneinsparungen zu erreichen sind. Dagegen zeichnen sich Kostendegressionen in Abhängigkeit von der Zahl der Produktionstage aufgrund des geringen Anteils der tagesfixen Kosten an den Gesamtkosten nur im minimalen Umfang ab.
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Mit der Analyse des Kostenverlaufes in der Abteilung "Speisequark" wird die Aktualisierung der Modellabteilungsrechnungen fortgeführt. In drei Unterabteilungen - Reifungslager, Produktion und Abpackung - werden aus der Produktgruppe Speisequark die drei Produkte Speisequark mager, 500-g-Becher (P1), Speisequark mager, 250-g-Becher (P2) und Speisequark 40 % Fett i. Tr., 250-g-Becher (P3) hergestellt und hinsichtlich ihrer Produktionskosten untersucht. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Quarkseparators für Quarkmengen zwischen 1.100 und 4.400 kg Quark/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 28 und 100 % simuliert wird, werden Kosten für Produktionsmengen zwischen 1.600 und 33.100 t Quark/Jahr ermittelt. Die in Ansatz gebrachten Investitionen betragen im Modell 1 4,8 Mio. DM, die sich im Modell 3 auf 7,9 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 768 DM auf 323 DM/t Quark abfallen.
Kostenanalysen für einen 2-Schicht-Betrieb an 250 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten z. B. für P1 zu 67 % (Modell 1) bis 78 % (Modell 3) von den Rohstoffkosten bestimmt werden. 14-6 % entfallen auf die Anlagekosten, 11-12 % auf die Verpackungskosten, und mit 6-2 % sind die Personalkosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie sowie Hilfs- und Betriebsstoffe werden in allen Modellen nur mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden. Die Kostenanalyse macht deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß der Modellgröße auf die Kostendegression höher ist als derjenige des Beschäftigungsgrades.
Struktureffekte bei der Schnittkäseproduktion. Thesen und Argumente zur Molkereistruktur Teil III
(1990)
Im Rahmen dieses Beitrages wird die Wechselwirkung zwischen abteilungsspezifischen Produktionskosten und der Struktur von Produktionsabteilungen für die Herstellung von Schnittkäse untersucht. Die Analyse eventueller Struktureffekte geschieht in zwei Schritten: zuerst wird der Einfluß unterschiedlicher Kapazitätsgrößen und -auslastungen von Käsereiabteilungen auf die Produktionskosten bestimmt. Danach wird der Frage nachgegangen, wie die Produktionsstrukturen für Schnittkäse in der BR Deutschland aussehen und welche Kosteneinsparungspotentiale sich bei moderaten Strukturveränderungen ergeben.
Die Serie von Modellabteilungsrechnungen wird mit der Untersuchung des Kostenverlaufs in der Abteilung Weichkäse fortgefuhrt, um einen weiteren Baustein zur Bestimmung optimaler Produktionsstrukturen zu erhalten. Als Ausgangsposition dieser Themenstellung soll im folgenden die Modellabteilung Weichkäse Gestalt annehmen. Dazu sind drei Arbeitsschritte notwendig: die Festlegung des zu untersuchenden Produktes, die inhaltliche Abgrenzung der zu bildenden Modellabteilung und die Auswahl des Fertigungsverfahrens.
In der vorliegenden Arbeit, deren erster Teil in Heft 2 dieser Zeitschrift veröffentlicht wurde, werden die Kosten der “Schnittkäserei” am Beispiel der Herstellung von Gouda-Käse modellhaft bestimmt, wobei die vor 17 Jahren durchgeführten Modellkalkulationen für Edamerkäse hinsichtlich der Funktionsinhalte der Abteilung ausgedehnt und dem neuesten Stand der Technik sowie heutigen Schnittkäsereiproduktionsstrukturen angepaßt wurden. Zudem sind die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen in den Kalkulationen berücksichtigt worden. In den sechs Unterabteilungen Vorstapelung, Bruchbereitung und Pressen, Salzbad, Käsebehandlung und Reifungslager, Abpackung sowie Versandkühlraum und Expedition wird ein rindengereifter Gouda-Käse (12-kg-Laib) hergestellt und hinsichtlich seiner Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 48.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 21 und 100% simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 5.100 und 30.8001 Käse/Jahr bestimmt werden. Gemäß den vorgegebenen Kapazitäten müssen die technischen Voraussetzungen für die Ausgestaltung der einzelnen Unterabteilungen modellspezifisch festgelegt werden, wobei eine Anpassung der technischen Auslegung an eine verringerte Auslastung bei 33%iger Beschäftigung erfolgt. Die zu tätigenden Investitionen für die Grundversion betragen 10,6 Mio. DM in Modell 1 und 40,3 Mio. DM in Modell 4. Bezogen auf die jeweilige Rohstoffeinsatzmenge ergeben sich hieraus spezifische Investitionen, die mit zunehmender Modellgröße erheblich sinken: Machen sie im Modell 1 noch 215,6 Tsd. DM/1 Mio. kg jährlicher Rohstoffeinsatzmenge aus, so verringern sie sich im Modell 4 auf 135,3 Tsd. DM/1 Mio. kg.
Produktspezifische Investitionen und Faktormengenverbräuche führen zu den Einzelkosten des Produktes Gouda, die je nach Modellgröße und Beschäftigungsgrad zwischen 510,8 und 538,5 Pf/kg Käse liegen. Die Gesamtkosten der “Schnittkäserei”, die sich aus den Einzelkosten des Produktes Gouda und den Einzelkosten der Abteilung zusammensetzen, betragen 530,9 bis 654,3 Pf/kg Käse. Den größten Anteil an den Gesamtkosten haben die Rohstoffkosten (73 bis 90%). Der Anteil der Anlagekosten schwankt je nach Beschäftigung zwischen 4 und 18%, während die Personal- und sonstige Betriebskosten im Vergleich zu den beiden vorgenannten Kostenartengruppen in allen Modellen nur eine geringere Bedeutung haben. Betrachtet man die Gesamtkosten (ohne Rohstoffkosten) hinsichtlich ihrer Entstehung in den Unterabteilungen, so ist festzustellen, daß die höchsten Kosten in der Unterabteilung Bruchbereitung und Pressen anfallen: Bei einer 100%igen Beschäftigung betragen sie z.B. in Modell 3 42% der Gesamtkosten (ohne Rohstoff). Die geringsten Kosten (2%) fallen dagegen in der Unterabteilung Versandkühlraum und Expedition an. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendegression deutlich höher ist als derjenige der Modellgröße.
In dem vorliegenden 1. Teil der Arbeit werden die Grundlagen und der spezifische Faktoreinsatz der Modellabteilung „Schnittkäserei” dargestellt.
In den sechs Unterabteilungen Vorstapelung, Bruchbereitung und Pressen, Salzbad, Käsebehandlung und Reifungslager, Abpackung sowie Versandkühlraum und Expedition wird ein rindengereifter Gouda-Käse (12-kg-Laib) hergestellt und hin sichtlich seiner Kostenverursachung untersucht. Zur Bestimmung der Modellkosten wurden vier Modelle gebildet, deren Kapazitäten in der Kesselmilchverarbeitung zwischen 8.000 und 48.000 l/h liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 21 und 100% simuliert wurde, können so die Kosten für Käsemengen zwischen rd. 5.100 und 30.800 l Käse/Jahr bestimmt werden.
Gemäß den vorgegebenen Kapazitäten müssen die technischen Voraussetzungen für die Ausgestaltung der einzelnen Unterabteilungen modellspezifisch festgelegt werden, wobei eine Anpassung der technischen Auslegung an eine verringerte Auslastung bei 33%iger Beschäftigung erfolgt.
Diese Arbeit wird fortgesetzt mit dem Teil 2 „Ergebnisse und Interpretation der Modellkalkulationen” in Heft 3 (1993) dieser Zeitschrift.
Die Analyse von Struktureffekten in der „Allgemeine Milchbehandlung“ wird anhand zweier Fragen vorgenommen:
1. Welche Effekte hat die Größe der Abteilung auf die Produktionskosten?
2. Welche Kosteneinsparungen hätten - ausgehend von der bundesdeutschen Ist-Struktur milchverarbeitender Betriebsstätten - moderate Strukturveränderungen zur
Folge?
Methodische Weiterentwicklungen der Modellabteilungsrechnung für milchwirtschaftliche Betriebe
(1990)
Vor 15 Jahren wurde der erste Beitrag einer Serie von Modellabteilungsrechnungen mit dem Ziel veröffentlicht, der Praxis und Wissenschaft nachvollziehbare Planungshilfen
für die Gestaltung optimaler Produktionsstrukturen in der Milchwirtschaft an die Hand zu geben. Dieses Ziel gilt auch heute noch, jedoch hat sich im Laufe der Zeit immer
deutlicher herauskristallisiert, daß eine Fortschreibung der Faktorpreise sowie eine gelegentliche Aktualisierung der Faktormengenverbräuche in Anpassung an neue technologische Entwicklungen allein nicht ausreichen, die selbstgesetzen Ansprüche an die Modellabteilungsrechnung zu erfüllen.
Die Milchwirtschaft will höhere Preise für Speisequark erlösen. Begründet wird dies mit der in der Bundesrepublik Deutschland gesetzlich verordneten Trockenmasseanhebung des Speisequarks von 17% auf 18%. Da diese Änderung zum 1. Januar 1987 bereits in Kraft trat und den Molkereiunternehmen lange vorher bekannt war, ist die Frage zu stellen, warum eine Änderung der variablen Kosten, von der alle Hersteller gleichermaßen betroffen sind, so schwer am Markt in entsprechende Preisanhebungen umzusetzen ist.
Die Kostenanalyse zur Bestimmung des Einflusses der Kapazitätsgröße und -auslastung auf den Kostenverlauf von Hilfskostenstellen (Hilfsabteilungen) erfolgt mit Hilfe von Modellkalkulationen. Eine spezielle Form der Teilkostenrechnung ermöglicht die Zurechnung der Kosten nach Kostenkategorien (jahresfix, tagesfix, ggf. chargenfix und mengenproportional) auf die entsprechenden Kostenträger (z. B. Kälte, Dampf) der jeweiligen Hilfskostenstelle. Durch computergestützte Simulationen können die Auswirkungen der verschiedenen Kosteneinflußfaktoren im einzelnen quantifiziert werden.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in umfangreichen Feldanalysen erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in umfangreichen Feldanalysen erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in zahlreichen Molkereibetrieben sowie bei Herstellern von Molkereimaschinen, Verpackungsmaterial und sonstigen Bedarfsartikeln erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
In der vorliegenden Arbeit werden die Kosten für die Produktion von Speisequark mager und Speisequark 40 % F.i.Tr. für zwei Kapazitätsgrößen von 4.800 bzw. 9.500 kg Km/h nach einer speziellen Form der Teilkostenrechnung bestimmt. Bei Variationen der Kapazitätsauslastung (Pro
duktionstage X Produktionsstunden/Tag) und der Produktanteile ergeben sich Kosten zwischen 11,99 und 18,95 Pf pro Becher Speisequark mager bzw. 11,73 und 18,45 Pf je Becher Speisequark 40% F.i.Tr. Das entspricht einer Differenz in den Stückkosten von durchschnittlich 27,5 Pf/kg Speisequark. Es zeigt sich dabei, daß die Kostendegression bedeutend stärker durch den Grad der Kapazitätsauslastung als durch die Kapazitätsgröße beeinflußt wird.
Im Rahmen seiner Forschungsaufgaben hat das Institut für Betriebswirtschaft und Marktforschung den Einfluss der Kapazitätsgröße und -auslastung auf den Kostenverlauf von 8 ausgewählten Molkereiproduktionsabteilungen untersucht und die Ergebnisse 1975/76 in "Milchwissenschaft", "Deutsche Molkereizeitung" und "Nordeuropäische Molkerei-Zeitschrift" veröffentlicht. Inzwischen sind die Modellkalkulationen überarbeitet und die Kosten auf den Preisstand von Januar 1976 umgewertet worden. Diese Kalkulationen bilden die Basis für die Ermittlung des Personalkosteneinflusses auf die Kapazitätsgröße von Molkereiabteilungen.
Für die Produktion von drei Sorten stichfestem Joghurt (Natur, mit unterlegter Frucht und Mix) werden die Kosten nach einer speziellen Form der Teilkostenrechnung in Abhängigkeit von der Kapazitätsauslastung bestimmt. Es werden drei Modelle mit unterschiedlicher Kapazitätsgröße dargestellt: 6500, 13.000 und 26.000 Becher/h. Durch Variationen der Produktmenge, Produktionstage und Produktanteile ergeben sich Kosten zwischen 12,6 und 9,3 Pf/Becher Joghurt Natur bzw. 18,7 und 15,5 Pf/Becher Joghurt mit unterlegter Frucht bzw. 17,0 und 14,0 Pf/Becher Joghurt Mix. Je nach Produktionsbedingungen können Stückkostendifferenzen von über 20 Pfennig je kg Produkt auftreten.
Es werden die Kosten der H-Milchabteilung bei drei verschiedenen Kapazitätsgrößen mit jeweils variierter Kapazitätsauslastung nach einer speziellen Form der Teilkostenrechnung bestimmt. Die Kapazitätsgrößen betragen 3300, 6600 und 9900 1-l-Packungen pro Stunde. Im Jahr werden zwischen 2,9 und 53,6 Mio. Einheiten hergestellt; dabei variieren die Stückkosten zwischen 30,65 und 18,85 Pf/1-l-Packung. Es zeigt sich dabei, daß die Kostendegression entscheidend stärker durch den Grad der Kapazitätsauslastung als durch die Kapazitätsgröße beeinflußt wird.
In der vorliegenden Arbeit werden die Kosten der Sprühtrocknung bei drei verschiedenen Kapazitätsgrößen mit jeweils variierender Kapazitätsauslastung nach einer speziellen Form der Teilkostenrechnung bestimmt. Die Kapazitätsgrößen betragen 10800, 21600 und 32400 kg Magermilch pro Stunde. Die verarbeiteten Milchmengen liegen
zwischen 12,8 Mio. und 256,6 Mio. kg im Jahr; dabei variieen die Stückkosten zwischen 4,80 und 1,78 Pf/kg Mm. Es hat sich dabei gezeigt, daß die Kostendegression bedeutend stärker durch den Grad der Kapazitätsauslastung als durch die Kapazitätsgröße beeinflußt wird.
In der vorliegenden Arbeit werden die Produktionskosten für Sauerrahmbutter nach einer speziellen Form der Teilkostenrechnung in Abhängigkeit der Kapazitätsgröße und -auslastung bestimmt. Die untersuchten 3 Modelle haben eine Kapazität von 1350, 2700 und 4050 kg Butter/h. Durch Variation der Produktionsmengen von rd. 1600 bis 24 000 t/Jahr und der Produktionstage (360/252/180) ergeben sich Kosten der Buttereiabteilung zwischen 19,3 Pf/kg und 34,3 Pf/kg Butter. Bei einer mittleren Auslastung von 50% bewegen sich die Kosten von 20,3 bis 23,6 Pf/kg. Die Kostenanalyse zeigt, daß die Kostendegression bedeutend stärker durch den Kapazitätsauslastungsgrad als durch die Kapazitätsgröße beeinflußt wird.
Die technischen Entwicklungen der heutigen Zeit ermöglichen neue Wege in der Kommunikation, die zunehmend auch auf andere Bereiche, beispielsweise das Lernen, übergreifen. Die vorliegende Arbeit beschäftigt sich mit den Einsatzmöglichkeiten des Mikrolernens in der betrieblichen Weiterbildung. Darüber hinaus wird der Frage nachgegangen, inwieweit die Berücksichtigung der Persönlichkeitsdimension der Extraversion mit ihren beiden Polen Intro- und Extraversion bei der didaktischen Gestaltung von Weiterbildungsmaßnahmen möglich und sinnvoll ist. Dafür wird die aktuelle wissenschaftliche Literatur zu den Themen Mikrolernen, Wissensmanagement und betriebliche Weiterbildung analysiert. Das Thema der Persönlichkeitsdimension Extraversion wird speziell unter dem Aspekt des Lernens betrachtet. Außerdem werden betriebswirtschaftliche und rechtliche Aspekte untersucht, die bei der Einführung neuer Lernformen in der betrieblichen Weiterbildung zu beachten sind. Das Ergebnis ist ein umfassender Leitfaden für die didaktische Gestaltung von Mikrolerneinheiten, die in ein ganzheitliches betriebliches Weiterbildungskonzept eingebettet sind. Eine praktische Checkliste für die Umsetzung im Unternehmen vervollständigt den Leitfaden.
In dieser Arbeit werden die Grundlagen zur Bestimmung des Kostenverlaufs einzelner ausgewählter Molkereibetriebsabteilungen bei unterschiedlichen Kapazitätsgrößen und -auslastungen bestimmt. Den Produkten (Abteilungen) werden die mengenproportionalen Produkteinzelkosten zugerechnet sowie die Gemeinkosten der Abteilung, die sich aus jahresfixen, tagesfixen und chargenfixen Kosten zusammensetzen. Für Energie werden lediglich mengenproportionale Kosten in Ansatz gebracht. Die sonstigen Kosten der Hilfskostenstellen werden grundsätzlich nicht auf die Produkte bzw. Abteilungen umgelegt; sie werden im letzten Teil dieser Veröffentlichungsreihe behandelt. Die objektive Vergleichbarkeit der Kosten kann so gewährleistet werden. Ein wichtiger Bestandteil dieser Arbeit war die Entwicklung eines für alle Abteilungen brauchbaren Simulationsmodells, das für den Einsatz in der EDV konzipiert wurde. Neben der Berechnung der anfallenden Kosten bei unterschiedlichen Anlagengrößen sind bei dem Computermodell beliebige Variationen der folgenden Faktoren möglich. Dadurch können die Auswirkungen eines veränderten Beschäftigungsgrades bzw. einer anderen Kapazitätsauslastung auf die Stückkosten der einzelnen Produkte ermittelt werden. Es ist vorgesehen, die Daten über Jahre hinaus auf dem neuesten Stand zu halten und zu veröffentlichen.
Information Professionals sind in Unternehmen für den professionellen und strategischen Umgang mit Informationen verantwortlich. Da es keine allgemeingültige Definition für diese Berufsgruppe gibt, wird in der Masterarbeit eine Begriffsbestimmung unternommen. Mit Hilfe dreier Methoden, einer Auswertung von relevanter Fachliteratur, die Untersuchung von einschlägigen Stellenausschreibungen und das Führen von Experteninterviews, wird ein Kompetenzprofil für Information Professionals erstellt. 16 Kompetenzen in den Bereichen Fach-, Methoden-, Sozial- und persönliche Kompetenzen geben eine Orientierung über vorhandene Fähigkeiten dieser Berufsgruppe für Personalfachleute, Vorgesetzte und Information Professionals selbst.
Der Arbeitsalltag von Wissenschaftlerinnen und Wissenschaftlern hat sich in den letzten Jahren dramatisch verändert. Forschen, Schreiben und Publizieren sind mittlerweile stark durch netzbasierte Anwendungen geprägt. Das digitale Zeitalter aber hat nicht nur neue technische Werkzeuge hervorgebracht, sondern auch neue Wege eröffnet, um Wissen zu generieren und zu verbreiten. Dies gilt sowohl innerhalb der akademischen Welt als auch über diese hinaus. Das Arbeiten mit dem Netz stellt unsere bisherigen etablierten wissenschaftlichen Praktiken in Frage. Forschung wird zunehmend vernetzt, kollaborativ, multimedial, trans- bzw. interdisziplinär durchgeführt. Das vorliegende Handbuch beschreibt diese sich herausbildenden wissenschaftlichen Praktiken. Ziel der Autoren war es dabei, ein praxisnahes und leicht verständliches Handbuch zu schreiben.
Der Befund zum demografischen Wandel ist eindeutig: Die Bevölkerung in Deutschland altert und schrumpft. Dieser Prozess wird sich zunehmend auf den Arbeitsmarkt auswirken. Altersstrukturen in Unternehmen verschieben sich. Mit den absehbaren Verrentungswellen droht ein Verlust an Erfahrungswissen und Know-how, wenn Unternehmen diesem nicht mit Maßnahmen zum Wissenstransfer entgegentreten. Parallel verändert sich das Verhältnis von Alter, Ruhestand und Arbeit. Menschen im Rentenalter leben heute länger und gesünder, sie sind leistungsfähig und ihre Motivation zur nachberuflichen Aktivität steigt. Insbesondere ehemalige Fach- und Führungskräfte beteiligen sich trotz eines durch den Rentenbezug gesicherten Lebensunterhalts zunehmend als sogenannte Senior-Experten am Arbeitsmarkt oder engagieren sich freiwillig.
Vor dem Hintergrund dieser Entwicklung geht diese Masterarbeit der Frage nach, welche Bedeutung der Wissenstransfer beim Einsatz von Senior-Experten hat und untersucht Faktoren, die ihn beeinflussen. Die Arbeit stützt sich methodisch auf eine umfassende Literaturanalyse, einen typenbildenden Vergleich von Senior-Experten-Organisationen sowie auf eine qualitative Erhebung in Form von Leitfadeninterviews. Der theoretische Teil befasst sich mit drei Themenkomplexen: Alter und Arbeit, Wissensmanagement sowie Expertiseforschung. Im Mittelpunkt der Arbeit stehen relevante individuelle Einflussfaktoren, Begriffe, Institutionen und Methoden. Der empirische Teil steuert Erfahrungswerte aus der organisationalen Praxis bei.
Die Auswertung ergibt, dass Senior-Experten aufgrund ihrer Leistungsfähigkeit und Leistungsbereitschaft prädestiniert dafür sind, ihre Ressourcen zu nutzen, um ihr in vielen Berufsjahren erworbenes Wissen an die nächste Generation weiterzugeben. Der Wissenstransfer stellt das vorrangige Ziel beim Einsatz von Senior-Experten dar und nimmt folglich einen hohen Stellenwert ein. Das Bewusstsein für Faktoren, die den Wissenstransfer beeinflussen, kann hingegen noch geschärft werden. Wissenstransfermethoden mit einer personalisierten Herangehensweise können den Austausch von komplexem, schwer artikulierbarem Erfahrungs- und Expertenwissen fördern.
Die vorliegende Ausführung bezieht sich ausschließlich auf die, im Rahmen des Forschungsprojekts „Großtagespflegestellen in Niedersachsen“ durchgeführte, Hauptuntersuchung zur pädagogischen Qualität in sieben Großtagespflegestellen. Die Ergebnisse der darüber hinaus stattgefundenen schriftlichen Befragungen der kommunalen Träger werden nur im Kontext zu den untersuchten Betreuungssettings berücksichtigt. Neben der Datenerhebung mittels der Tagespflegeskala-R wurde im Anschluss an die Beobachtungen ein leitfadengestütztes Interview mit den anwesenden Kindertagespflegepersonen geführt. Weitere Informationen wurden aus Dokumenten wie Satzungen, Konzeption, Flyer und Internetauftritt gewonnen.
Die Ergebnisse werden in diesem Bericht in Form von sieben Thesen dargestellt. Die Erste These bezieht sich ausschließlich auf die Daten der TAS-R Untersuchung. Die Thesen zwei bis sieben wurden aus dem o.g. gesamten empirischen Material abgeleitet.
Als Instrument zur Erfassung der pädagogischen Qualität in den ausgewählten Großtagespflegestellen (GTPS) wurde die Tagespflegeskala-R (Tietze, Knobeloch, Gerszonowiec, 2011, überarbeitete Version) eingesetzt. Die TAS-R basiert auf der Family Day Care Rating Scale (FDCRS) von Harms, Cryer und Clifford (2003). Sie wurde bereits in vielen wissenschaftlichen Untersuchungen bzw. Studien genutzt und ist als internationales Instrument zur Erfassung von pädagogischer Qualität in Kindertagespflegestellen anerkannt.
In diesem Beitrag werden die Ergebnisse von sieben Datenhebungen zur Relevanz situativer Risikofaktoren für Korruption aus den Jahren 2010 bis 2013 vorgestellt. In fünf quantitativen Datenerhebungen wurden folgende sechs Faktoren untersucht: Dauer der Korruptionsbeziehung, Vorteilshöhe, Art der Vorteilsempfänger, Entdeckungswahrscheinlichkeit, Vorliegen einer persönliche Notlage und situative Unsicherheit. In zwei qualitativen Datenerhebungen wurde mit offenen Fragen nach situativen Einflussfaktoren von Korruption gefragt. Erwartungswidrig erwiesen sich die untersuchten Faktoren als weitgehend irrelevant für die Bewertung von Korruption sowie für das Meldeverhalten bei beobachteter Korruption. Zu vermuteten ist, dass situative Risikofaktoren nicht unmittelbar, sondern indirekt über vom Umfeld geteilte mögliche Rechtfertigungen korrupter Handlungen im Alltag wirken. Die durchgängig nicht signifikanten Ergebnisse lassen daran zweifeln, dass korruptes Handeln maßgeblich durch situative Risikofaktoren beeinflussbar ist.
Das Projekt SEC_PRO verfolgte die Möglichkeit der Erarbeitung einer neuartigen IT-Sicherheitslösung für Automatisierungssysteme. Die Ermittlung des Stands der Technik zeigte, dass die IT-Sicherheit in der Automatisierungstechnik von Lösungen der Standard-IT in Büronetzwerken geprägt ist, ohne auf spezielle Anforderungen der Automatisierungstechnik einzugehen. Eine Anforderungsanalyse erbrachte, dass IT-Sicherheitslösungen benötigt werden, die sich mit dem zunehmenden Vernetzungsgrad von Automatisierungssystemen in Einklang bringen lassen. Dazu ist eine IT-Sicherheitsschicht für das PROFINET-Protokoll konzipiert und implementiert worden, die einen integrierten Schutz der Kommunikation und der Komponenten selbst ermöglicht. Dabei kommen gezielt Security Token Technologien zum Einsatz. Eine Evaluierung der kryptografischen Funktionen zeigte, dass deren Verwendung unter gewissen Voraussetzungen möglich ist. Mit Hilfe eines Demonstrators ist konnte die Echtzeitfähigkeit der IT-Sicherheitsschicht validiert und dessen Schutzwirkung nachgewiesen werden. SEC_PRO kann als Ausgangspunkt für weitere Vorhaben bezüglich integrierter IT-Sicherheitsmaßnahmen gesehen werden, die auf eine Anwendung der Kryptografie in der Automatisierungstechnik abzielen.
Soziale Arbeit als kritische Handlungswissenschaft : Beiträge zur (Re-)Politisierung Sozialer Arbeit
(2013)
Soziale Arbeit ist politisch. Von diesem grundlegenden Sachverhalt ausgehend, entwickelt der Sammelband Perspektiven für eine professionelle und wissenschaftliche Selbstbestimmung. Renommierte Sozialarbeitswissenschaftler/innen stellen Modelle einer Sozialen Arbeit als kritischer Handlungswissenschaft vor. Konstitutiv für diese sind die Leid- und Unrechtserfahrungen, die Menschen in ihrem alltäglichen Leben machen, und das emanzipatorische Interesse an gerechteren und freieren gesellschaftlichen Verhältnissen.
Die Beiträge des Bandes lassen sich als Einführungen in ein kritisches Verständnis von Sozialer Arbeit lesen. Darüber hinaus dokumentieren sie die Vielfalt von Positionen im Diskurs über eine zeitgemäße, demokratische und reflexive Soziale Arbeit. Grundlinien kritischer Sozialer Arbeit werden ebenso deutlich wie Differenzen, Kontroversen und offene Fragen. Der Band spricht Praktiker/innen, Wissenschaftler/innen wie Studierende der Sozialen Arbeit gleichermaßen an
Mit der Hannoverschen Korruptionsskala (HKS 38) kann die Einstellung gegenüber Korruption gemessen werden. Die HKS 38 besteht aus 38 Items, die den Subskalen kognitiv, affektiv und konativ zugeordnet werden können. Die 38 Items der Endversion wurden anhand studentischer Stichproben (n=709) per Itemanalyse nach den Regeln der klassischen Testtheorie aus 130 Items selektiert. Für die Gesamtskala sowie die drei Subskalen stehen einheitliche Normen zur Verfügung. Die Daten für die Normierung wurden in einer repräsentativen Telefonumfrage innerhalb der deutschsprachigen Wohnbevölkerung erhoben (n=1.391). Der Einsatzbereich der Skala ist ab 18 Jahre.
Vertreter der Generation Y, Personen, die in den 1980er Jahren geboren wurden, drängen verstärkt in den Arbeitsmarkt. Ihre Wert- und Erwartungshaltung ist deshalb von großem Interesse für Unternehmen, die mit Themen wie dem Fachkräftemangel und demografischen Wandel konfrontiert sind und die Leistungsträger langfristig binden müssen. Ziel dieser Hausarbeit ist herauszufinden, wie ausgeprägt die emotionale Bindung der Generation Y in Unternehmen allgemein ist und unter welcher Voraussetzung affektives Commitment bei der Generation Y entsteht. Ein weiteres Ziel ist die Erarbeitung von Handlungsempfehlungen bezüglich des Personalmanagements von Generation Y in Unternehmen. Generation Y hat hohe Erwartungen an Arbeitsinhalt, Selbstverwirklichungsmöglichkeiten, Aus- und Weiterbildungsmaßnahmen, Unternehmenswerte und -ethik, Sinnhaftigkeit der Tätigkeit und Teamarbeit. Vertreter dieser Generation wünschen sich Wertschätzung, eine gute Beziehung zum Vorgesetzten, viele Partizipationsmöglichkeiten, regelmäßiges Feedback und Flexibilität. Weiterhin sind Work-Life-Balance, Karriereoptionen, Einkommen, digitale Vernetzung und Arbeitsplatzsicherheit wichtige Themen für diese Generation. Affektives Commitment entsteht durch Erfüllung von Erwartungen. Generation Y ist nur bedingt affektiv gebunden, tendiert zu häufigen Unternehmenswechseln und ist durch eine schwache Loyalität gekennzeichnet. Dies liegt hauptsächlich daran, dass die Erwartungen dieser Generation nicht erfüllt werden. Es wird empfohlen HR-Maßnahmen zu implementieren, die auf Erfüllung der Erwartungen von Generation Y abzielen.
Mit dieser Arbeit soll ein Beitrag zur Weiterentwicklung der Diskussion zum Thema Resilienz geleistet werden. Zielstellung ist es, zu einer Elaboration des Konstrukts und seiner Faktoren und Facetten beizutragen. Resilienz wird dabei als Persönlichkeitsmerkmal verstanden, das den Menschen befähigt, schwierige Lebenssituationen ohne anhaltende Beeinträchtigung zu überstehen (Duden, 2014). Die teststatistische Untersuchung der englischsprachigen RS-25 (Wagnild/Young, 1993) und der deutschsprachigen RS-25 (Schumacher u.a., 2005) zeigt, dass bisher keine überzeugenden Subskalenvorschläge vorliegen. Aus diesem Grund wird eine Vier-Subskalenlösung entwickelt (Resilienzskala RS-32). Die vier Subskalen Ich-Stärke, Lebensfreude, Hartnäckigkeit und Wirklichkeitssinn erfassen das Konstrukt Resilienz umfassend. Die RS-32 deckt die Facetten des Vier-Subskalenvorschlags ab und kann als Basis für empirische Untersuchungen dienen.
Das virtuelle soziale Netzwerk Facebook feiert seinen zehnten Geburtstag. Mit über einer Milliarde aktiver Nutzer ist es seit seiner Entstehung zur weltweit größten Internetplattform zur Kommunikation avanciert. Dennoch gibt es in Deutschland eine große Anzahl an Menschen, die sich zwar täglich im Internet bewegt, aber auf eine Mitgliedschaft bei Facebook verzichtet. In dieser Arbeit werden die Gründe untersucht, warum manche Personen Facebook nicht nutzen. Die Leitfrage der Arbeit lautet: „Warum nutzen ausgewählte deutsche Internetnutzer Facebook nicht?“. Es wird zwischen zwei unterschiedlichen Personenkreisen, den Nicht- und den Ex-Nutzern, unterschieden. Basierend auf Leitfadeninterviews mit 25 Befragten, die mittels einer qualitativen Inhaltsanalyse ausgewertet werden, werden elf verschiedene Gründe für eine Verweigerung von Facebook identifiziert. Für die Nicht-Nutzer stellt die Art der Kommunikation den zentralen Grund dar, Facebook nicht zu verwenden. Die Ex-Nutzer wiederum sehen den fehlenden Nutzen der Anwendung als wichtigstes Argument gegen Facebook.
Ein Forschungsteam unter Leitung von Prof. Dr. Romppel hat zwischen 1.8.2011 und 31.7.2014 die Betreuung von Kindern in der Großtagespflege untersucht.
Mit der Neufassung des § 24 Abs. 2 SGB VIII zum 1. August 2013 besteht für alle Kinder ab dem 2. Lebensjahr ein Rechtsanspruch auf individuelle Förderung. Der erwarteten wachsenden Nachfrage nach Plätzen für Kinder unter 3 Jahren soll neben dem Krippenausbau auch mit einem Ausbau der Kindertagespflege, in Niedersachsen besonders auch der Großtagespflege, begegnet werden. Großtagespflegestellen sind rechtlich ein gleichwertiges Angebot zur Krippe. Die vorliegende Untersuchung in Niedersachsen geht zum einen der Frage nach, ob die Qualität der pädagogischen Arbeit in den Großtagespflegestellen diesem Anspruch genügen kann. Mit der TAS-R, einem Beobachtungs- und Bewertungsverfahren werden ausgewählte Großtagespflegestellen beurteilt und mit strukturierten Interviews zu ihrer Arbeit befragt. Zudem wird die telefonische und schriftliche Befragung aller Jugendämter Niedersachsens zur Organisation der Fachberatung sowie zur Struktur der finanziellen und fachlichen Unterstützung der Großtagespflegestellen vor Ort vorgestellt. Die Ergebnisse und Empfehlungen für die Verantwortlichen verweisen auf Handlungsbedarf.