Refine
Year of publication
Document Type
- Periodical Part (29)
- Article (28)
- Book (8)
- Report (6)
- Part of a Book (5)
- Conference Proceeding (5)
- Working Paper (3)
- Preprint (2)
- Course Material (1)
Has Fulltext
- yes (87)
Is part of the Bibliography
- no (87)
Keywords
- Milchwirtschaft (16)
- Molkerei (14)
- Bibliothek (12)
- E-Learning (4)
- Kostenverlauf (4)
- Vernehmung (4)
- World Wide Web 2.0 (4)
- Belehrung (3)
- Business Intelligence (3)
- Informationskompetenz (3)
Institute
- Sonstige Einrichtungen (87) (remove)
Auch kleine und mittlere Unternehmen müssen aktive Öffentlichkeitsarbeit betreiben. Nur wenige können einen Profi einstellen, der diese Funktion übernimmt. Also muss jemand im Betrieb einspringen, Pläne entwickeln, die Pressemitteilungen schreiben und vergleichbare Aufgaben wahrnehmen. Dazu geben die Autoren praktische Hilfe mit vielen Checklisten. Sie zeigen Wege für den erfolgreichen Auftritt in der Öffentlichkeit und vor der Presse, führen in die aktuellen Themen der Öffentlichkeitsarbeit ein (Konzepte, Pressearbeit, interne Information, Krisen sowie Konflikte) und verzichten dabei auf allen Ballast, der in der Praxis des Klein- und Mittelbetriebs nicht interessiert.
Diese Literaturrecherche versucht eine Darstellung des Leseprozesses sowie der Leichten Sprache, die Menschen mit Lesestörungen dienen soll.
Es stellt sich heraus, dass künftig ein anderes System erforderlich sein wird, das es gestattet, Leserkategorien und Lernprozesse zu berücksichtigen.
Die Entwicklung einer Alternative auf der Basis einer geregelten Sprache (controlled language) könnte im Unterschied zur Leichten Sprache Dokumenttypen, Leserkategorien, Wort- und Grammatikkenntnisse sowie das beim Leser vorhandene Wissen berücksichtigen.
Es werden die Kosten der H-Milchabteilung bei drei verschiedenen Kapazitätsgrößen mit jeweils variierter Kapazitätsauslastung nach einer speziellen Form der Teilkostenrechnung bestimmt. Die Kapazitätsgrößen betragen 3300, 6600 und 9900 1-l-Packungen pro Stunde. Im Jahr werden zwischen 2,9 und 53,6 Mio. Einheiten hergestellt; dabei variieren die Stückkosten zwischen 30,65 und 18,85 Pf/1-l-Packung. Es zeigt sich dabei, daß die Kostendegression entscheidend stärker durch den Grad der Kapazitätsauslastung als durch die Kapazitätsgröße beeinflußt wird.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in umfangreichen Feldanalysen erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
Der Arbeitsalltag von Wissenschaftlerinnen und Wissenschaftlern hat sich in den letzten Jahren dramatisch verändert. Forschen, Schreiben und Publizieren sind mittlerweile stark durch netzbasierte Anwendungen geprägt. Das digitale Zeitalter aber hat nicht nur neue technische Werkzeuge hervorgebracht, sondern auch neue Wege eröffnet, um Wissen zu generieren und zu verbreiten. Dies gilt sowohl innerhalb der akademischen Welt als auch über diese hinaus. Das Arbeiten mit dem Netz stellt unsere bisherigen etablierten wissenschaftlichen Praktiken in Frage. Forschung wird zunehmend vernetzt, kollaborativ, multimedial, trans- bzw. interdisziplinär durchgeführt. Das vorliegende Handbuch beschreibt diese sich herausbildenden wissenschaftlichen Praktiken. Ziel der Autoren war es dabei, ein praxisnahes und leicht verständliches Handbuch zu schreiben.
Im Rahmen seiner Forschungsaufgaben hat das Institut für Betriebswirtschaft und Marktforschung den Einfluss der Kapazitätsgröße und -auslastung auf den Kostenverlauf von 8 ausgewählten Molkereiproduktionsabteilungen untersucht und die Ergebnisse 1975/76 in "Milchwissenschaft", "Deutsche Molkereizeitung" und "Nordeuropäische Molkerei-Zeitschrift" veröffentlicht. Inzwischen sind die Modellkalkulationen überarbeitet und die Kosten auf den Preisstand von Januar 1976 umgewertet worden. Diese Kalkulationen bilden die Basis für die Ermittlung des Personalkosteneinflusses auf die Kapazitätsgröße von Molkereiabteilungen.
In der vorliegenden Arbeit werden die Produktionskosten für Sauerrahmbutter nach einer speziellen Form der Teilkostenrechnung in Abhängigkeit der Kapazitätsgröße und -auslastung bestimmt. Die untersuchten 3 Modelle haben eine Kapazität von 1350, 2700 und 4050 kg Butter/h. Durch Variation der Produktionsmengen von rd. 1600 bis 24 000 t/Jahr und der Produktionstage (360/252/180) ergeben sich Kosten der Buttereiabteilung zwischen 19,3 Pf/kg und 34,3 Pf/kg Butter. Bei einer mittleren Auslastung von 50% bewegen sich die Kosten von 20,3 bis 23,6 Pf/kg. Die Kostenanalyse zeigt, daß die Kostendegression bedeutend stärker durch den Kapazitätsauslastungsgrad als durch die Kapazitätsgröße beeinflußt wird.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in zahlreichen Molkereibetrieben sowie bei Herstellern von Molkereimaschinen, Verpackungsmaterial und sonstigen Bedarfsartikeln erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
Primary data is an important source ofinformation for Competitive Intelligence. Traditionally, it has been collected from interviews with stakeholders, talks at conferences and other means of direct interpersonal communication. The role of the Internet in the data collection – if it was used at all – was that of a provider of supplementary secondary data. Here, this approach is challenged and, using three examples of Social Media, it is shown that the Internet can and does provide valuable primary information to the Competitive Intelligence professional. Accordingly, a case is made for a shift of focus in the data collection process.
Bibliotheken und andere Informationseinrichtungen arbeiten täglich in vielfältiger Weise mit Daten unterschiedlicher Verwendungszwecke und Bestimmung. Sie agieren als Datenproduzenten, Datenlieferanten, Datennutzer und Aggregatoren. Um den größtmöglichen Nutzen der durch öffentliche Einrichtungen produzierten
Daten zu gewährleisten, ist es geboten, sie offen im Internet zu publizieren.
In diesen Empfehlungen der DINI-AG KIM ist dokumentiert, wie eine offene Publikation stattfinden kann.
Fragen gehören zu den wirkungsvollsten Mitteln, um Lernprozesse anzustoßen. Sie regen Studierende an, sich mit Inhalten auseinanderzusetzen, diese zu verstehen und ihr Wissen und Können zu zeigen. Fragen ermöglichen Lernenden genauso wie Lehrenden Feedback zum Lernstand zu erhalten. Eine „gute“ Frage zu erstellen, ist eine Herausforderung für alle Dozierenden, die ihnen in verschiedenen Lehrzusammenhängen begegnet:
• Klausurfragen (summatives Prüfen)
• Test- und Übungsaufgaben zur Selbsteinschätzung Studierender
• Test- und Übungsaufgaben als Lernfortschrittskontrolle
• Semesterbegleitende Übungsaufgaben zum kontinuierlichen Lernen
• Fragen für den Einsatz von Abstimmungssystemen (Audience-Response-Systeme)
Die vorliegende Handreichung bietet eine praktische Anleitung zur Erstellung guter Fragen im Antwort-Wahl-Verfahren (AWV). Unter guten Fragen verstehen wir Fragen hoher Qualität hinsichtlich der Gütekriterien Reliabilität, Validität und Objektivität. Den Schwerpunkt der Arbeit bilden allgemeine Hinweise zur Formulierung guter Fragen, wobei auch die fachdisziplinäre Sicht berücksichtigt wird.
An der Bibliothek der Fachhochschule Hannover (FHH) ergab sich durch den Umzug eines Fachbereiches und die Auslagerung der entsprechenden Bestände die Chance, die defizitäre Situation bezüglich studentischer Arbeitsplätze zu verbessern. Das bisherige offene Konzept mit einem Nebeneinander von Medienaufstellung, Einzel- sowie Gruppenarbeitsplätzen hatte zu erheblichen Störungen der durchaus noch vorhandenen still lesenden Bibliotheksnutzern geführt. Die Zahl der Arbeitsplätze zu erhöhen und gleichzeitig die Arbeitsbedingungen hinsichtlich Akustik und Klimatisierung zu verbessern war deshalb vorrangiges Ziel eines studentischen Projektes des Studiengangs Innenarchitektur der FHH. Als Ergebnis entstand ein einheitliches Gesamtkonzept mit einer strikten Trennung der Funktionsbereiche und eine Vielzahl unterschiedlicher Einzelmaßnahmen (Nutzbare Atrien, Bibliothekslounge, Lernkabinen etc.). Nach der Entscheidung der Hochschulleitung, die Umbaumaßnahmen aus Studienbeiträgen zu finanzieren,wurde in Kooperation von Hochschule (Bibliotheksleitung, Liegenschaftsdezernat), Staatlichem Baumanagement, einem beauftragten freien Architekturbüro sowie einem Akustiker mit Planung und schrittweiser Realisierung der Umbaumaßnahmen begonnen. Im Vortrag werden das Konzept, der Planungsprozess sowie inzwischen (Stand: 5/2008) geplante und realisierte Baumaßnahmen anhand zahlreicher Illustrationen erläutert.
„Grappa“ ist eine Middleware, die auf die Anbindung verschiedener Autobewerter an verschiedene E-Learning-Frontends respektive Lernmanagementsysteme (LMS) spezialisiert ist. Ein Prototyp befindet sich seit mehreren Semestern an der Hochschule Hannover mit dem LMS „moodle“ und dem Backend „aSQLg“ im Einsatz und wird regelmäßig evaluiert. Dieser Beitrag stellt den aktuellen Entwicklungsstand von Grappa nach diversen Neu- und Weiterentwicklungen vor. Nach einem Bericht über zuletzt gesammelte Erfahrungen mit der genannten Kombination von Systemen stellen wir wesentliche Neuerungen der moodle-Plugins, welche der Steuerung von Grappa aus moodle heraus dienen, vor. Anschließend stellen wir eine Erweiterung der bisherigen Architektur in Form eines neuentwickelten Grappa-php-Clients zur effizienteren Anbindung von LMS vor. Weiterhin berichten wir über die Anbindung eines weiteren Autobewerters „Graja“ für Programmieraufgaben in Java. Der Bericht zeigt, dass bereits wichtige Schritte für eine einheitliche Darstellung automatisierter Programmbewertung in LMS mit unterschiedlichen Autobewertern für die Studierenden absolviert sind. Die praktischen Erfahrungen zeigen aber auch, dass sowohl bei jeder der Systemkomponenten individuell, wie auch in deren Zusammenspiel via Grappa noch weitere Entwicklungsarbeiten erforderlich sind, um die Akzeptanz und Nutzung bei Studierenden sowie Lehrenden weiter zu steigern.
An important part of computed tomography is the calculation of a three-dimensional reconstruction of an object from series of X-ray images. Unfortunately, some applications do not provide sufficient X-ray images. Then, the reconstructed objects no longer truly represent the original. Inside of the volumes, the accuracy seems to vary unpredictably. In this paper, we introduce a novel method to evaluate any reconstruction, voxel by voxel. The evaluation is based on a sophisticated probabilistic handling of the measured X-rays, as well as the inclusion of a priori knowledge about the materials that the object receiving the X-ray examination consists of. For each voxel, the proposed method outputs a numerical value that represents the probability of existence of a predefined material at the position of the voxel while doing X-ray. Such a probabilistic quality measure was lacking so far. In our experiment, false reconstructed areas get detected by their low probability. In exact reconstructed areas, a high probability predominates. Receiver Operating Characteristics not only confirm the reliability of our quality measure but also demonstrate that existing methods are less suitable for evaluating a reconstruction.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Diversity wird vielerorts als Querschnittsaufgabe erfolgreich in die Organisationsentwicklung von Hochschulen integriert. Aus der Perspektive einer mittelgroßen Hochschule sollen die Hürden dabei näher betrachtet werden. Implementierte Maßnahmen einer diversity-reflexiven und habitussensiblen Lehre für die heterogenen Studierenden eines ingenieurswissenschaftlichen Studiengangs werden analysiert und Reaktionen auf den Versuch eines Kulturwandels eingefangen. Dabei wird hinterfragt, wie nachhaltig ein solches Vorgehen sein kann. Mit qualitativem Material wird dabei die Perspektive der bisher in den Hochschulen unterrepräsentierten Studierenden eingeholt.
4753 Webseiten wurden mit der Open-Source-Software webXray auf die Einbindung von Elementen untersucht, durch die Dritte über den Abruf einer Webseite durch einen Browser von einem Server informiert werden können. 54,77 % der analysierten Webseiten wiesen solche Third Party Elements (TPE) auf. 18,94 % setzten Cookies ein, 44,81 % banden Javascript von Drittanbietern ein. Google-Services dominieren die TPE-Anbieterliste, sie werden in 30,02 % der untersuchten Webseiten verwendet
Das Forschungsinformationssystem VIVO bietet als Linked-Data-basiertes System die Möglichkeit, Daten aus anderen Quellen wiederzuverwenden. In der Praxis kann man dabei auf Konvertierungsprobleme stoßen. Oft liegen Daten nur in tabellarischem Format vor, z.B. als CSV-Datei. Zur Konvertierung dieser Daten existieren verschiedene Werkzeuge, viele dieser Werkzeuge erfordern jedoch entweder spezielle technische Umgebungen (oft Linux-Systeme) oder sie sind in der Bedienung sehr anspruchsvoll. Im Artikel wird ein Workflow für die Konvertierung von Daten aus GeoNames für VIVO mit Google Refine beschrieben.
Libworld. Biblioblogs global
(2007)
Zuerst wird auf die Wichtigkeit bibliotheks- und informationswissenschaftlicher Fachkommunikation eingegangen. Die Eignung von Blogs zur Kommunikation innerhalb einer wissenschaftlichen Disziplin wird hervorgehoben. Es folgt eine allgemeine Typologie der Blogger. Abschließend wird das Projekt LibWorld des Fachblogs Infobib vorgestellt. Im Rahmen dieses Projektes stellen Gastautoren aus zahlreichen Ländern die Biblioblogosphäre (bibliotheksrelevante Blogs) ihrer Heimat vor.
A German university has developed a learning information system to improve information literacy among German students. An online tutorial based on this Lerninformationssystem has been developed. The structure of this learning information system is described, an online tutorial based on it is illustrated, and the different learning styles that it supports are indicated.
In diesem Working Paper sollen wesentliche Erkenntnisse und Forderungen aus der - bisher vor allem englischsprachigen - Diskussion über die webgerechte Freigabe öffentlicher Daten zusammengefaßt werden. Das Paper versteht sich als Ausgangspunkt für Diskussion und Strategieentwicklung, ohne letztere selbst leisten zu können. Die Entwicklungspotentiale von Open Government Data (OGD) sollen zunächst aus der Sicht verschiedener Beteiligter dargestellt werden. Mit den in den Sebastopol-Prinzipien formulierten grundlegenden Anforderungen an OGD wird der Begriff schließlich definiert. Anhand von Veröffentlichungen des W3C kann schließlich die Bedeutung der Verwendung und (Weiter-)Entwicklung offener Standards für OGD gezeigt werden, daneben aber auch die Hauptprobleme eines entsprechenden Change Managements im öffentlichen Sektor. Abschließend werden einige modellhafte Beispiele für die praktische Umsetzung von OGD angeführt.
Der Leitfaden dient als Wegweiser für eine strukturierte Anhörung von Kindern im Alter von drei bis 14 Jahren im forensischen Kontext. Ziel soll es sein, kindgerecht möglichst umfangreiche und zuverlässige Informationen zu erhalten. Er gliedert sich in 1) Beispielformulierungen und prägnante Informationen sowie Erklärungen zur praktischen Befragung von Kindern, die in Form von einzelnen, aufeinanderfolgenden Karten präsentiert werden und 2) einen theoretischen Teil, der entwicklungspsychologische Aspekte, rechtliche Rahmenbedingungen, sowie Lösungsansätze für häufig aufkommende Fragen und Probleme bei der Anhörung von Kindern beinhaltet. Die Karten folgen dem typischen Verlauf einer strukturierten Anhörung: Belehrung, Themenneutrales Training zur Befragung, Tatrelevante Anhörung, Verständnisfragen. Sie können am Bildschirm eingeblendet, oder in ausgedruckter Form verwendet werden. Zu jeder Karte finden sich entsprechende Erklärungen zur Vertiefung. Der gesamte Leitfaden orientiert sich an neuesten wissenschaftlichen Erkenntnissen aus dem Bereich der Vernehmungs‐ und Entwicklungspsychologie sowie an relevanten gesetzlichen Grundlagen. Er eignet sich für Polizeibeamte, Richter, Staatsanwälte, Anwälte, forensische Gutachter und andere Personen, die Befragungen von Kindern im forensischen Kontext durchführen.
Dieser Leitfaden dient als Hilfsmittel für die Vernehmung von erwachsenen Zeugen und Beschuldigten. Die Anwendung dieser Struktur folgt dem typischen Ablauf einer Vernehmung und wird durch ein spezielles Kartenformat unterstützt.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen bewährte praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Die gesamte Methodik der Befragung orientiert sich an neuesten wissenschaftlichen Erkenntnissen. Die Kartenform wurde gewählt, damit beispielsweise Polizeibeamte in der Lage sind, an jedem Ort und zu jeder Zeit eine Vernehmung durchfzuführen. Die vorgegebene Struktur trägt dazu bei, dass rechtliche Rahmenbedingungen eingehalten werden und die Verwertbarkeit der Aussagen vor Gericht erreicht wird. Im letzten Teil werden Fragen zu diesem Verfahren beantwortet sowie Hinweise zu weiterführender Literatur für den interessierten Leser gegeben.
Der vorliegende Leitfaden ist eine Hilfestellung zur Vernehmung von erwachsenen Zeugen und Beschuldigten. Er wurde an der Hochschule für Polizei Baden-Württemberg interdisziplinär erstellt und berücksichtigt neueste wissenschaftliche Erkenntnisse sowie rechtliche, kriminalistische und psychologische Aspekte.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Wir hoffen, dass Ihnen damit die praktische Vernehmung erleichtert wird und Sie gute Ergebnisse erzielen werden.
Wir freuen uns über Ihr Feedback!
This formal guide serves as a tool for questioning adult witnesses and accused persons. The utilisation of this framework follows the standard procedure of questioning and is underpinned by a purpose-built set of flash cards. Starting with concrete sample phrasings for informing the person of their rights, tried-and-tested questions and queries follow and lead through the questioning like the central theme. In addition, you will find supplementary explanations for each flash card. This technique enables law-enforcement professionals to obtain comprehensive statements of high quality from individuals willing to testify, which in turn permits a subsequent evaluation of truthfulness of statements to be conducted. The entire technique of questioning is geared towards the most recent scientific consensus. We selected the flash card format in order to allow police officers, for instance, to be able to conduct a questioning at any time and in whichever context. The specified structure contributes to ensuring that the general legislative framework is upheld and that we achieve statements that are considered solid in court. The final section addresses FAQs about this questioning technique, as well as references to further reading for those wishing to delve deeper.
In der Zentralbibliothek der Hochschule Hannover wurde ab Wintersemester 2012 ein Experiment mit Roving Librarians durchgeführt, um die Auskunftsqualität zu verbessern. Die Mitarbeiterinnen und Mitarbeiter der Bibliothek liefen zu diesem Zweck mit einem Netbook ausgerüstet durch den Benutzungsbereich der Bibliothek, um Fragen der Nutzer und Nutzerinnen gleich dort aufzufangen, wo sie entstehen. Der Versuch kann nicht als erfolgreich bezeichnet werden, doch konnten während des Experiments wertvolle Einblicke in Nutzerwünsche gewonnen werden.
Die Kostenanalyse zur Bestimmung des Einflusses der Kapazitätsgröße und -auslastung auf den Kostenverlauf von Hilfskostenstellen (Hilfsabteilungen) erfolgt mit Hilfe von Modellkalkulationen. Eine spezielle Form der Teilkostenrechnung ermöglicht die Zurechnung der Kosten nach Kostenkategorien (jahresfix, tagesfix, ggf. chargenfix und mengenproportional) auf die entsprechenden Kostenträger (z. B. Kälte, Dampf) der jeweiligen Hilfskostenstelle. Durch computergestützte Simulationen können die Auswirkungen der verschiedenen Kosteneinflußfaktoren im einzelnen quantifiziert werden.
Mit der Analyse des Kostenverlaufes in der Abteilung "Speisequark" wird die Aktualisierung der Modellabteilungsrechnungen fortgeführt. In drei Unterabteilungen - Reifungslager, Produktion und Abpackung - werden aus der Produktgruppe Speisequark die drei Produkte Speisequark mager, 500-g-Becher (P1), Speisequark mager, 250-g-Becher (P2) und Speisequark 40 % Fett i. Tr., 250-g-Becher (P3) hergestellt und hinsichtlich ihrer Produktionskosten untersucht. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Quarkseparators für Quarkmengen zwischen 1.100 und 4.400 kg Quark/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 28 und 100 % simuliert wird, werden Kosten für Produktionsmengen zwischen 1.600 und 33.100 t Quark/Jahr ermittelt. Die in Ansatz gebrachten Investitionen betragen im Modell 1 4,8 Mio. DM, die sich im Modell 3 auf 7,9 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 768 DM auf 323 DM/t Quark abfallen.
Kostenanalysen für einen 2-Schicht-Betrieb an 250 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten z. B. für P1 zu 67 % (Modell 1) bis 78 % (Modell 3) von den Rohstoffkosten bestimmt werden. 14-6 % entfallen auf die Anlagekosten, 11-12 % auf die Verpackungskosten, und mit 6-2 % sind die Personalkosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie sowie Hilfs- und Betriebsstoffe werden in allen Modellen nur mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden. Die Kostenanalyse macht deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß der Modellgröße auf die Kostendegression höher ist als derjenige des Beschäftigungsgrades.
Der folgende Beitrag fasst die jüngsten Ergebnisse einer Studierendenbefragung zusammen, die im Rahmen des BMBF-geförderten Forschungsprojekts „ZEITLast: Lehrzeit und Lernzeit: Studierbarkeit der BA-/BSc- und MA-/MSc- Studiengänge als Adaption von Lehrorganisation und Zeitmanagement unter Berücksichtigung von Fächerkultur und Neuen Technologien“ im Wintersemester 2010/2011 in den beiden Studiengängen „Informationsmanagement und Informationstechnologie“ und „Polyvalenter 2-Fächer-Bachelor-Studiengang mit Lehramtsoption“ an der Stiftung Universität Hildesheim durchgeführt wurde. Dieser Befragung ging in beiden Studiengängen eine Zeitbudgeterhebung voraus. Zentrale Ergebnisse werden im Folgenden vorgestellt und im Weiteren exemplarisch in den wissenschaftlichen Diskurs eingebunden. Deutlich wird, dass das Gefühl von Belastung nicht auf die reine Zeitinvestition in das Studium zurückzuführen ist, sondern auch in engem Zusammenhang mit der vorherrschenden Lehrorganisation an der Hochschule und den eigenen studentischen Kompetenzen zu sehen ist.
Im Rahmen dieser Veröffentlichungsreihe wird der Kostenverlauf von ausgewählten Molkereiabteilungen in Abhängigkeit von der Kapazitätsgröße und -auslastung ermittelt. Die Bestimmung der Kosten erfolgt mit Hilfe von Modellkalkulationen, deren Daten in umfangreichen Feldanalysen erhoben wurden. Die Grundlage der Verrechnung dieser Daten bildet eine spezielle Form der Teilkostenrechnung.
Mashups und Bibliotheken
(2010)
Der Begriff Mashup ist unscharf, nicht nur einem Fachgebiet zuzuordnen und selbst in Englisch-Wörterbüchern oft nicht zu finden. Der Ursprung ist aber eindeutig dem Bereich Musik zuzuordnen. Dort werden Musikstücke, die in einer Art Collage miteinander vermischt werden (to mash = mischen) und so einen neuen eigenständigen Song ergeben, als mash-up bezeichnet. Auf dem Gebiet der Webentwicklung ist, vereinfacht ausgedrückt, die Vermischung von Informationen aus unterschiedlichen Quellen auf einer eigenen Oberfläche damit gemeint. Oder, präziser, die Schaffung einer Applikation, die ihren Inhalt aus mehr als einer Quelle bezieht. (Vgl. zur Etymologie und Eingrenzung Stelzenmüller, 2008, 11 ff.) Dies kann natürlich in sehr unterschiedlichen Ausprägungen und mit verschiedenen Technologien stattfinden. Das macht die Eingrenzung des Themas umso schwieriger. Daher erläutern wir in Unterkapitel 3 bis 6 zunächst einige modellhafte Beispiele aus ganz verschiedenen Bereichen. Im Unterkapitel 7 erläutern wir kurz einige technische Grundlagen. Wer will, kann diesen Teil zunächst überspringen und vielleicht später nachlesen. In den Unterkapiteln 8 bis 12 stellen wir uns die Frage, ob und ggf. in welchen Bereichen Mashups für Bibliotheken und ähnliche Einrichtungen sinnvoll sein könnten, welche Schwierigkeiten bei der Umsetzung auftreten können, und welche strategischen Veränderungen Bibliotheken dabei helfen könnten, das Potential von Mashups besser auszuschöpfen. Abschließend wagen wir einen Ausblick auf die zukünftige Bedeutung des ganzen Themas.
Im Hinblick auf eine zunehmende Annäherung einzelner Fachlandschaften und der vermehrten Vernetzung von Informationssystemen befasst sich diese Arbeit mit der Fragestellung, ob ein Einsatz des Bibliotheksautomationssystems PICA (Project for Integrated Catalogue Automation) bei der Landesmedienstelle in Niedersachsen eine angemessene Lösung des Problems der unzureichenden Informationsvermittlung über verfügbare audiovisuelle Medien darstellen könnte. Dabei wird zur Verdeutlichung des Informationsbedarfs und des Informationsdefizits dem Abriss zur historischen Entwicklung des Bildstellenwesens und zum geschichtlichen Werdegang der Landesmedienstelle in Niedersachsen bewusst ein breiter Raum gegeben.
Beitrag zum Workshop "Informationskompetenz im Norden" am 01.02.2018 im Bibliotheks- und Informationssytem der Carl von Ossietzky Universität Oldenburg.
Es geht zunächst darum, welche Ansätze und Projekte die Schreibwerkstatt verfolgt, um Informations- & Schreibprozesse an der Hochschule Hannover zu fördern.
Da es gemeinsame Ziele und Zielgruppen von sowie inhaltliche Überschneidungen zwischen Bibliothek und Schreibwerkstatt gibt, werden Kooperationsbeispiele und Vorteile der Zusammenarbeit vorgestellt.
Mit der Analyse des Kostenverlaufes in der Abteilung "Pasteurisierte Konsummilch" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. Gegenüber dem 1975 durchgeführten Kostenvergleich verschiedener Trinkmilchverfahren (1) basiert diese Abteilungskalkulation auf der modellhaften Kostenermittlung einer Einproduktsimulation anhand eines Abpackverfahrens im Tetra-Rex-System. Unter Berücksichtigung des methodisch weiterentwickelten Kostenrechnungsprinzips (2) wird der Produktionsprozeß zur Herstellung pasteurisierter Vollmilch mit 3,5 % Fett in 1-l-Kartonverpackung hinsichtlich der Kostenverursachung untersucht. Drei Modellvarianten mit Abfülleistungen von 5.400 bis 22.800 Packungen/Stunde, die einer maximalen Produktion von 30,3 bis 128,0 Packungen/Jahr entsprechen, bilden den Ausgangspunkt für die Analyse der Produktionskosten der Abteilung. In Abhängigkeit von der täglichen Abfüllmenge und dem Produktionsprogramm werden spezifische Modellausrüstungen bestimmt, von denen sich unmittelbar die variablen und fixen Einsatzmengen der Produktionsfaktoren ableiten. Der Einfluß unterschiedlicher Kapazitätsgrößen und -auslastungen auf die Herstellungskosten wird mit simulierten Beschäftigungssituationen zwischen 15 und 100 % verdeutlicht, die eine Bestimmung der Kosten für Milchmengen zwischen 4,5 und 128,0 Mio. Packungen im Jahr ermöglichen. Gemäß der Kapazitätsgröße und der technischen Auslegung der Modelle betragen die Investitionen 1,7 Mio. DM im Modell 1 und 4,7 Mio. DM im Modell 3. Bezogen auf die jeweilige Outputmenge der Abteilung ergeben sich spezifische Investitionen, die mit zunehmender Modellgröße von 56 auf 37 DM je 1.000 Packungen sinken. Die Gesamtkosten der Abteilung “Pasteurisierte Konsummilch”, die sich aus den Produkt- und Abteilungseinzelkosten zusammensetzen, betragen im größten Modell bei 100 % Beschäftigung 73,8 Pf/Pckg. Abteilungs-Output und steigen mit abnehmender Modellgröße und sinkendem Beschäftigungsgrad (15 %) auf 83,1 Pf/Pckg.. In der beschäftigungsabhängigen Gesamtkostenentwicklung tritt zwischen dem 3- und 1-Schichtbetrieb eine Kostensenkung im Modell 1 von 3,0 Pf/Pckg. ein, die im Modell 3 2,0 Pf/Pckg. ausmacht. Der kapazltsgrößenbedingte Degressionseffekt Ist vom größten zum kleinsten Modell mit 1,7 Pf/Pckg. im 3-Schichtbetrieb und mit 2,7 Pf/Pckg. im 1-Schichtbetrieb markiert. Aus der prozentualen Zusammensetzung der Gesamtkosten bei einem Beschäftigungsgrad von 64 % dominieren die Rohstoffkosten mit modellspezifischen Anteilen von 72 - 73 %, die Betriebskosten beanspruchen 25 - 26 %, und die Anlagekosten sind anteilig mit 2 - 3 % vertreten. Mit der Darstellung der prozentualen Verteilung der Gesamtkosten ohne Rohstoffkosten treten die Kostenarten der Betriebskosten in den Vordergrund. Bei gleicher Ausgangssituation entfallen 83 - 89 % auf die Verpackungsmaterialkosten, 3 - 6 % auf die Personalkosten sowie 1 - 2 % auf die Energie- und Betriebsstoffkosten; 7 - 9 % ergeben sich hier für die Anlagekosten. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad nennenswerte Kosteneinsparungen zu erreichen sind. Dagegen zeichnen sich Kostendegressionen in Abhängigkeit von der Zahl der Produktionstage aufgrund des geringen Anteils der tagesfixen Kosten an den Gesamtkosten nur im minimalen Umfang ab.
The paper sheds light on the change in the concept of obedience within the Society of Jesus since the 1960s. In the aftermath of the Second Vatican Council, a so-called crisis of authority and obedience took place in the Catholic Church and the religious orders. As a consequence, the notions of responsibility and conscience came to the fore in the Jesuit definition of obedience. The religious concept of obedience, that is the obedience towards God, was reassessed as a service to humanity. The paper analyzes how the change in the concept of obedience gave rise to the promotion of social justice, which the Society of Jesus proclaimed at General Congregation 32 in 1974/75. By including the promotion of social justice into their central mission, Jesuits not only fundamentally transformed their self-conception, but also their ethical values. The paper argues that the pursuit of social justice became a form of religious obedience.
Die nachfolgend berichteten Ergebnisse basieren auf einem vignettenbasierten 2x2-Szenario-Experiment, in das die Situationsfaktoren Entdeckungswahrscheinlichkeit und Vorteilswert sowie die Personenfaktoren Organisationaler Zynismus, das Fünf-Faktoren-Modell der Persönlichkeit und Intelligenz einbezogen wurden. In diesem Bericht werden vorrangig die Ergebnisse zur Persönlichkeitsdimension Gewissenhaftigkeit vorgestellt, einem der Faktoren des Fünf-Faktoren-Modells der Persönlichkeit. Diese Ergebnisse werden ausführlich berichtet, weil sie von besonderer Bedeutung für das vom TÜV Hannover/Sachsen-Anhalt e.V. finanzierte Forschungsprojekt Korruption – Risikofaktoren der Person und der Situation (Laufzeit 2011 bis 2015) sind. Die nachfolgend berichtete Untersuchung zeigt, dass ein akteurszentrierter Ansatz in der Korruptionsursachenforschung grundsätzlich sinnvoll ist. Es wurden 113 Auszubildende in den Bereichen Banken- und Versicherungen sowie Sozialversicherung befragt. Die Ergebnisse zeigen, dass Korruption als verbreitete Verhaltensweise angesehen wird, die jedoch als verwerflich gilt. Während die einbezogenen Situationsfaktoren keine nennenswerten Effekte auf die Korruptionsbereitschaft hatten, führten einige der Personenfaktoren zu signifikanten Ergebnissen. Gewissenhaftigkeit kommt hierbei als Schutzfaktor vor korrupten Handlungen besondere Bedeutung zu.
Der vorliegende Artikel bezieht sich auf die unterschiedlichen Begrifflichkeiten, die im Umfeld der Wettbewerberforschung in der Literatur Verwendung finden. Neben den Begriffen des angloamerikanischen Sprachraums (Competitive Intelligence, Competitor Intelligence und Competitor Analyse) existieren für den deutschsprachigen Raum (Wettbewerber-, Konkurrenten-, Wettbewerbs- und Konkurrenzanalyse) ebenfalls verschiedenartige Begriffe, denen in der Literatur eine häufig unterschiedliche Verwendung zu Teil wird. Dieser Artikel baut einen Ordnungsansatz auf, der die angesprochenen Begrifflichkeiten in eine Struktur bringt, um somit eine klare inhaltliche Trennung der einzelnen Begriffe sowie eine in Relation bringende Darstellung aufbauen zu können. Dies ermöglicht eine ambiguitätsfreie Verwendung innerhalb der wissenschaftlichen Arbeit durch definitorisch fixierte Begriffsinhalte.
13 Dinge
(2008)
Die vorliegende Arbeit fasst zwei Untersuchungen zu psychometrischen Eigenschaften der in der aussagepsychologischen Diagnostik verwendeten merkmalsorientierte Inhaltsanalyse zusammen. Die erste Untersuchung war Teil einer größeren Laborstudie zur Validität inhaltsanalytischer Beurteilungen der Wahrhaftigkeit von Zeugenaussagen mit 60 Versuchspersonen, die verschiedenen Bedingungen von Wahr- und Falschaussagen zugeordnet waren, die zweite, eine Felduntersuchung, erfasste 138 Gutachten eines gerichtspsychologischen Institutes. In beiden Studien wurden die Items der merkmalsorientierten Inhaltsanalyse, die so genannten Realkennzeichen, einer Itemanalyse nach dem Modell der klassischen Testtheorie mit Reliabilitätsschätzung für den Score aggregierter Realkennzeichen unterzogen. Die Ergebnisse differierten beträchtlich: Während in der Laborstudie nur ein Teil der für die Realkennzeichen errechneten Trennschärfekoeffizienten das vorgegebene Signifikanzniveau (p < .05) erreichte und die Reliabilitätsschätzung mit rtt = .56 niedrig ausfiel, wurden in der Feldstudie fast durchgehend signifikante Trennschärfen ermittelt, und die Reliabilitätsschätzung entsprach mit rtt = .84 dem bei Persönlichkeitstests üblichen Niveau. Durch Itemselektion konnte in beiden Fällen die Reliabilität nur geringfügig gesteigert werden. Die in der Laborstudie errechnete Interraterreliabilität für den Score aggregierter Realkennzeichen betrug r = .98. In der Feldstudie wurde über eine logistische Regression ein Cut-Off-Wert errechnet, der von psychologischen Gutachtern als wahr eingeschätzten Aussagen von als falsch beurteilten trennte. Dieser Cut-Off-Wert lag zwischen fünf und sechs erfüllten Realkennzeichen. Unter der experimentellen Manipulation des Wahrheitsgehaltes von Aussagen in der Laborstudie konnte die Validität der merkmalsorientierten Inhaltsanalyse nur partiell bestätigt werden. Diese trennte zwar wahre und erfundene Aussagen signifikant voneinander, nicht aber wahre Aussagen von Täuschungen mit realem Erlebnishintergrund.
Mit der vorliegenden Arbeit wird die im Jahr 1975 durchgeführte Modellkalkulation in der H-Milch-Abteilung aktualisiert, indem die Funktionsinhalte der Abteilung erweitert werden und der neueste Stand der Technik entsprechend bestehender Produktionsstrukturen zur Anwendung kommt. Darüber hinaus werden die generell für alle Modellabteilungen geltenden methodischen Weiterentwicklungen In den Kalkulationen berücksichtigt. Unterteilt in drei Unterabteilungen - Ultrahocherhitzung, Aseptische Abpackung und Lager - wird der Produktionsprozeß zur Herstellung der ausgewählten Produkte H-Vollmilch und teilentrahmte H-Milch hinsichtlich ihrer Kostenverursachung untersucht. Die Bestimmung der Abteilungs- und Stückkosten für H-Milch erfolgt in vier Modellen, deren Kapazitäten entsprechend der Abfülleistung zwischen 5.700 Packungen/Stunde und 34.200 Packungen/Stunde liegen. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, können so die Kosten für Produktionsmengen zwischen 4,6 und 183,4 Mio. Packungen/Jahr ermittelt werden. Die zu tätigenden Investitionen für die Grundversion betragen im Modeln 5,1 Mio. DM, die sich im Modell 4 auf 18,0 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge, die sich zu 40 % aus H-Vollmilch und zu 60 % aus teilentrahmter H-Milch zusammensetzt, ergeben sich aus den Investitionssummen spezifische Investitionen, die sich mit zunehmender Modellgröße von 168 auf 98 DM/1.000 Packungen erheblich senken. Die modellspezifischen Gesamtkosten der Abteilung „H-Milch“, die sich aus den Einzelkosten der Produkte und den Einzelkosten der Abteilung zusammensetzen, betragen im größten Modell bei 100%iger Beschäftigung 75,7 Pf/Packung, die sich im kleinsten Modell auf 78,4 Pf/Packung erhöhen. Die outputbezogenen Einzelkosten der Produkte differieren infolge des unterschiedlichen Fettgehaltes nur in den Rohstoffkosten; in den übrigen Kostenarten wird von den gleichen Produktionsverbräuchen ausgegangen, da für die Herstellung beider Produkte dieselbe Technologie verwendet wird. Bei einem Beschäftigungsgrad von 63 % entfallen von den Gesamtkosten der Abteilung je nach Modellgröße 58-61 % auf die Rohstoffkosten, 3 - 5 % auf die Anlagekosten und 30 % auf die Verpackungskosten. Die übrigen Kostenarten wie Energiekosten mit 3 - 4 % und Personalkosten mit 0,8 -1,5 % sind von geringerer Bedeutung. Den Ergebnissen der Modellkalkulationen ist zu entnehmen, daß mit zunehmender Kapazitätsgröße und ansteigendem Beschäftigungsgrad erhebliche Stückkostendegressionen zu erreichen sind. So empfehlen sich beispielsweise bei verminderten Produktionsmengen Anpassungen in der Ausstattung der Abteilung, die zu sprunghaften Kostensenkungen führen können. Kostendegressionseffekte ergeben sich auch bei der Verringerung der Produktionstage in Beschäftigungssituationen eines 2- und 1-Schichtbetriebes. Wird z.B. in einer Abteilung mit zwei Abfüllanlagen (Modell 2) die Produktion eines 2-Schichtbetriebes von 250 Produktionstagen auf 200 Produktionstage/Jahr konzentriert, lassen sich die Abteilungskosten um 70.000 DM/Jahr verringern
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Die nachhaltige Verschiebung der Wachstumsmärkte in Richtung Emerging Markets (und hier insbesondere in die BRIC-Staaten) infolge der Wirtschaftskrise 2008/2009 hat die bereits weit reichend konsolidierte Nutzfahrzeugindustrie der Triadenmärkte in Nordamerika, Europa und Japan vor eine Vielzahl von Herausforderungen gestellt. Strategische Ziele wie die Festigung und Steigerung von Absatzvolumina sowie eine bessere Ausbalancierung von zyklischen Marktentwicklungen, die die Ertragssicherung und eine weitestgehend kontinuierliche Auslastung existenter Kapazitäten sicherstellen soll, sind in Zukunft ohne eine Marktbearbeitung in den ex-Triade Wachstumsmärkten kaum noch erreichbar. Dies verlangt eine Auseinandersetzung der betroffenen Unternehmen mit dem veränderten unternehmerischen Umfeld. Es gilt neue, bisher größtenteils unbekannte Märkte zu erobern und sich dabei neuen – teilweise ebenfalls wenig bekannten - Wettbewerbern und deren teilweise durchaus unkonventionellen Strategien zu stellen. Die Triade-Unternehmen sehen sich dabei Informationsdefiziten und einer zunehmenden Gesamtkomplexität ausgesetzt, die zu für sie zu nachteiligen und ungünstigen nformationsasymmetrien führen können. Die Auswirkungen, dieser Situation unangepasst gegenüberzutreten wären deutlich unsicherheits- und risikobehaftetere Marktbearbeitungsstrategien bzw. im Extremfall die Absenz von Internationalisierungsaktivitäten in den betroffenen Unternehmen. Die Competitive Intelligence als Instrument zur unternehmerischen Umfeldanalyse kann unterstützen diese negativen Informationsasymmetrien zu beseitigen aber auch für das Unternehmen günstige Informationsasymmetrien in Form von Informationsvorsprüngen generieren, aus denen sich Wettbewerbsvorteile ableiten lassen. Dieser Kontext Competitive Intelligence zur Beseitigung von Informationsdefiziten bzw. Schaffung von bewussten, opportunistischen Informationsasymmetrien zur erfolgreichen Expansion durch Internationalisierungsstrategien in den Emerging Markets wird im Rahmen dieses Arbeitspapieres durch die Verbindung von wissenschaftstheoretischen und praktischen Implikationen näher beleuchtet. Die sich aus dem beschriebenen praktischen Anwendungsbeispiel Competitive intelligence für afrikanische Marktbearbeitung ergebenden Erkenntnisse der erfolgreichen Anwendung von Competitive Intelligence als Entscheidungshilfe für Internationalisierungsstrategien sind wie folgt angelegt: - Erweiterung der Status-quo, häufig Stammmarkt-zentristisch angelegten Betrachtungsweisen von Märkten und Wettbewerbern in Hinblick auf das reale Marktgeschehen oder Potentialmärkte - bias-freie Clusterung von Märkten bzw. Wettbewerbern, oder Verzicht auf den Versuch der Simplifizierung durch Clusterbildung - differenzierte Datenerhebungsverfahren wie lokale vs. zentrale / primäre vs. sekundäre Datenerhebung für inhomogene, unterentwickelte oder sich entwickelnde Märkte - Identifizierung und Hinzuziehung von Experten mit dem entscheidenden Wissensvorsprung für den zu bearbeitenden Informationsbedarf - Überprüfung der Informationen durch Datentriangulation
On April, 23rd 2007 a series of postings started on Infobib.de, where guest authors from all over the world introduced the library and library related blogs of their own country. This book is a collection of 30 revised LibWorld articles, accompanied by a foreword by Walt Crawford. Included are articles about the blogosphere of: Argentina, Australia, Austria, Belarus, Belgium, Brazil, Canada, Denmark, Finland, France, Greece, Hungary, Iran, Italy, Japan, Latvia, Malawi, Netherlands, New Zealand, Norway, Peru, Puerto Rico, Russia, Singapore, Spain, Sweden, Switzerland, Trinidad & Tobago, USA.
Blickpunkt Existenzgründung
(2003)
Lebenslanges Lernen
(2004)
Blickpunkt Alumni
(2004)
Blickpunkt Bachelor/Master
(2005)
Blickpunkt Informatik
(2006)
Blickpunkt "grenzenlos"
(2006)
Bologna-Prozess
(2010)
Blickpunkt Zukunft
(1997)
Internationalität
(1998)
Forschung
(1998)
Studierende
(1999)
Blickpunkt China
(2001)
Blickpunkt Kompetenzzentren
(2005)
Blickpunkt Gleichstellung
(2007)
Umbruch
(2007)
Blickpunkt Fakultät V
(2008)
Blickpunkt Förderung
(2008)
Gesundheit
(2009)
Blickpunkt Studienbeiträge
(2009)
Blickpunkt Regionalität
(2010)
Exkursion
(2011)
Interdisziplinarität
(2000)
Qualität
(2001)
Ingenieurwissenschaften
(2002)
[Geld]
(2002)
research
(2002)
Blickpunkt Design und Medien
(2003)