Refine
Year of publication
Document Type
- Periodical Part (29)
- Article (25)
- Report (7)
- Book (6)
- Part of a Book (5)
- Conference Proceeding (5)
- Preprint (2)
- Working Paper (2)
- Course Material (1)
Language
- German (82) (remove)
Has Fulltext
- yes (82)
Is part of the Bibliography
- no (82)
Keywords
- Milchwirtschaft (16)
- Molkerei (14)
- Bibliothek (10)
- Kostenverlauf (4)
- World Wide Web 2.0 (4)
- E-Learning (3)
- Leitfaden (3)
- Vernehmung (3)
- Wahrheitsfindung (3)
- Auslandspraktikum (2)
Institute
- Sonstige Einrichtungen (82) (remove)
Auch kleine und mittlere Unternehmen müssen aktive Öffentlichkeitsarbeit betreiben. Nur wenige können einen Profi einstellen, der diese Funktion übernimmt. Also muss jemand im Betrieb einspringen, Pläne entwickeln, die Pressemitteilungen schreiben und vergleichbare Aufgaben wahrnehmen. Dazu geben die Autoren praktische Hilfe mit vielen Checklisten. Sie zeigen Wege für den erfolgreichen Auftritt in der Öffentlichkeit und vor der Presse, führen in die aktuellen Themen der Öffentlichkeitsarbeit ein (Konzepte, Pressearbeit, interne Information, Krisen sowie Konflikte) und verzichten dabei auf allen Ballast, der in der Praxis des Klein- und Mittelbetriebs nicht interessiert.
In diesem Working Paper sollen wesentliche Erkenntnisse und Forderungen aus der - bisher vor allem englischsprachigen - Diskussion über die webgerechte Freigabe öffentlicher Daten zusammengefaßt werden. Das Paper versteht sich als Ausgangspunkt für Diskussion und Strategieentwicklung, ohne letztere selbst leisten zu können. Die Entwicklungspotentiale von Open Government Data (OGD) sollen zunächst aus der Sicht verschiedener Beteiligter dargestellt werden. Mit den in den Sebastopol-Prinzipien formulierten grundlegenden Anforderungen an OGD wird der Begriff schließlich definiert. Anhand von Veröffentlichungen des W3C kann schließlich die Bedeutung der Verwendung und (Weiter-)Entwicklung offener Standards für OGD gezeigt werden, daneben aber auch die Hauptprobleme eines entsprechenden Change Managements im öffentlichen Sektor. Abschließend werden einige modellhafte Beispiele für die praktische Umsetzung von OGD angeführt.
Der folgende Beitrag fasst die jüngsten Ergebnisse einer Studierendenbefragung zusammen, die im Rahmen des BMBF-geförderten Forschungsprojekts „ZEITLast: Lehrzeit und Lernzeit: Studierbarkeit der BA-/BSc- und MA-/MSc- Studiengänge als Adaption von Lehrorganisation und Zeitmanagement unter Berücksichtigung von Fächerkultur und Neuen Technologien“ im Wintersemester 2010/2011 in den beiden Studiengängen „Informationsmanagement und Informationstechnologie“ und „Polyvalenter 2-Fächer-Bachelor-Studiengang mit Lehramtsoption“ an der Stiftung Universität Hildesheim durchgeführt wurde. Dieser Befragung ging in beiden Studiengängen eine Zeitbudgeterhebung voraus. Zentrale Ergebnisse werden im Folgenden vorgestellt und im Weiteren exemplarisch in den wissenschaftlichen Diskurs eingebunden. Deutlich wird, dass das Gefühl von Belastung nicht auf die reine Zeitinvestition in das Studium zurückzuführen ist, sondern auch in engem Zusammenhang mit der vorherrschenden Lehrorganisation an der Hochschule und den eigenen studentischen Kompetenzen zu sehen ist.
Umbruch
(2007)
4753 Webseiten wurden mit der Open-Source-Software webXray auf die Einbindung von Elementen untersucht, durch die Dritte über den Abruf einer Webseite durch einen Browser von einem Server informiert werden können. 54,77 % der analysierten Webseiten wiesen solche Third Party Elements (TPE) auf. 18,94 % setzten Cookies ein, 44,81 % banden Javascript von Drittanbietern ein. Google-Services dominieren die TPE-Anbieterliste, sie werden in 30,02 % der untersuchten Webseiten verwendet
Studierende
(1999)
In der Zentralbibliothek der Hochschule Hannover wurde ab Wintersemester 2012 ein Experiment mit Roving Librarians durchgeführt, um die Auskunftsqualität zu verbessern. Die Mitarbeiterinnen und Mitarbeiter der Bibliothek liefen zu diesem Zweck mit einem Netbook ausgerüstet durch den Benutzungsbereich der Bibliothek, um Fragen der Nutzer und Nutzerinnen gleich dort aufzufangen, wo sie entstehen. Der Versuch kann nicht als erfolgreich bezeichnet werden, doch konnten während des Experiments wertvolle Einblicke in Nutzerwünsche gewonnen werden.
research
(2002)
Qualität
(2001)
Im Hinblick auf eine zunehmende Annäherung einzelner Fachlandschaften und der vermehrten Vernetzung von Informationssystemen befasst sich diese Arbeit mit der Fragestellung, ob ein Einsatz des Bibliotheksautomationssystems PICA (Project for Integrated Catalogue Automation) bei der Landesmedienstelle in Niedersachsen eine angemessene Lösung des Problems der unzureichenden Informationsvermittlung über verfügbare audiovisuelle Medien darstellen könnte. Dabei wird zur Verdeutlichung des Informationsbedarfs und des Informationsdefizits dem Abriss zur historischen Entwicklung des Bildstellenwesens und zum geschichtlichen Werdegang der Landesmedienstelle in Niedersachsen bewusst ein breiter Raum gegeben.
Der Nachhaltigkeitsbericht der Hochschule Hannover erscheint jährlich und wird vom Green Office (Strategische Hochschulentwicklung) erstellt. Er bildet aktuelle Nachhaltigkeitsaktivitäten der HsH in den Handlungsfeldern Energie, Gebäude, Beschaffung, Begrünung, Mobilität sowie Lehre und Forschung ab und gibt einen Überblick über alle geplanten Entwicklungen in diesen Bereichen.
An der Bibliothek der Fachhochschule Hannover (FHH) ergab sich durch den Umzug eines Fachbereiches und die Auslagerung der entsprechenden Bestände die Chance, die defizitäre Situation bezüglich studentischer Arbeitsplätze zu verbessern. Das bisherige offene Konzept mit einem Nebeneinander von Medienaufstellung, Einzel- sowie Gruppenarbeitsplätzen hatte zu erheblichen Störungen der durchaus noch vorhandenen still lesenden Bibliotheksnutzern geführt. Die Zahl der Arbeitsplätze zu erhöhen und gleichzeitig die Arbeitsbedingungen hinsichtlich Akustik und Klimatisierung zu verbessern war deshalb vorrangiges Ziel eines studentischen Projektes des Studiengangs Innenarchitektur der FHH. Als Ergebnis entstand ein einheitliches Gesamtkonzept mit einer strikten Trennung der Funktionsbereiche und eine Vielzahl unterschiedlicher Einzelmaßnahmen (Nutzbare Atrien, Bibliothekslounge, Lernkabinen etc.). Nach der Entscheidung der Hochschulleitung, die Umbaumaßnahmen aus Studienbeiträgen zu finanzieren,wurde in Kooperation von Hochschule (Bibliotheksleitung, Liegenschaftsdezernat), Staatlichem Baumanagement, einem beauftragten freien Architekturbüro sowie einem Akustiker mit Planung und schrittweiser Realisierung der Umbaumaßnahmen begonnen. Im Vortrag werden das Konzept, der Planungsprozess sowie inzwischen (Stand: 5/2008) geplante und realisierte Baumaßnahmen anhand zahlreicher Illustrationen erläutert.
Mashups und Bibliotheken
(2010)
Der Begriff Mashup ist unscharf, nicht nur einem Fachgebiet zuzuordnen und selbst in Englisch-Wörterbüchern oft nicht zu finden. Der Ursprung ist aber eindeutig dem Bereich Musik zuzuordnen. Dort werden Musikstücke, die in einer Art Collage miteinander vermischt werden (to mash = mischen) und so einen neuen eigenständigen Song ergeben, als mash-up bezeichnet. Auf dem Gebiet der Webentwicklung ist, vereinfacht ausgedrückt, die Vermischung von Informationen aus unterschiedlichen Quellen auf einer eigenen Oberfläche damit gemeint. Oder, präziser, die Schaffung einer Applikation, die ihren Inhalt aus mehr als einer Quelle bezieht. (Vgl. zur Etymologie und Eingrenzung Stelzenmüller, 2008, 11 ff.) Dies kann natürlich in sehr unterschiedlichen Ausprägungen und mit verschiedenen Technologien stattfinden. Das macht die Eingrenzung des Themas umso schwieriger. Daher erläutern wir in Unterkapitel 3 bis 6 zunächst einige modellhafte Beispiele aus ganz verschiedenen Bereichen. Im Unterkapitel 7 erläutern wir kurz einige technische Grundlagen. Wer will, kann diesen Teil zunächst überspringen und vielleicht später nachlesen. In den Unterkapiteln 8 bis 12 stellen wir uns die Frage, ob und ggf. in welchen Bereichen Mashups für Bibliotheken und ähnliche Einrichtungen sinnvoll sein könnten, welche Schwierigkeiten bei der Umsetzung auftreten können, und welche strategischen Veränderungen Bibliotheken dabei helfen könnten, das Potential von Mashups besser auszuschöpfen. Abschließend wagen wir einen Ausblick auf die zukünftige Bedeutung des ganzen Themas.
Libworld. Biblioblogs global
(2007)
Zuerst wird auf die Wichtigkeit bibliotheks- und informationswissenschaftlicher Fachkommunikation eingegangen. Die Eignung von Blogs zur Kommunikation innerhalb einer wissenschaftlichen Disziplin wird hervorgehoben. Es folgt eine allgemeine Typologie der Blogger. Abschließend wird das Projekt LibWorld des Fachblogs Infobib vorgestellt. Im Rahmen dieses Projektes stellen Gastautoren aus zahlreichen Ländern die Biblioblogosphäre (bibliotheksrelevante Blogs) ihrer Heimat vor.
Dieser Leitfaden dient als Hilfsmittel für die Vernehmung von erwachsenen Zeugen und Beschuldigten. Die Anwendung dieser Struktur folgt dem typischen Ablauf einer Vernehmung und wird durch ein spezielles Kartenformat unterstützt.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen bewährte praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Die gesamte Methodik der Befragung orientiert sich an neuesten wissenschaftlichen Erkenntnissen. Die Kartenform wurde gewählt, damit beispielsweise Polizeibeamte in der Lage sind, an jedem Ort und zu jeder Zeit eine Vernehmung durchfzuführen. Die vorgegebene Struktur trägt dazu bei, dass rechtliche Rahmenbedingungen eingehalten werden und die Verwertbarkeit der Aussagen vor Gericht erreicht wird. Im letzten Teil werden Fragen zu diesem Verfahren beantwortet sowie Hinweise zu weiterführender Literatur für den interessierten Leser gegeben.
Der vorliegende Leitfaden ist eine Hilfestellung zur Vernehmung von erwachsenen Zeugen und Beschuldigten. Er wurde an der Hochschule für Polizei Baden-Württemberg interdisziplinär erstellt und berücksichtigt neueste wissenschaftliche Erkenntnisse sowie rechtliche, kriminalistische und psychologische Aspekte.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Wir hoffen, dass Ihnen damit die praktische Vernehmung erleichtert wird und Sie gute Ergebnisse erzielen werden.
Wir freuen uns über Ihr Feedback!
Der Leitfaden dient als Wegweiser für eine strukturierte Anhörung von Kindern im Alter von drei bis 14 Jahren im forensischen Kontext. Ziel soll es sein, kindgerecht möglichst umfangreiche und zuverlässige Informationen zu erhalten. Er gliedert sich in 1) Beispielformulierungen und prägnante Informationen sowie Erklärungen zur praktischen Befragung von Kindern, die in Form von einzelnen, aufeinanderfolgenden Karten präsentiert werden und 2) einen theoretischen Teil, der entwicklungspsychologische Aspekte, rechtliche Rahmenbedingungen, sowie Lösungsansätze für häufig aufkommende Fragen und Probleme bei der Anhörung von Kindern beinhaltet. Die Karten folgen dem typischen Verlauf einer strukturierten Anhörung: Belehrung, Themenneutrales Training zur Befragung, Tatrelevante Anhörung, Verständnisfragen. Sie können am Bildschirm eingeblendet, oder in ausgedruckter Form verwendet werden. Zu jeder Karte finden sich entsprechende Erklärungen zur Vertiefung. Der gesamte Leitfaden orientiert sich an neuesten wissenschaftlichen Erkenntnissen aus dem Bereich der Vernehmungs‐ und Entwicklungspsychologie sowie an relevanten gesetzlichen Grundlagen. Er eignet sich für Polizeibeamte, Richter, Staatsanwälte, Anwälte, forensische Gutachter und andere Personen, die Befragungen von Kindern im forensischen Kontext durchführen.
Diese Literaturrecherche versucht eine Darstellung des Leseprozesses sowie der Leichten Sprache, die Menschen mit Lesestörungen dienen soll.
Es stellt sich heraus, dass künftig ein anderes System erforderlich sein wird, das es gestattet, Leserkategorien und Lernprozesse zu berücksichtigen.
Die Entwicklung einer Alternative auf der Basis einer geregelten Sprache (controlled language) könnte im Unterschied zur Leichten Sprache Dokumenttypen, Leserkategorien, Wort- und Grammatikkenntnisse sowie das beim Leser vorhandene Wissen berücksichtigen.
Lebenslanges Lernen
(2004)
Die nachfolgend berichteten Ergebnisse basieren auf einem vignettenbasierten 2x2-Szenario-Experiment, in das die Situationsfaktoren Entdeckungswahrscheinlichkeit und Vorteilswert sowie die Personenfaktoren Organisationaler Zynismus, das Fünf-Faktoren-Modell der Persönlichkeit und Intelligenz einbezogen wurden. In diesem Bericht werden vorrangig die Ergebnisse zur Persönlichkeitsdimension Gewissenhaftigkeit vorgestellt, einem der Faktoren des Fünf-Faktoren-Modells der Persönlichkeit. Diese Ergebnisse werden ausführlich berichtet, weil sie von besonderer Bedeutung für das vom TÜV Hannover/Sachsen-Anhalt e.V. finanzierte Forschungsprojekt Korruption – Risikofaktoren der Person und der Situation (Laufzeit 2011 bis 2015) sind. Die nachfolgend berichtete Untersuchung zeigt, dass ein akteurszentrierter Ansatz in der Korruptionsursachenforschung grundsätzlich sinnvoll ist. Es wurden 113 Auszubildende in den Bereichen Banken- und Versicherungen sowie Sozialversicherung befragt. Die Ergebnisse zeigen, dass Korruption als verbreitete Verhaltensweise angesehen wird, die jedoch als verwerflich gilt. Während die einbezogenen Situationsfaktoren keine nennenswerten Effekte auf die Korruptionsbereitschaft hatten, führten einige der Personenfaktoren zu signifikanten Ergebnissen. Gewissenhaftigkeit kommt hierbei als Schutzfaktor vor korrupten Handlungen besondere Bedeutung zu.
Internationalität
(1998)
Interdisziplinarität
(2000)
Ingenieurwissenschaften
(2002)
Fragen gehören zu den wirkungsvollsten Mitteln, um Lernprozesse anzustoßen. Sie regen Studierende an, sich mit Inhalten auseinanderzusetzen, diese zu verstehen und ihr Wissen und Können zu zeigen. Fragen ermöglichen Lernenden genauso wie Lehrenden Feedback zum Lernstand zu erhalten. Eine „gute“ Frage zu erstellen, ist eine Herausforderung für alle Dozierenden, die ihnen in verschiedenen Lehrzusammenhängen begegnet:
• Klausurfragen (summatives Prüfen)
• Test- und Übungsaufgaben zur Selbsteinschätzung Studierender
• Test- und Übungsaufgaben als Lernfortschrittskontrolle
• Semesterbegleitende Übungsaufgaben zum kontinuierlichen Lernen
• Fragen für den Einsatz von Abstimmungssystemen (Audience-Response-Systeme)
Die vorliegende Handreichung bietet eine praktische Anleitung zur Erstellung guter Fragen im Antwort-Wahl-Verfahren (AWV). Unter guten Fragen verstehen wir Fragen hoher Qualität hinsichtlich der Gütekriterien Reliabilität, Validität und Objektivität. Den Schwerpunkt der Arbeit bilden allgemeine Hinweise zur Formulierung guter Fragen, wobei auch die fachdisziplinäre Sicht berücksichtigt wird.
„Grappa“ ist eine Middleware, die auf die Anbindung verschiedener Autobewerter an verschiedene E-Learning-Frontends respektive Lernmanagementsysteme (LMS) spezialisiert ist. Ein Prototyp befindet sich seit mehreren Semestern an der Hochschule Hannover mit dem LMS „moodle“ und dem Backend „aSQLg“ im Einsatz und wird regelmäßig evaluiert. Dieser Beitrag stellt den aktuellen Entwicklungsstand von Grappa nach diversen Neu- und Weiterentwicklungen vor. Nach einem Bericht über zuletzt gesammelte Erfahrungen mit der genannten Kombination von Systemen stellen wir wesentliche Neuerungen der moodle-Plugins, welche der Steuerung von Grappa aus moodle heraus dienen, vor. Anschließend stellen wir eine Erweiterung der bisherigen Architektur in Form eines neuentwickelten Grappa-php-Clients zur effizienteren Anbindung von LMS vor. Weiterhin berichten wir über die Anbindung eines weiteren Autobewerters „Graja“ für Programmieraufgaben in Java. Der Bericht zeigt, dass bereits wichtige Schritte für eine einheitliche Darstellung automatisierter Programmbewertung in LMS mit unterschiedlichen Autobewertern für die Studierenden absolviert sind. Die praktischen Erfahrungen zeigen aber auch, dass sowohl bei jeder der Systemkomponenten individuell, wie auch in deren Zusammenspiel via Grappa noch weitere Entwicklungsarbeiten erforderlich sind, um die Akzeptanz und Nutzung bei Studierenden sowie Lehrenden weiter zu steigern.
Gesundheit
(2009)
Beitrag zum Workshop "Informationskompetenz im Norden" am 01.02.2018 im Bibliotheks- und Informationssytem der Carl von Ossietzky Universität Oldenburg.
Es geht zunächst darum, welche Ansätze und Projekte die Schreibwerkstatt verfolgt, um Informations- & Schreibprozesse an der Hochschule Hannover zu fördern.
Da es gemeinsame Ziele und Zielgruppen von sowie inhaltliche Überschneidungen zwischen Bibliothek und Schreibwerkstatt gibt, werden Kooperationsbeispiele und Vorteile der Zusammenarbeit vorgestellt.
Forschung
(1998)
Exkursion
(2011)
Das Forschungsinformationssystem VIVO bietet als Linked-Data-basiertes System die Möglichkeit, Daten aus anderen Quellen wiederzuverwenden. In der Praxis kann man dabei auf Konvertierungsprobleme stoßen. Oft liegen Daten nur in tabellarischem Format vor, z.B. als CSV-Datei. Zur Konvertierung dieser Daten existieren verschiedene Werkzeuge, viele dieser Werkzeuge erfordern jedoch entweder spezielle technische Umgebungen (oft Linux-Systeme) oder sie sind in der Bedienung sehr anspruchsvoll. Im Artikel wird ein Workflow für die Konvertierung von Daten aus GeoNames für VIVO mit Google Refine beschrieben.
Die nachhaltige Verschiebung der Wachstumsmärkte in Richtung Emerging Markets (und hier insbesondere in die BRIC-Staaten) infolge der Wirtschaftskrise 2008/2009 hat die bereits weit reichend konsolidierte Nutzfahrzeugindustrie der Triadenmärkte in Nordamerika, Europa und Japan vor eine Vielzahl von Herausforderungen gestellt. Strategische Ziele wie die Festigung und Steigerung von Absatzvolumina sowie eine bessere Ausbalancierung von zyklischen Marktentwicklungen, die die Ertragssicherung und eine weitestgehend kontinuierliche Auslastung existenter Kapazitäten sicherstellen soll, sind in Zukunft ohne eine Marktbearbeitung in den ex-Triade Wachstumsmärkten kaum noch erreichbar. Dies verlangt eine Auseinandersetzung der betroffenen Unternehmen mit dem veränderten unternehmerischen Umfeld. Es gilt neue, bisher größtenteils unbekannte Märkte zu erobern und sich dabei neuen – teilweise ebenfalls wenig bekannten - Wettbewerbern und deren teilweise durchaus unkonventionellen Strategien zu stellen. Die Triade-Unternehmen sehen sich dabei Informationsdefiziten und einer zunehmenden Gesamtkomplexität ausgesetzt, die zu für sie zu nachteiligen und ungünstigen nformationsasymmetrien führen können. Die Auswirkungen, dieser Situation unangepasst gegenüberzutreten wären deutlich unsicherheits- und risikobehaftetere Marktbearbeitungsstrategien bzw. im Extremfall die Absenz von Internationalisierungsaktivitäten in den betroffenen Unternehmen. Die Competitive Intelligence als Instrument zur unternehmerischen Umfeldanalyse kann unterstützen diese negativen Informationsasymmetrien zu beseitigen aber auch für das Unternehmen günstige Informationsasymmetrien in Form von Informationsvorsprüngen generieren, aus denen sich Wettbewerbsvorteile ableiten lassen. Dieser Kontext Competitive Intelligence zur Beseitigung von Informationsdefiziten bzw. Schaffung von bewussten, opportunistischen Informationsasymmetrien zur erfolgreichen Expansion durch Internationalisierungsstrategien in den Emerging Markets wird im Rahmen dieses Arbeitspapieres durch die Verbindung von wissenschaftstheoretischen und praktischen Implikationen näher beleuchtet. Die sich aus dem beschriebenen praktischen Anwendungsbeispiel Competitive intelligence für afrikanische Marktbearbeitung ergebenden Erkenntnisse der erfolgreichen Anwendung von Competitive Intelligence als Entscheidungshilfe für Internationalisierungsstrategien sind wie folgt angelegt: - Erweiterung der Status-quo, häufig Stammmarkt-zentristisch angelegten Betrachtungsweisen von Märkten und Wettbewerbern in Hinblick auf das reale Marktgeschehen oder Potentialmärkte - bias-freie Clusterung von Märkten bzw. Wettbewerbern, oder Verzicht auf den Versuch der Simplifizierung durch Clusterbildung - differenzierte Datenerhebungsverfahren wie lokale vs. zentrale / primäre vs. sekundäre Datenerhebung für inhomogene, unterentwickelte oder sich entwickelnde Märkte - Identifizierung und Hinzuziehung von Experten mit dem entscheidenden Wissensvorsprung für den zu bearbeitenden Informationsbedarf - Überprüfung der Informationen durch Datentriangulation
Bibliotheken und andere Informationseinrichtungen arbeiten täglich in vielfältiger Weise mit Daten unterschiedlicher Verwendungszwecke und Bestimmung. Sie agieren als Datenproduzenten, Datenlieferanten, Datennutzer und Aggregatoren. Um den größtmöglichen Nutzen der durch öffentliche Einrichtungen produzierten
Daten zu gewährleisten, ist es geboten, sie offen im Internet zu publizieren.
In diesen Empfehlungen der DINI-AG KIM ist dokumentiert, wie eine offene Publikation stattfinden kann.
Diversity wird vielerorts als Querschnittsaufgabe erfolgreich in die Organisationsentwicklung von Hochschulen integriert. Aus der Perspektive einer mittelgroßen Hochschule sollen die Hürden dabei näher betrachtet werden. Implementierte Maßnahmen einer diversity-reflexiven und habitussensiblen Lehre für die heterogenen Studierenden eines ingenieurswissenschaftlichen Studiengangs werden analysiert und Reaktionen auf den Versuch eines Kulturwandels eingefangen. Dabei wird hinterfragt, wie nachhaltig ein solches Vorgehen sein kann. Mit qualitativem Material wird dabei die Perspektive der bisher in den Hochschulen unterrepräsentierten Studierenden eingeholt.
Die vorliegende Arbeit fasst zwei Untersuchungen zu psychometrischen Eigenschaften der in der aussagepsychologischen Diagnostik verwendeten merkmalsorientierte Inhaltsanalyse zusammen. Die erste Untersuchung war Teil einer größeren Laborstudie zur Validität inhaltsanalytischer Beurteilungen der Wahrhaftigkeit von Zeugenaussagen mit 60 Versuchspersonen, die verschiedenen Bedingungen von Wahr- und Falschaussagen zugeordnet waren, die zweite, eine Felduntersuchung, erfasste 138 Gutachten eines gerichtspsychologischen Institutes. In beiden Studien wurden die Items der merkmalsorientierten Inhaltsanalyse, die so genannten Realkennzeichen, einer Itemanalyse nach dem Modell der klassischen Testtheorie mit Reliabilitätsschätzung für den Score aggregierter Realkennzeichen unterzogen. Die Ergebnisse differierten beträchtlich: Während in der Laborstudie nur ein Teil der für die Realkennzeichen errechneten Trennschärfekoeffizienten das vorgegebene Signifikanzniveau (p < .05) erreichte und die Reliabilitätsschätzung mit rtt = .56 niedrig ausfiel, wurden in der Feldstudie fast durchgehend signifikante Trennschärfen ermittelt, und die Reliabilitätsschätzung entsprach mit rtt = .84 dem bei Persönlichkeitstests üblichen Niveau. Durch Itemselektion konnte in beiden Fällen die Reliabilität nur geringfügig gesteigert werden. Die in der Laborstudie errechnete Interraterreliabilität für den Score aggregierter Realkennzeichen betrug r = .98. In der Feldstudie wurde über eine logistische Regression ein Cut-Off-Wert errechnet, der von psychologischen Gutachtern als wahr eingeschätzten Aussagen von als falsch beurteilten trennte. Dieser Cut-Off-Wert lag zwischen fünf und sechs erfüllten Realkennzeichen. Unter der experimentellen Manipulation des Wahrheitsgehaltes von Aussagen in der Laborstudie konnte die Validität der merkmalsorientierten Inhaltsanalyse nur partiell bestätigt werden. Diese trennte zwar wahre und erfundene Aussagen signifikant voneinander, nicht aber wahre Aussagen von Täuschungen mit realem Erlebnishintergrund.
Mit der Analyse des Kostenverlaufes in der Abteilung „Milchtrocknung“ wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In fünf Unterabteilungen - Vorstapelung, Eindampfung, Trocknung, Absackung und Lager - wird verursachungsgerecht untersucht, welche Kosten bei der Herstellung von Sprühmagermilchpulver, abgefüllt in 25-kg-Säcken, auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Verdampfers für Verarbeitungsmengen zwischen 10.800 und 55.000 kg Magermilch/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 15 und 100 % simuliert wird, lassen sich Kosten für Produktionsmengen zwischen 1.000 und 35.300 t Magermilchpulver/Jahr ermitteln. Die in Ansatz gebrachten Investitionen betragen im Modell 1 8,1 Mio. DM, die sich im Modell 3 auf 20,3 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 1.177 DM auf 576 DM/t Magermilchpulver abfallen. Bei einer Beschäftigung von 100 % mit 340 Produktionstagen im Jahr errechnen sich in den Modellkalkulationen modellspezifische Gesamtkosten in Höhe von 371,28 Pf im Modell 1,358,74 Pf im Modell 2 und 351,06 Pf im Modell 3 je kg Magermilchpulver. Kostenanalysen bei einem Beschäftigungsgrad von 80 % mit 280 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten zu 86 % (Modell 1) bis 92 % (Modell 3) von den Rohstoffkosten bestimmt werden. 3 - 6 % entfallen auf die Anlagekosten, 1 - 3 % auf die Personalkosten, und mit 4 % sind die Kosten für Energie und Betriebsstoffe an den modellspezifischen Gesamtkosten beteiligt. Die Verpackungskosten werden in allen Modellen mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich auffallende Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen, Produktionstagen und -Zeiten belegt werden. Die Kostenanalyse zeigt deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß des Beschäftigungsgrades auf die Kostendesgression merklich höher ist als derjenige der Modellgröße.
Die Kosten der Modellabteilung „Joghurt“ am Beispiel der Herstellung von Rührjoghurt mit Früchten
(2000)
Mit der Analyse des Kostenverlaufs in der Abteilung "Joghurt" wird die Aktualisierung der Modellabteilungsrechnung fortgeführt. In drei Unterabteilungen - Joghurtbereitung, Abfüllung, Lager - wird untersucht, welche Kosten bei der Herstellung von Rührjoghurt mit Früchten, abgefüllt in 150-g-Kunststoffbechern, nach ihrer Verursachung auf Abteilungsebene entstehen. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung der Abfülllinie 27.900 und 167.400 Becher/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 20 und 100% simuliert wird, lassen sich Kosten für 138,2 Mio. bis 829,3 Mio. Becher/Jahr ermitteln, die Produktionsmengen von rd. 20.800 t bis 124.700 t Joghurt entsprechen. Die in Ansatz gebrachten Investitionen betragen im Modell 1 12 Mio. DM und erhöhen sich im Modell 3 auf 43,4 Mio. DM. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 87 DM auf 52 DM/1000 Becher abfallen. Bei einer Beschäftigung von 100% mit 250 Produktionstagen im Jahr errechnen sich modellspezifische Gesamtkosten in Höhe von 27,57 Pf im ModelH, 25,66 Pf im Modell 2 und 24,78 Pf im Modell 3 je Becher Fruchtjoghurt. Kostenanalysen bei einem Beschäftigungsgrad von 60% mit 250 Produktionstagen im Jahr zeigen, dass die modellspezifischen Gesamtkosten zu 45% von den Kosten für Hilfs-und Zusatzstoffe bestimmt werden. 22-24% entfallen auf die Verpackungsmaterialkosten, 20-23% auf die Rohstoffkosten, und mit 5-8% sind die Anlagekosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie und Betriebsstoffe sowie Personal werden je nach Modellgröße mit einem Anteil von 1-3% an den Gesamtkosten ausgewiesen. Der Kostenanalyse ist zu entnehmen, dass mit zunehmender Modellgröße und steigender Produktionsmenge Stückkostendegressionen zu erzielen sind, wobei der Einfluss des Beschäftigungsgrades auf die Kostendegression höher ist als derjenige der Modellgröße. Unter dem Einfluss von Kapazitätsauslastung und Kapazitätsgröße lassen sich nur im Bereich bis zu 100 Mio. Becher/Jahr starke Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden.
Mit der Analyse des Kostenverlaufes in der Abteilung "Speisequark" wird die Aktualisierung der Modellabteilungsrechnungen fortgeführt. In drei Unterabteilungen - Reifungslager, Produktion und Abpackung - werden aus der Produktgruppe Speisequark die drei Produkte Speisequark mager, 500-g-Becher (P1), Speisequark mager, 250-g-Becher (P2) und Speisequark 40 % Fett i. Tr., 250-g-Becher (P3) hergestellt und hinsichtlich ihrer Produktionskosten untersucht. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Quarkseparators für Quarkmengen zwischen 1.100 und 4.400 kg Quark/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 28 und 100 % simuliert wird, werden Kosten für Produktionsmengen zwischen 1.600 und 33.100 t Quark/Jahr ermittelt. Die in Ansatz gebrachten Investitionen betragen im Modell 1 4,8 Mio. DM, die sich im Modell 3 auf 7,9 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 768 DM auf 323 DM/t Quark abfallen.
Kostenanalysen für einen 2-Schicht-Betrieb an 250 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten z. B. für P1 zu 67 % (Modell 1) bis 78 % (Modell 3) von den Rohstoffkosten bestimmt werden. 14-6 % entfallen auf die Anlagekosten, 11-12 % auf die Verpackungskosten, und mit 6-2 % sind die Personalkosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie sowie Hilfs- und Betriebsstoffe werden in allen Modellen nur mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden. Die Kostenanalyse macht deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß der Modellgröße auf die Kostendegression höher ist als derjenige des Beschäftigungsgrades.