Refine
Year of publication
Document Type
- Report (102) (remove)
Has Fulltext
- yes (102)
Is part of the Bibliography
- no (102)
Keywords
- Programmierung (9)
- Computerunterstütztes Lernen (8)
- E-Learning (8)
- Lernaufgabe (8)
- Autobewerter (6)
- Digitalisierung (6)
- E-Assessment (6)
- Grader (6)
- Herbar Digital (6)
- Herbarium (6)
Die vorliegende Arbeit fasst zwei Untersuchungen zu psychometrischen Eigenschaften der in der aussagepsychologischen Diagnostik verwendeten merkmalsorientierte Inhaltsanalyse zusammen. Die erste Untersuchung war Teil einer größeren Laborstudie zur Validität inhaltsanalytischer Beurteilungen der Wahrhaftigkeit von Zeugenaussagen mit 60 Versuchspersonen, die verschiedenen Bedingungen von Wahr- und Falschaussagen zugeordnet waren, die zweite, eine Felduntersuchung, erfasste 138 Gutachten eines gerichtspsychologischen Institutes. In beiden Studien wurden die Items der merkmalsorientierten Inhaltsanalyse, die so genannten Realkennzeichen, einer Itemanalyse nach dem Modell der klassischen Testtheorie mit Reliabilitätsschätzung für den Score aggregierter Realkennzeichen unterzogen. Die Ergebnisse differierten beträchtlich: Während in der Laborstudie nur ein Teil der für die Realkennzeichen errechneten Trennschärfekoeffizienten das vorgegebene Signifikanzniveau (p < .05) erreichte und die Reliabilitätsschätzung mit rtt = .56 niedrig ausfiel, wurden in der Feldstudie fast durchgehend signifikante Trennschärfen ermittelt, und die Reliabilitätsschätzung entsprach mit rtt = .84 dem bei Persönlichkeitstests üblichen Niveau. Durch Itemselektion konnte in beiden Fällen die Reliabilität nur geringfügig gesteigert werden. Die in der Laborstudie errechnete Interraterreliabilität für den Score aggregierter Realkennzeichen betrug r = .98. In der Feldstudie wurde über eine logistische Regression ein Cut-Off-Wert errechnet, der von psychologischen Gutachtern als wahr eingeschätzten Aussagen von als falsch beurteilten trennte. Dieser Cut-Off-Wert lag zwischen fünf und sechs erfüllten Realkennzeichen. Unter der experimentellen Manipulation des Wahrheitsgehaltes von Aussagen in der Laborstudie konnte die Validität der merkmalsorientierten Inhaltsanalyse nur partiell bestätigt werden. Diese trennte zwar wahre und erfundene Aussagen signifikant voneinander, nicht aber wahre Aussagen von Täuschungen mit realem Erlebnishintergrund.
At University of Applied Sciences and Arts Hannover, LON-CAPA is used as a learning management system beside Moodle. LON-CAPA has a strong focus on e-assessment in mathematics and sciences. We used LON-CAPA in Hannover mainly in mathematics courses.
Since theoretical computer science needs a lot of mathematics, this course is also well-suited for e-assessment in LON-CAPA. Beside this, we already used JFLAP as an interactive tool to deal with automata, machines and grammars in theoretical computer science. In LON-CAPA, there exists a possibility of using external graders to grade problems.
We decided to write a grading engine (with JFLAP inside) to grade automata, machines and grammars handed in by students and to couple this with LON-CAPA. This report describes the types of questions that are now possible with this grader and how they can be authored in LON-CAPA.
Seit einigen Jahren wird zunehmend intensiver über das Angebot und den Bedarf an Fachkräften in der Pflege diskutiert. Dazu wurden bereits eine Reihe von Studien und Prognosen veröffentlicht, die allerdings zu sehr unterschiedlichen Ergebnissen kamen. In der öffentlichen wie auch in der wissenschaftlichen Diskussion sind deshalb gegenwärtig eine Vielzahl unterschiedlicher Zahlen anzutreffen. Die Unterschiede sind allerdings nicht nur auf methodische Unterschiede zurückzuführen, sondern vor allem auch darauf, dass es bislang an zuverlässigen und ausreichend differenzierten Daten amtlicher Statistiken zur Gesamtzahl der Beschäftigten in Pflegeberufen mangelt. Zwar bietet die Gesundheitspersonalrechnung (GPR) des Statistischen Bundesamtes einrichtungsübergreifende Angaben zur Gesamtzahl der Beschäftigten in Pflegeberufen, diese sind jedoch zum einen nicht ausreichend differenziert und basieren zum anderen zu einem wesentlichen Teil auf einer Hochrechnung von Ergebnissen der 1 %-Haushaltsstichprobe des Mikrozensus. Die Angaben der GPR sind darum mit dem Risiko behaftet, dass sie aufgrund von Schätzfehlern die tatsächliche Zahl der Beschäftigten über- oder unterschätzen. Zuverlässigere Angaben zur Beschäftigung in Pflegeberufen bieten Teilstatistiken des Gesundheitswesens, die ihre Daten auf dem Wege einer Vollerhebung mit gesetzlicher Auskunftspflicht der befragten Einrichtungen gewinnen. Dies sind die Krankenhausstatistik, die Statistik der Vorsorge- und Rehabilitationseinrichtungen und die Pflegestatistik. In der vorliegenden Studie werden deren Daten erstmals zu einer Gesamtstatistik der Pflegeberufe zusammengeführt. Das Ergebnis ist eine Datenaufbereitung zur Entwicklung und zum Stand der Beschäftigung in Pflegeberufen in Deutschland im Zeitraum 1999-2009, die nicht nur Zahlen zur Gesamtbeschäftigung bietet, sondern auch differenziert nach einzelnen Pflegeberufen und Versorgungsbereichen (Krankenhaus, Rehabilitationsbereich, ambulante Pflegeeinrichtungen und Pflegeheime). Die Analyse der zusammengeführten Daten führt zu einer Reihe von Ergebnissen, die insbesondere auch für die gesundheitspolitische Diskussion von Bedeutung sind.
Zunächst wird der Koalitionsvertrag daraufhin analysiert, welche Aussagen zur Zukunft der gesetzlichen Krankenversicherung darin enthalten sind und welche Vorhaben sich an den betreffenden Aussagen ablesen lassen. Daran schließt sich eine Darstellung des ‚Gesundheitsprämienmodells’ von CDU und FDP an, das darauf folgend einer systematischen Kritik unterzogen wird. Wegen seiner besonderen Stellung in der gegenwärtigen gesundheitspolitischen Diskussion wird im Anschluss daran der so genannte ‚Sozialausgleich’ näher betrachtet. Dieser Begriff erweist sich bei näherer Betrachtung als irreführende ‚Fehletikettierung’, denn geplant ist nicht ein umfassender ‚sozialer Ausgleich’, wie ihn die gesetzliche Krankenversicherung gegenwärtig gewährleistet, sondern lediglich ein staatlicher Beitragszuschuss für hilfebedürftige Geringverdiener. Im Rahmen der Erörterung werden auch die zentralen Begründungsmuster für die Einführung eines steuerfinanzierten ‚Sozialausgleichs’ einer systematischen Kritik unterzogen. Dabei wird auch herausgearbeitet, dass die Umstellung auf eine Steuerfinanzierung der gesetzlichen Krankenversicherung keineswegs zwangsläufig zu einer sozial gerechten Verteilung von Finanzierungslasten führt, wie dies von führenden Vertretern der Regierungskoalition behauptet wird.
Das vorliegende Papier soll zur Unterstützung der Diskussion um Personalmindeststandards
im Pflegebereich dienen. Dazu wird zunächst ein Rückblick auf die Vorgeschichte und Hintergründe des Stellenabbaus sowie die Auswirkungen des Pflege-Förderprogramms und dessen Überführung in das DRG-System gegeben. Da die Frage einer staatlichen Regulierung der Personalbesetzung im Pflegedienst der Krankenhäuser sehr eng mit der Verteilung der Gesetzgebungskompetenzen zwischen Bund und Ländern verbunden ist, werden im darauf folgenden Kapitel Möglichkeiten und Grenzen einer Regulierung durch Landesrecht oder Bundesrecht vorgestellt und diskutiert. Daran schließt sich ein Überblick über die wichtigsten bisher vorgelegten Überlegungen und Vorschläge für eine staatliche Regulierung der Personalbesetzung an. Im darauf folgenden Kapitel werden die bisherigen Vorschläge einer kritischen Analyse unterzogen, dabei wird insbesondere auf die Frage der Eignung des DRG-Systems als Ansatzpunkt für eine Regulierung der Personalbesetzung eingegangen. Daran anschließend werden zwei Regulierungsansätze, die möglicherweise besser geeignet wären, um verbindlich einzuhaltende Personalbesetzungsstandards nicht nur vorzugeben, sondern auch durchzusetzen: Eine Regulierung auf Landesebene im Rahmen der Krankenhausplanung und eine Regulierung auf Bundesebene, die den OPS nutzt, um die Einhaltung vorgegebener Personalbesetzungsstandards zur Bedingung für die Kodierung und somit auch Abrechnung von Leistungen macht. Das letzte Kapitel ist der Frage der Finanzierung verbindlich eizuhaltender Personalbesetzungsstandards gewidmet.
In diesem Beitrag werden die Ergebnisse von sieben Datenhebungen zur Relevanz situativer Risikofaktoren für Korruption aus den Jahren 2010 bis 2013 vorgestellt. In fünf quantitativen Datenerhebungen wurden folgende sechs Faktoren untersucht: Dauer der Korruptionsbeziehung, Vorteilshöhe, Art der Vorteilsempfänger, Entdeckungswahrscheinlichkeit, Vorliegen einer persönliche Notlage und situative Unsicherheit. In zwei qualitativen Datenerhebungen wurde mit offenen Fragen nach situativen Einflussfaktoren von Korruption gefragt. Erwartungswidrig erwiesen sich die untersuchten Faktoren als weitgehend irrelevant für die Bewertung von Korruption sowie für das Meldeverhalten bei beobachteter Korruption. Zu vermuteten ist, dass situative Risikofaktoren nicht unmittelbar, sondern indirekt über vom Umfeld geteilte mögliche Rechtfertigungen korrupter Handlungen im Alltag wirken. Die durchgängig nicht signifikanten Ergebnisse lassen daran zweifeln, dass korruptes Handeln maßgeblich durch situative Risikofaktoren beeinflussbar ist.
Die nachfolgend berichteten Ergebnisse basieren auf einem vignettenbasierten 2x2-Szenario-Experiment, in das die Situationsfaktoren Entdeckungswahrscheinlichkeit und Vorteilswert sowie die Personenfaktoren Organisationaler Zynismus, das Fünf-Faktoren-Modell der Persönlichkeit und Intelligenz einbezogen wurden. In diesem Bericht werden vorrangig die Ergebnisse zur Persönlichkeitsdimension Gewissenhaftigkeit vorgestellt, einem der Faktoren des Fünf-Faktoren-Modells der Persönlichkeit. Diese Ergebnisse werden ausführlich berichtet, weil sie von besonderer Bedeutung für das vom TÜV Hannover/Sachsen-Anhalt e.V. finanzierte Forschungsprojekt Korruption – Risikofaktoren der Person und der Situation (Laufzeit 2011 bis 2015) sind. Die nachfolgend berichtete Untersuchung zeigt, dass ein akteurszentrierter Ansatz in der Korruptionsursachenforschung grundsätzlich sinnvoll ist. Es wurden 113 Auszubildende in den Bereichen Banken- und Versicherungen sowie Sozialversicherung befragt. Die Ergebnisse zeigen, dass Korruption als verbreitete Verhaltensweise angesehen wird, die jedoch als verwerflich gilt. Während die einbezogenen Situationsfaktoren keine nennenswerten Effekte auf die Korruptionsbereitschaft hatten, führten einige der Personenfaktoren zu signifikanten Ergebnissen. Gewissenhaftigkeit kommt hierbei als Schutzfaktor vor korrupten Handlungen besondere Bedeutung zu.
Ziel des Projektes war es, nominative Grundlagen für die Kriterien eines Performace-Quality-Labels (PQL) für LED-Leuchten zu erarbeiten. Unter dem PQL wird ein Qualitäts- und Energielabel verstanden, das für LED-Produkte auf Grundlage der aktuellen und sich entwickelnden Normensituation erarbeitet werden soll. Durch das Bestimmen der für eine gute Produktqualität erforderlichen Faktoren, soll durch die beteiligten Forschungseinrichtungen ein Katalog von Mindestanforderungen für LED-Leuchten entwickelt werden. Auf der anderen Seite sollen der Leuchtenindustrie konkrete Hinweise für die Entwicklung und Optimierung von LED-Leuchten bezüglich der im Projekt geforderten Werte zur Verfügung gestellt werden.
Ergebnis: Es wurde die Alterung von Hoch- und Mittelleistungs-LEDs bei verschiedenen Strömen und Boardtemperaturen hinsichtlich Lichtstrom, Farbort, Spektren und Änderung des thermischen Widerstands untersucht, um die Lebensdauer der LEDs durch eine Extrapolation herstellerunabhängig ermitteln und den Leuchtenherstellern verfügbar zu machen. Durch umfangreiche Untersuchungen zu ESD und EMV-Eigenschaften sowie Temperatur- und Stromverhalten der LEDs, war eine thermische und elektrische Modellierung möglich. Ziel: ein korrektes Datenblatt für die LEDs seitens der LED-Hersteller zu erarbeiten sowie ein relevantes Binning-Schema mit Beurteilungskriterien für die verschiedenen Binning-Klassen zu erstellen. Zudem lassen sich Hinweise ableiten, wie zukünftige LED-Leuchten mit RGB- und weißen LEDs auf Farbort- und Lichtstromkonstanz bei verschiedenen Temperatur- und Stromänderungen geregelt werden können. Durch die Vergleichsmessungen von mehr als 70 LED-Leuchten konnten die Schwachstellen und Unzulänglichkeiten in der qualitätssicherenden Kette ermittelt und mit den Firmen besprochen werden. Die Auswertung der an der TU Darmstadt gealteten LED-Leuchten konnte der Leuchtenindustrie konkrete Hinweise über Alterungsmechanismen, thermisches Management bei verschiedenen Betriebstemperaturen und die Restwelligkeit der LED-Ströme geben. Zudem wurden Faktoren erarbeitet, wie die LED-Leuchte durch Materialauswahl (Wärmeleitpasten, Dichtungsring), durch konstruktive Kabelführung und Elektronik-Auswahl an Zuverlässigkeit gewinnen kann. Eine Datenbank mit einer Typisierung der LED-Fehler, Entstehungsorte, Ursachen und wirtschaftlicher Folge konnte erstellt und mit der Leuchtenindustrie und professionellen Anwendern ausgetauscht und gepflegt werden.
Die Grundlage für die Akzeptanz der LED-Beleuchtung durch die professionellen und privaten Anwender kann nur geschaffen werden, wenn die Licht- und Farbqualität untersucht und deren Mindestwerte für hochqualitive LED-Produkte definiert werden können. An Hand der Untersuchung der Farbwiedergabeskalierung konnte gezeigt werden, dass LED-Systeme mit guter Farbwiedergabe eine Ra-Wert von 86 und R9 für gesättigte rote Farben von mehr als 45 aufweisen sollten. Um die Detektierbarkeit der stroboskopischen Erscheinungen von PQWM-betriebenen LEDs zu minimieren sollte die Pulsfrequenz nicht weniger als als 350 Hz – 400 Hz betragen.
Alle gewonnenen optischen, lichttechnischen, thermischen und elektrischen Erkenntnisse und Erfahrungen wurden während der Projektarbeit systematisch zusammengestellt und mit Zielwerten bzw. Grenzwerten versehen, so dass sie über die Qualitätsmerkmale (Performance Quality Label) in drei Vorträgen der Leuchtenindustrie präsentiert werden konnten. Die Ziele des Projekts konnten im vollen Umfang erfüllt werden. Die Erkenntnisse vom Projekt konnten durch sechs reguläre Treffen, zwei Sonderworkshops, drei VDE/ZVEI Workshops und zahlreiche Publikationen, Buchbeiträge und Konferenzbeiträge an die Lichtindustrie, Lichtplaner und weitere Interessierte transferiert werden.
Das IGF-Vorhaben 14 LBG der Forschungsvereinigung Elektrotechnik wurde über die AiF im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Die vorliegende Ausführung bezieht sich ausschließlich auf die, im Rahmen des Forschungsprojekts „Großtagespflegestellen in Niedersachsen“ durchgeführte, Hauptuntersuchung zur pädagogischen Qualität in sieben Großtagespflegestellen. Die Ergebnisse der darüber hinaus stattgefundenen schriftlichen Befragungen der kommunalen Träger werden nur im Kontext zu den untersuchten Betreuungssettings berücksichtigt. Neben der Datenerhebung mittels der Tagespflegeskala-R wurde im Anschluss an die Beobachtungen ein leitfadengestütztes Interview mit den anwesenden Kindertagespflegepersonen geführt. Weitere Informationen wurden aus Dokumenten wie Satzungen, Konzeption, Flyer und Internetauftritt gewonnen.
Die Ergebnisse werden in diesem Bericht in Form von sieben Thesen dargestellt. Die Erste These bezieht sich ausschließlich auf die Daten der TAS-R Untersuchung. Die Thesen zwei bis sieben wurden aus dem o.g. gesamten empirischen Material abgeleitet.
Als Instrument zur Erfassung der pädagogischen Qualität in den ausgewählten Großtagespflegestellen (GTPS) wurde die Tagespflegeskala-R (Tietze, Knobeloch, Gerszonowiec, 2011, überarbeitete Version) eingesetzt. Die TAS-R basiert auf der Family Day Care Rating Scale (FDCRS) von Harms, Cryer und Clifford (2003). Sie wurde bereits in vielen wissenschaftlichen Untersuchungen bzw. Studien genutzt und ist als internationales Instrument zur Erfassung von pädagogischer Qualität in Kindertagespflegestellen anerkannt.
Das Projekt SEC_PRO verfolgte die Möglichkeit der Erarbeitung einer neuartigen IT-Sicherheitslösung für Automatisierungssysteme. Die Ermittlung des Stands der Technik zeigte, dass die IT-Sicherheit in der Automatisierungstechnik von Lösungen der Standard-IT in Büronetzwerken geprägt ist, ohne auf spezielle Anforderungen der Automatisierungstechnik einzugehen. Eine Anforderungsanalyse erbrachte, dass IT-Sicherheitslösungen benötigt werden, die sich mit dem zunehmenden Vernetzungsgrad von Automatisierungssystemen in Einklang bringen lassen. Dazu ist eine IT-Sicherheitsschicht für das PROFINET-Protokoll konzipiert und implementiert worden, die einen integrierten Schutz der Kommunikation und der Komponenten selbst ermöglicht. Dabei kommen gezielt Security Token Technologien zum Einsatz. Eine Evaluierung der kryptografischen Funktionen zeigte, dass deren Verwendung unter gewissen Voraussetzungen möglich ist. Mit Hilfe eines Demonstrators ist konnte die Echtzeitfähigkeit der IT-Sicherheitsschicht validiert und dessen Schutzwirkung nachgewiesen werden. SEC_PRO kann als Ausgangspunkt für weitere Vorhaben bezüglich integrierter IT-Sicherheitsmaßnahmen gesehen werden, die auf eine Anwendung der Kryptografie in der Automatisierungstechnik abzielen.