Refine
Year of publication
Document Type
- Report (102) (remove)
Has Fulltext
- yes (102)
Is part of the Bibliography
- no (102)
Keywords
- Programmierung (9)
- Computerunterstütztes Lernen (8)
- E-Learning (8)
- Lernaufgabe (8)
- Autobewerter (6)
- Digitalisierung (6)
- E-Assessment (6)
- Grader (6)
- Herbar Digital (6)
- Herbarium (6)
In diesem Beitrag wird die Möglichkeit dargestellt, wie Belastungsspitzen beim Betrieb von Flussturbinen in Inselnetzen durch die kinetische Energie des Wassers abgedeckt werden können. Als Beispiel dienen dabei Kühlgeräte für Lebensmittel. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Sie stellen eine Möglichkeit zur Energieversorgung von kleinen Siedlungen ohne öffentliche Stromversorgung dar. Der besondere Vorteil ist, dass sie ohne aufwändige Bauwerke zur Wasserführung auskommen.
Bei der Versorgung von Inselnetzen muss die Turbine alleine die benötigte Leistung bereitstellen. Dies gilt auch für die Abdeckung von Belastungsspitzen. In diesem Beitrag wird anhand von Beispielrechnen dargestellt, welches Potenzial die kinetische Energie des Wassers in der Turbine hat, um die Belastungsspitzen abzudecken. Die Berechnungen an Kühlgeräten zeigen, dass das Einschalten der Kühlaggregate ein kritischer Betriebspunkt beim Betrieb von Flussturbinen in Inselnetzen sein kann. Dies gilt besonders dann, wenn die stationäre Leistung bereits nahe an der verfügbaren Leistung ist.
Hier muss in recht kurzer Zeit eine große elektrische Arbeit zur Verfügung gestellt werden, die Leistung also in kurzer Zeit ansteigen und anschließend wieder abfallen. Die Abschätzung der elektrischen Arbeit, die sich aus der kinetischen Energie des Wassers in der Turbine gewinnen lässt, zeigt aber, dass durch Absenken der Fließgeschwindigkeit kurzfristig die benötigte elektrische Leistung und Arbeit bereit gestellt werden kann.
Das Projekt Promise2007 befasste sich mit der Erstellung und Auswertung einer Statistik zur Mitgliedersituation im Berufsverband Medizinischer Informatiker e.V.. Mit dem Ziel mehr über die Mitglieder und ihre derzeitige Situation zu erfahren wurde das Projekt an der Fachhochschule Hannover initiiert. Statistisch erfasst wurden Fragen zum Beschäftigungsverhältnis, zu Aus- und Weiterbildung, der beruflichen Situation und persönliche Angaben. Die Ergebnisse wurden ausgewertet und daraus wichtige Erkenntnisse für den BVMI e.V. abgeleitet, welche auf die weitere Verbandsarbeit Einfluss nehmen.
Abschlussbericht zur Evaluation des Arbeitsfeldes „Kirchenkreissozialarbeit“ in Niedersachsen
(2019)
Die Kirchenkreissozialarbeit ist ein seit Jahrzehnten bewährtes und gleichzeitig zukunftsweisendes kirchlich-diakonisches Handlungsfeld. Rund einhundert motivierte Kirchenkreissozialarbeiter_innen halten flächendeckend ein wichtiges bedarfsorientiertes Angebot in hoher Qualität vor. Nach der Rahmenkonzeption sind die drei Kernaufgaben der Kirchenkreissozialarbeit Allgemeine Sozialberatung, Gemeinwesendiakonie und politische Arbeit.
Die vorliegende Ausführung bezieht sich ausschließlich auf die, im Rahmen des Forschungsprojekts „Großtagespflegestellen in Niedersachsen“ durchgeführte, Hauptuntersuchung zur pädagogischen Qualität in sieben Großtagespflegestellen. Die Ergebnisse der darüber hinaus stattgefundenen schriftlichen Befragungen der kommunalen Träger werden nur im Kontext zu den untersuchten Betreuungssettings berücksichtigt. Neben der Datenerhebung mittels der Tagespflegeskala-R wurde im Anschluss an die Beobachtungen ein leitfadengestütztes Interview mit den anwesenden Kindertagespflegepersonen geführt. Weitere Informationen wurden aus Dokumenten wie Satzungen, Konzeption, Flyer und Internetauftritt gewonnen.
Die Ergebnisse werden in diesem Bericht in Form von sieben Thesen dargestellt. Die Erste These bezieht sich ausschließlich auf die Daten der TAS-R Untersuchung. Die Thesen zwei bis sieben wurden aus dem o.g. gesamten empirischen Material abgeleitet.
Als Instrument zur Erfassung der pädagogischen Qualität in den ausgewählten Großtagespflegestellen (GTPS) wurde die Tagespflegeskala-R (Tietze, Knobeloch, Gerszonowiec, 2011, überarbeitete Version) eingesetzt. Die TAS-R basiert auf der Family Day Care Rating Scale (FDCRS) von Harms, Cryer und Clifford (2003). Sie wurde bereits in vielen wissenschaftlichen Untersuchungen bzw. Studien genutzt und ist als internationales Instrument zur Erfassung von pädagogischer Qualität in Kindertagespflegestellen anerkannt.
Akademisierung von Pflege
(1994)
Das Berufsbild von Sozialarbeitern beinhaltet viele Anforderungen, zentral sind dabei Sprach- und Lesekompetenzen. Der vorliegende Beitrag stellt die Ergebnisse einer explorativen Studie zu Sprachkompetenzen (i.S. von Wortschatz) und Lesekompetenzen (i.S. von Lesegeschwindigkeit und Leseverständnis) von Studierenden der Sozialen Arbeit dar und zeigt auf, das hier Verbesserungsbedarf besteht, wenn Studierende optimal auf Ihren späteren Beruf vorbereitet werden sollen. Auch wird ein Vergleich zu anderen Studiengängen gezogen, wo sich ähnliche Bedarfslagen zeigen.
Am Ende des Beitrags findet sich ein Kommentar zur (Nicht-)Veröffentlichung der Studienergebnisse.
Trotz Wachstumsmarkt konkurrieren Hochschulen um leistungsstarke Studienanfänger. Ziel dieser Arbeit war eine Untersuchung der Wettbewerbsfähigkeit des Bachelorstudiengangs Betriebswirtschaftslehre der Hochschule Hannover, Fakultät IV – Abteilung Betriebswirtschaft. Zu diesem Zweck wurde eine vergleichende Analyse von 23 Studiengängen des Fachs Betriebswirtschaftslehre oder Wirtschaftswissenschaft in Niedersachsen und angrenzenden Bundesländern anhand der Kriterien Wahlmöglichkeiten, Methodenausbildung, Ausbildung in Schlüsselkompetenzen und Internationalisierung durchgeführt. In dieser Arbeit werden die Ergebnisse der Untersuchung und Schlussfolgerungen für den Studiengang Betriebswirtschaftslehre der Hochschule Hannover berichtet.
In dieser Studie wurden Unternehmen, die Produktionsanlagen betreiben oder betreuen, zu ihrem Sicherheitsaufwand bei der Abfrage von Security Advisories für Automatisierungskomponenten befragt. Die befragten Unternehmen (vorwiegend KMU) machten Angaben zum zeitlichen, technischen und personellen Aufwand für die Auswertung von Security Advisories im Produktionsumfeld. Es wurde festgestellt, dass in vielen Unternehmen Defizite in Bezug auf diese Fragestellung bestehen. Dieses resultiert im Wesentlichen aus Mangel an Zeit und Mangel an qualifiziertem Personal. Eine in der Studie vorgeschlagene automatisierte Abfrage von Asset Inventories und eine automatisierte Zuordnung von Security Advisories zu den Assets wird von den befragten Unternehmen durchgehend als sinnvoll erachtet.
Im Frühling 2007 beauftragte die Landeshauptstadt Hannover die damalige Evangelische Fachhochschule Hannover (jetzt: Fachhochschule Hannover, Fakultät V, Soziale Arbeit) mit der Evaluation zur „flächendeckenden Sprachförderung für Migrantenkinder und Kinder mit Sprachschwierigkeiten“. In der Zeit vom Mai 2007 bis zum April 2009 führte Frau Rosemarie Lüters unter Leitung von Joachim Romppel die Forschungsarbeiten durch.
Während des letzten Jahres haben wir als Forschungsteam eine Vielzahl an Informationen durch persönliche Gespräche, Eindrücke vor Ort und Auswertung von Materialien und Berichten erhalten. Der Umfang der Arbeiten führte weit über die ursprüngliche Planung hinaus. Die Vorbereitungsgespräche pendelten zwischen den Anliegen von Politik und Verwaltung einen Überblick einerseits und sehr detaillierte Einblicke andererseits zu erhalten. Dieser Spannbreite haben wir versucht durch Bezug auf die drei Jugendeinrichtungen und auf die Fachgespräche im Jugendforum gerecht zu werden. Mit diesem Bericht stellen wir die wichtigen Ergebnisse heraus, an denen eine Weiterarbeit und Vertiefung von Fachleuten und Aktiven der Stadt in den nächsten Jahren erfolgen kann. Der Bericht enthält Bestandsaufnahmen sowie Vorschläge und Empfehlungen mit weiterführenden Hinweisen. Eine Prioritätensetzung wurde nicht vorgenommen, sondern obliegt den Entscheidern vor Ort.
Seit einigen Jahren wird zunehmend intensiver über das Angebot und den Bedarf an Fachkräften in der Pflege diskutiert. Dazu wurden bereits eine Reihe von Studien und Prognosen veröffentlicht, die allerdings zu sehr unterschiedlichen Ergebnissen kamen. In der öffentlichen wie auch in der wissenschaftlichen Diskussion sind deshalb gegenwärtig eine Vielzahl unterschiedlicher Zahlen anzutreffen. Die Unterschiede sind allerdings nicht nur auf methodische Unterschiede zurückzuführen, sondern vor allem auch darauf, dass es bislang an zuverlässigen und ausreichend differenzierten Daten amtlicher Statistiken zur Gesamtzahl der Beschäftigten in Pflegeberufen mangelt. Zwar bietet die Gesundheitspersonalrechnung (GPR) des Statistischen Bundesamtes einrichtungsübergreifende Angaben zur Gesamtzahl der Beschäftigten in Pflegeberufen, diese sind jedoch zum einen nicht ausreichend differenziert und basieren zum anderen zu einem wesentlichen Teil auf einer Hochrechnung von Ergebnissen der 1 %-Haushaltsstichprobe des Mikrozensus. Die Angaben der GPR sind darum mit dem Risiko behaftet, dass sie aufgrund von Schätzfehlern die tatsächliche Zahl der Beschäftigten über- oder unterschätzen. Zuverlässigere Angaben zur Beschäftigung in Pflegeberufen bieten Teilstatistiken des Gesundheitswesens, die ihre Daten auf dem Wege einer Vollerhebung mit gesetzlicher Auskunftspflicht der befragten Einrichtungen gewinnen. Dies sind die Krankenhausstatistik, die Statistik der Vorsorge- und Rehabilitationseinrichtungen und die Pflegestatistik. In der vorliegenden Studie werden deren Daten erstmals zu einer Gesamtstatistik der Pflegeberufe zusammengeführt. Das Ergebnis ist eine Datenaufbereitung zur Entwicklung und zum Stand der Beschäftigung in Pflegeberufen in Deutschland im Zeitraum 1999-2009, die nicht nur Zahlen zur Gesamtbeschäftigung bietet, sondern auch differenziert nach einzelnen Pflegeberufen und Versorgungsbereichen (Krankenhaus, Rehabilitationsbereich, ambulante Pflegeeinrichtungen und Pflegeheime). Die Analyse der zusammengeführten Daten führt zu einer Reihe von Ergebnissen, die insbesondere auch für die gesundheitspolitische Diskussion von Bedeutung sind.
Ein Autobewerter für von Studierenden eingereichte Programme führt die im ProFormA-Aufgabenformat sequentiell spezifizierten "Tests" aus, um die Einreichung zu prüfen. Bzgl. der Interpretation und Darstellung der Testausführungsergebnisse gibt es derzeit keinen graderübergreifenden Standard. Wir beschreiben eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten, die nach didaktischen Aspekten gruppiert ist und Referenzen auf die Testausführungen besitzt. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detailaufschlüsselung der Bewertungsaspekte müssen in der Konsequenz Testausführungen in Teilausführungen aufgebrochen werden. Wir illustrieren unseren Vorschlag unter Einsatz der Testwerkzeuge Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Das Erreichen eines höheren Bildungsstands gegenüber dem Bildungsstand der Eltern ist häufig mit einer Bewältigung von herkunftsbedingten Widerständen verbunden. Neben leistungsbezogenen Anforderungen an Bildungsaufsteiger sind häufig auch psychosoziale Anforderungen zu bewältigen, die durch einen Aufstieg in eine höhere soziale Schicht entstehen. Nachfolgend wird untersucht, ob Resilienz ein Einflussfaktor auf Bildungsaufstieg ist oder nicht. Es wurde eine Datenerhebung an 157 Studierenden der Hochschule Hannover durchgeführt. Zwischen den 77 Bildungsaufsteigern und den 80 Nichtbildungsaufsteigern dieser Stichprobe wurde kein signifikanter Unterschied hinsichtlich Resilienz gefunden. In einer Vorstudie wurde mit der Resilienzskala RS-29 die Resilienzskala RS-25 (Schumacher et al., 2005) weiterentwickelt und empirisch überprüft. Eine Datenerhebung der RS-29 an 416 Studierenden der Hochschule Hannover bestätigte drei vermutete Faktoren tendenziell.
Für die Praxis der Sozialen Arbeit wird eine Technik vorgestellt, mit der zum einem psychische, soziale und auch körperliche (leibliche) Phänomene betrachtet und damit diagnostiziert werden und Interventionen entwickelt werden können. Hierbei wird auf biopsychosoziale Modelle zurückgegriffen. Die hier vorgestellte Technik (PDI) wird theoretisch verortet. Die Anwendung erfolgt mit den Phasen Anamnese, subjektive Einschätzung, Kontext und Veränderung.
Diese Studie untersucht Gruppen von Ortsnamen in Deutschland (in den Postleitregionen) nach vorhandenen Ähnlichkeiten. Als Messgröße wird ein Häufigkeitsvektor von Trigrammen in jeder Gruppe herangezogen. Mit der Anwendung des Average Linkage-Algorithmus auf die Messgröße werden Cluster aus räumlich zusammenhängenden Gebieten gebildet, obwohl das Verfahren keine Kenntnis über die Lage der Cluster zueinander besitzt. In den Clustern werden die zehn häufigsten n-Gramme ermittelt, um charakteristische Wortpartikel darzustellen. Die von den Clustern umschriebenen Gebiete lassen sich zwanglos durch historische oder linguistische Entwicklungen erklären. Das hier verwendete Verfahren setzt jedoch kein linguistisches, geographisches oder historisches Wissen voraus, ermöglicht aber die Gruppierung von Namen in eindeutiger Weise unter Berücksichtigung einer Vielzahl von Wortpartikeln in einem Schritt. Die Vorgehensweise ohne Vorwissen unterscheidet diese Studie von den meisten bisher angewendeten Untersuchungen.
Wir beschreiben und belegen anhand eines Pilotprojekts in einer zweiten Grundschulklasse, dass Informatik in der Grundschule das Potential hat, fächerübergreifend Kompetenzen in fast allen Fächern des Grundschulkanons zu fördern. Wir erläutern mehrere Unterrichtseinheiten eines ScratchJr-Einsatzes und dokumentieren positive Wirkungen auf vielfältige Kompetenzen, die Kinder im Grundschulalter erwerben sollen. Der Beitrag stellt einen Erfahrungsbericht und qualitative Ergebnisse zur Verfügung. Eingesetzte Arbeitsmaterialien werden online zur Verfügung gestellt. Die bisherigen positiven Erfahrungen haben uns veranlasst, die Arbeit mit ScratchJr in der Pilotklasse auf mehrere Monate auszudehnen.
„Jedes Problem, an dem Menschen oder Organisationen beteiligt sind, hat – wie eine Zwiebel – verschiedene Schichten“. Unternehmensberater versuchen solche Schichten bei einer gegebenen Problemstellung zu erkennen, um dieses Problem am Ende lösen zu können. Auch sind etwaige kritisch durchdachte Lösungsvorschläge denkbar, welche zu einer Optimierung eines Sachverhaltes führen. Für die Lösungsfindung eines Problems, ist es notwendig, relevante Daten zu erheben. Anhand der gewonnenen Informationen kann ein Gesamtbild über die Sachlage entstehen. Informationen müssen vollständig und qualitativ verwertbar sein – so ist das Vordringen in verschiedene Schichten einer Problemstellung möglich, wobei hier u. U. erst das „wirkliche“ Problem erkannt wird, welches sich zum Beispiel durch Folgeerscheinungen „verdeckt“ halten konnte. Demnach spielen die Consulting – Erhebungsmethoden für den Erkenntnisgewinn einer Lösungsfindung im Rahmen der Ist- Analyse, eine fundamentale Rolle. Welche Erhebungsmethoden sind wann, wo und wie sinnvoll? Gibt es den einen „richtigen“ Erhebungsmix? Welche Kriterien und Einflüsse gilt es bei der Erhebungsauswahl zu berücksichtigen? Festzustellen ist, dass dieses Thema in solch einer zusammengebunden Form noch nicht bearbeitet wurde und nochmals die Komplexität verdeutlicht.
The speed control system for a concept for cost effective drives with high precision is presented. The drive concept consists of two parallel working drives. The concept is an alternative to direct drives. One big advantage is the use of standard gear boxes with economical components. This paper deals with the control of the drive system consisting of two parts: one drive produces the power for the machine, another drive makes the motion precice and dynamic. Both drives are combined to one double drive by a control system. The drive system is usefull for printing machines and other machines with high power consumption at a nearly constant speed and high accuracy requirements. The calculation for a drive system with 37 kW shows, that the control drive has to supply only about 20 % of the total torque and power needed to compensate the errors of the power drive. The stability of the system is shown by a simulation of the double drive.
The speed control system for a concept for cost effective drives with high precision is presented. The drive concept consists of two parallel working drives. The concept is an alternative to direct drives. One big advantage is the use of standard gear boxes with economical components. This paper deals with the control of the drive system consisting of two parts: one drive produces the power for the machine, another drive makes the motion precice and dynamic. Both drives are combined to one double drive by a control system. The drive system is usefull for printing machines and other machines with high power consumption at a nearly constant speed and high accuracy requirements. The calculation for a drive system with 37 kW shows, that the control drive has to supply only about 20 % of the total torque and power needed to compensate the errors of the power drive. The stability of the system is shown by a simulation of the double drive.
Data Mining Verfahren
(2008)
Der vorliegende Forschungsbericht dokumentiert Ergebnisse, die in der Abteilung Informatik der Fakultät Wirtschaft und Informatik der Fachhochschule Hannover im Sommersemesters 2007 im Rahmen eines von der Forschungskommission genehmigten Forschungssemesters vom Autor erarbeitet wurden. Der Bericht stellt die wichtigsten Verfahren aus dem Gebiet des Data Minings vor, diskutiert auf der Basis von selbst programmierten Beispielen die Eignung der verschiedenen Verfahren für die entsprechenden Anwendungsgebiete und vergleicht die speziellen Eigenschaften der entsprechenden Algorithmen.
Inhalt: 1. Einleitung 2. Überlegungen zur Einführung der Orientierungsphase 3. Leitziele der Orientierungsphase 4. Themenbereiche der Orientierungsphase 5. Durchführung und Arbeitsformen der Orientierungsphase 6. Lehrveranstaltungen der Orientierungsphase im Fachbereich BID 7. Erste Erfahrungen mit der Orientierungsphase 8. Schlußbetrachtung
Die Prozesskostenrechnung zum Kosten- und Leistungsmanagement der Herbarbeleg-Digitalisierung
(2013)
Die Prozesskostenrechnung untersucht die Verteilung der Vollkosten auf die bei der Herbarbeleg-Digitalisierung anfallenden Tätigkeiten (hier exemplarisch in 2010). Außerdem stellt dieses Modell ein Instrument zum Monitoring neu eingesetzter Produkt- und Prozessinnovationen dar. Die Tätigkeiten sind in Projektkostenstellen abgegrenzt, um z. B. nach Einzel- und Gemeinkosten zu unterscheiden. Der Fokus liegt auf der Methodenentwicklung. Die Führungsaufgaben und unterstützenden Tätigkeiten sind in Bezug auf die Leistungsmenge neutral. Ihre Kosten werden auf leistungsmengeninduzierende Kerntätigkeiten umgelegt, die in sieben Phasenbereiche konsolidiert wurden. Für die untersuchten Projekte „Willdenow“ und „Global Plant Initiative“ ergaben sich jeweils Leistungs- und Kostenkennzahlen für die einzelnen Phasenbereiche. Entwicklungsbedarf des Modells besteht u. a. bei der Validität der Kostenträger, Zeichenerfassung, Kosten ehrenamtlicher Tätigkeiten, Reduktion der Komplexität und sonstiger Störungen. Die Prozesskostenrechnung ist als ein weiterführendes Instrument der Vollkostenrechnung entwickelt worden und kann auch als Deckungsbeitragsrechnung betrieben werden. Mit den Ergebnissen wird keine Kontrolle der Aufgabenwahrnehmung einzelner Mitarbeiter verfolgt.
Die vorliegende Arbeit fasst zwei Untersuchungen zu psychometrischen Eigenschaften der in der aussagepsychologischen Diagnostik verwendeten merkmalsorientierte Inhaltsanalyse zusammen. Die erste Untersuchung war Teil einer größeren Laborstudie zur Validität inhaltsanalytischer Beurteilungen der Wahrhaftigkeit von Zeugenaussagen mit 60 Versuchspersonen, die verschiedenen Bedingungen von Wahr- und Falschaussagen zugeordnet waren, die zweite, eine Felduntersuchung, erfasste 138 Gutachten eines gerichtspsychologischen Institutes. In beiden Studien wurden die Items der merkmalsorientierten Inhaltsanalyse, die so genannten Realkennzeichen, einer Itemanalyse nach dem Modell der klassischen Testtheorie mit Reliabilitätsschätzung für den Score aggregierter Realkennzeichen unterzogen. Die Ergebnisse differierten beträchtlich: Während in der Laborstudie nur ein Teil der für die Realkennzeichen errechneten Trennschärfekoeffizienten das vorgegebene Signifikanzniveau (p < .05) erreichte und die Reliabilitätsschätzung mit rtt = .56 niedrig ausfiel, wurden in der Feldstudie fast durchgehend signifikante Trennschärfen ermittelt, und die Reliabilitätsschätzung entsprach mit rtt = .84 dem bei Persönlichkeitstests üblichen Niveau. Durch Itemselektion konnte in beiden Fällen die Reliabilität nur geringfügig gesteigert werden. Die in der Laborstudie errechnete Interraterreliabilität für den Score aggregierter Realkennzeichen betrug r = .98. In der Feldstudie wurde über eine logistische Regression ein Cut-Off-Wert errechnet, der von psychologischen Gutachtern als wahr eingeschätzten Aussagen von als falsch beurteilten trennte. Dieser Cut-Off-Wert lag zwischen fünf und sechs erfüllten Realkennzeichen. Unter der experimentellen Manipulation des Wahrheitsgehaltes von Aussagen in der Laborstudie konnte die Validität der merkmalsorientierten Inhaltsanalyse nur partiell bestätigt werden. Diese trennte zwar wahre und erfundene Aussagen signifikant voneinander, nicht aber wahre Aussagen von Täuschungen mit realem Erlebnishintergrund.
At University of Applied Sciences and Arts Hannover, LON-CAPA is used as a learning management system beside Moodle. LON-CAPA has a strong focus on e-assessment in mathematics and sciences. We used LON-CAPA in Hannover mainly in mathematics courses.
Since theoretical computer science needs a lot of mathematics, this course is also well-suited for e-assessment in LON-CAPA. Beside this, we already used JFLAP as an interactive tool to deal with automata, machines and grammars in theoretical computer science. In LON-CAPA, there exists a possibility of using external graders to grade problems.
We decided to write a grading engine (with JFLAP inside) to grade automata, machines and grammars handed in by students and to couple this with LON-CAPA. This report describes the types of questions that are now possible with this grader and how they can be authored in LON-CAPA.
Die automatisierte Bewertung studentischer Übungsabgaben in Programmieren-Lehrveranstaltungen weist Parallelen zum automatisierten Test in der professionellen Softwareentwicklung auf. Allerdings muss ein Autobewerter (Grader), um lernförderlich zu sein, andere Zielsetzungen erfüllen als üblicherweise im professionellen Softwaretest eingesetzte Analyse- und Testwerkzeuge. Dieser Beitrag identifiziert wesentliche Unterschiede und beschreibt, wie sich diese Unterschiede in dem an der Hochschule Hannover entwickelten und seit mehreren Jahren im Einsatz befindlichen Autobewerter "Graja" niederschlagen.
Automatisiert bewertbare Programmieraufgaben dienen Studierenden zum Einüben von Programmierfertigkeiten. Die Verfügbarkeit von mehreren verschiedenen Aufgaben, die denselben Stoff abdecken, ist für verschiedene Zwecke hilfreich. Eine Programmieraufgabe lässt sich durch Einführung von Variationspunkten variabel gestalten. Die hierbei entstehende Aufgabenschablone ist Ausgangsbasis der sogenannten Materialisierung, der automatischen Generierung konkreter Aufgaben. Der vorliegende Beitrag stellt ein Datenmodell mit dem Ziel vor, sowohl die Auswahl von Variationspunktwerten als auch die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen zu unterstützen. Das vorgeschlagene Datenformat ermöglicht Lernmanagementsystemen die Unterstützung variabler Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters.
Automatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden. Letzteres sucht einen Ausgleich im Spannungsfeld zwischen einem für Studierende einfach verständlichen Bewertungsergebnis und den Eigenarten der eigentlich nicht für Bewertungszwecke erfundenen, nichtsdestotrotz regelmäßig und sinnvollerweise für Bewertungszwecke eingesetzten Softwarewerkzeuge.
Wir führen schrittweise in den Einsatz einer Java-Bibliothek ein, um Variationspunkte und deren Wertemengen in automatisiert bewerteten Programmieraufgaben zu spezifizieren und als XML-Datei zu exportieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält.
Automatische Bewertungssysteme für Programmieraufgaben (Grader) sind komplexe Softwaresysteme. Automatisch ausführbare Regressionstests können kostengünstig potenzielle Fehler im Grader aufdecken. Im vorliegenden Beitrag soll beschrieben werden, wie Musterlösungen als Eingabedaten für automatische Regressionstests fungieren können. Es geht also um die Vorstellung einer Lösung eines Software Engineering Problems für E-Learning-Systeme. Wir betrachten, welche Eigenschaften des ProFormA-Aufgabenformats für automatische Regressionstests genutzt werden können und schlagen Erweiterungen des Formats vor. Der Beitrag beschreibt die beispielhafte Implementierung eines automatischen Black Box Systemtests für den Autobewerter Graja und geht dabei u. a. auf die Gestaltung eines Record-Playback-Vorgehens, auf einen unscharfen Soll-Ist-Vergleich sowie auf die Frage der Lokalisierbarkeit von entdeckten Regressionen ein.
In diesem Beitrag wird der Energieertrag von Flussturbinen abgeschätzt. Flussturbinen arbeiten ohne Staustufen in der Strömung der Flüsse. Die Energieberechnung erfolgt an den Flüssen Oberrhein, Weser, Werra und Unterelbe. Unter der Annahme von mittleren Fließgeschwindigkeiten und Werten zum Ausnutzungsgrad von frei fahrenden Wasserturbinen wird der Energieertrag ermittelt. Bei Einsatz von Flussturbinen mit einem Laufraddurchmesser D = 2,5 m und im Mittel 33 Turbinen je km ergibt sich eine jährliche Gesamtenergie von 1,2 TWh. Dies sind mehr als 10% des in einer BMBF-Studie ermittelten Energiepotenzials der frei fließenden Strecken von Fließgewässern in Deutschland mit einem Einzugsgebiet von mehr als 10 km2.
Die zunehmenden Anwendungsfälle der vertikalen und horizontalen Vernetzung von Automatisierungssystemen erhöhen gleichzeitig auch die Bedrohungen der IT-Sicherheit der relevanten automatisierten technischen Prozesse. Zukünftige Anlagenstrukturen werden stärker vernetzt und dezentralisiert organisiert sein, oder sogar weltweit mit anderen technischen Systemen über das Internet kommunizieren. Dies erfolgt häufig über standardisierte Kommunikationsprotokolle, im Weiteren Middleware genannt. Daher ist die Bedeutung standardisierter Verfahren und Modelle zur Erleichterung der Sicherheitskonfigurationen der Middleware, die die folgenden Anforderungen erfüllen, von wesentlicher Bedeutung:
- Sichere Kommunikation (sichere Middleware)
- Authentifizierung und Autorisierung der Kommunikationspartner auch bei stark vernetzten Systemen und Ad-hoc-Verbindungen
- Einfache Verwaltung von Sicherheitsmaßnahmen ohne erheblichen Mehraufwand für die Organisation
Die bestehende Referenzarchitektur und die Sicherheitsmerkmale der entsprechenden Middleware werden untersucht, um deren Anwendbarkeit in verschiedenen Stufen der Automatisierungspyramide zu ermitteln. Es werden die Sicherheitsmerkmale für eine durchgängig sichere Kommunikation und deren Flexibilität bei der Integration in eine Public Key Infrastruktur (PKI) untersucht. Die bestehenden Zugangskontrollmechanismen und deren Zukunft im Rahmen von Industrie 4.0 werden bewertet. Die Möglichkeiten zur Integration des mit Attributzertifikaten aktivierten Berechtigungsmechanismus im Rahmen von OPC UA werden in diesem Projekt untersucht und als Teil des Demonstrators implementiert. Die Anwendungsrelevanz der entwickelten Lösungen wird gewährleistet, indem die Projektpartner des projektbegleitenden Ausschusses bei der Erstellung und dem Review von Konzepten frühzeitig beteiligt werden.
Die Studie leistet einen Beitrag zur Entwicklung der professionellen Handlungsfähigkeit in der Sozialen Arbeit. Ziel ist es, Berufsanfänger*innen zukünftig größere Sicherheit über ihr erworbenes Wissen und Können und ihre Handlungsfähigkeit zu geben. Die Handlungsfelder Sozialer Arbeit sind i.d.R. komplex und gehen mit hohen Belastungen einher, so dass gerade der Berufseinstieg eine große Herausforderung darstellt.
Die vertiefte Literaturrecherche zum Kompetenzbedarf im Berufsfeld der Sozialen Arbeit bietet ein umfassendes Bild von professioneller Handlungsfähigkeit in der Sozialen Arbeit. Dabei liegt der Fokus auf der Sicht der Betroffenen, den mit der Hochschule kooperierenden Praxisanleiter*innen sowie den sich im Anerkennungsjahr befindenden Sozialarbeiter*innen, die im Forschungszeitraum ihr Anerkennungsjahr ableisteten. Die Ergebnisse aus den über einen Methodenmix erhobenen Daten geben Hinweise für die Weiterentwicklung des Curriculums, zur Unterstützung der Praxisanleiter*innen und zur Verankerung von beruflicher Reflexion im Alltag und den Studientagen sowie auf den großen Bedarf an Vernetzung zwischen den Einrichtungen und der Hochschule.
Aufgrund der klimatischen Veränderungen und steigender Energiepreise hat das nachhaltige und umweltbewusste Handeln in den letzten Jahren an Bedeutung gewonnen. Um dieses Handeln zu unterstützen, können Unternehmen Energiemanagementsysteme nach dem ISO-Standard 50001 einführen. Diese Systeme ermöglichen es u. a. Energieverbräuche in einem Energie-Monitoring visuell aufzubereiten und auf Basis der Ergebnisse Analysen durchzuführen. Aus den Ergebnissen der Analyse können Energieeffizienzmaßnahmen abgeleitet werden. Nach einer Überprüfung der energetischen Optimierung kann der Zyklus erneut beginnen, sodass eine kontinuierliche Verbesserung der Energieeffizienz erfolgen kann. Im industriellen Umfeld bestehen jedoch noch Hindernisse in Bezug auf eine einheitliche Auswertung von Energiedaten für ein effektives Energiemanagement. Verschiedene semantische Interpretationen von Energiedaten und proprietäre Datenformate erschweren die Einrichtung und Erweiterung von Energiemanagementsystemen. Im Rahmen des IGF-Vorhabens "IoT_EnRG" wurde ein universelles Energieinformationsmodell entwickelt. Dieses Modell ermöglicht es, Energiedaten eine einheitliche Semantik zu geben, damit diese einfacher interpretierbar werden. Durch die Anwendung des Energieinformationsmodells können Energiedaten schneller und mit weniger Engineering-Aufwand in technische Energiemanagementsysteme integriert werden. Diese Integration war bisher erschwert, denn konventionelle Lösungen konnten für die Interpretation der Energiedaten aus unterschiedlichen Quellen der Feldebene verschiedene proprietäre Semantiken unterschiedlicher Kommunikationsprotokolle verwenden. Der Ansatz des universellen Energieinformationsmodells reduziert den Engineering-Aufwand technischer Energiemanagement-Systeme und unterstützt die Industrie bei der Installation von Energiemanagementsystemen für eine sparsame und klimaneutrale Produktion. Die Ergebnisse des Vorhabens wurden der Joint Working Group "Power Consumption Management" [1] übergeben, die sich das Ziel gesetzt hat, einen einheitlichen OPC UA-Standard für Energieinformationen auf Basis des entwickelten Modells in Form einer OPC UA Companion Spezifikation zu erarbeiten. Durch die Übergabe der Forschungsergebnisse in die Joint Working Group konnte eine nachhaltige Nutzung der Forschungsergebnisse sichergestellt werden, die deutlich über den Keis der Unternehmen im projektbegleitenden Ausschuss hinausgeht. Das Ziel des Vorhabens wurde erreicht.
In dieser Arbeit werden Verfahren zur visuellen Beurteilung von Stabilitätseigenschaften nichtlinearer, zeitdiskreter Systeme und mögliche Anwendungen vorgestellt. Ausgehend von den erforderlichen Grundbegriffen der Chaostheorie werden verschiedene Maße zur Detektion, Beschreibung und Visualisierung chaotischen Systemverhaltens motiviert, mathematisch definiert, physikalisch interpretiert und gedeutet: der Lyapunov Exponent, die Entropie, das Fourierspektrum und die Korrelation.
Als erste Anwendung basierend auf diesen Gütemaßen wird das Verhalten von linearen und nichtlinearen rekursiven Systemen visualisiert und verglichen. Es zeigt sich, dass bei rekursiven linearen Systemen der Übergang von einem stabilen in einen instabilen oder chaotischen Zustand kontinuierlich erfolgt, während dieser Übergang bei nicht linearen Systemen häufig abrupt auftritt. Unter Verwendung der vorgestellten Visualisierung lässt sich sehr genau nachvollziehen, welche Parameter und insbesondere welche Parameterübergänge dabei kritisch sind. Diese Kenntnis ist sehr wichtig für eine störfreie Systemparametrierung und eine erforderliche Arbeitspunktsuche.
In einer zweiten Anwendung wird chaotisches Systemverhalten als Generator optimal orthogonaler Signalfunktionen eingesetzt. Dazu wird die Rekursionsfolge in einem chaotischen Arbeitspunkt eines nichtlinearen rekursiven Systems als Musterfunktion eines statistischen Zufallsprozesses interpretiert: Je chaotischer das Systemverhalten und je kleiner die Varianz des Korrelationsmaßes desto besser können orthogonale Signalfolgen modelliert werden. Solche Signalfolgen sind von großer Bedeutung, wenn digitale Nachrichten über einen gestörten Kanal mit minimalem Daten- und Energieaufwand übertragen werden sollen.
Als abschließendes Beispiel wird die fraktale Bildcodierung vorgestellt. Sie beruht nicht wie die klassischen Verfahren der Bildcodierung (Prädiktion, Transformation) auf statistischen Eigenschaften des Bildsignals sondern ausschließlich auf Selbstähnlichkeit. Die Bildpunkte eines Bildblockes werden nicht durch deren Grauwerte sondern durch ein Fraktal beschrieben, wobei dieses Fraktal durch eine kontraktive, affine Abbildung der Grauwertinformation dargestellt wird. Dieses Fraktal, d.h. diese Abbildungsvorschrift oder Gesetzmäßigkeit beschreibt die vollständige Information des Bildes. Durch die Anwendung dieser fraktalen Darstellung wird das codierte Bild aus beliebigen Bildern gleicher Größe generiert.
Das vom Bundesministerium für Bildung und Forschung geförderte Forschungsprojekt "Stärken oder schützen? Über Inhalte, Methoden und kollektive Orientierungen sexualpädagogischer und gewaltpräventiver Praxis – ein Professionalisierungsbeitrag (SoS)" erforschte pädagogischen Praxen mit Schwerpunkt auf der Sexualpädagogik und der Prävention sexualisierter Gewalt. Dieses Memorandum fasst die Ergebnisse des Verbundvorhabens zusammen.
Im Rahmen des Projektes ist eine Plattform für Komponenten intelligenter Gebäudeautomationssysteme entwickelt worden und deren Brauchbarkeit wurde an zwei Demonstratoren aufgezeigt. Die entwickelten Komponenten werden gleichzeitig sowohl die Wirtschaftlichkeit als auch die Umweltverträglichkeit zukünftiger Produkte, beispielsweise intelligenter Raumbediengeräte oder intelligenter Türschlösser, wesentlich steigern.
Charakteristisches Merkmal der Plattform ist der geringe Energiebedarf. Die Kombination dieser Merkmale ermöglicht einen längeren drahtlosen Betrieb mit weniger Batteriezellen im Vergleich zu bestehenden Systemen. Die Steigerung der Wirtschaftlichkeit ergibt sich bereits durch die Ausdehnung der Wartungsintervalle für den Batteriewechsel und die Steigerung der Umweltverträglichkeit folgt aus der verringerten Menge anfallender Altbatterien. Darüber hinaus konnten unterschiedliche Energy-Harvesting-Technologien umgesetzt werden die einen geringeren Energieverbrauch der Applikation voraussetzen. Der Einsatz des Multi-Energy-Harvesting bietet das Potenzial zur weiteren Steigerung der Wirtschaftlichkeit und Umweltverträglichkeit der Plattform. Bei ausreichend verfügbarer Energie kann EnergyHarvesting die gesamte Energieversorgung einer Komponente gewährleisten und es kann auf Batterien vollständig verzichtet werden.
Der Bericht geht auf die Umsetzung des Konzepts und die Resultate ein. Dabei basieren die Kapitel des Berichts auf den Arbeitspaketen des Projekts. In den einzelnen Arbeitspaketen wird auf die Ergebnisse der Projektpartner bzw. gemeinsame Ergebnisse eingegangen. Am Berichtsende folgt eine Zusammenfassung und ein Ausblick auf die Verwendung der Ergebnisse durch die Projektpartner.
Der Anglizismus „Gender Studies“ bezeichnet in Deutschland faktisch Frauenforschung, also Forschung von Frauen über Frauen für Frauen. Es gibt sie seit mehr als drei Jahrzehnten. Die Zahl der Gender - Professuren beträgt mittlerweile ca. 250. Sie binden finanzielle Ressourcen in entsprechender Höhe. Das ist nicht der einzige, aber doch ein Grund, nach dem wissenschaftlichen Output dieser Forschungen zu fragen.
In Niedersachsen ist 2013 eine Forschungsevaluation zum Thema Gender Studies durchgeführt worden. Möglicherweise handelt es dabei um die erste und einzige Untersuchung ihrer Art. Der Ergebnisbericht dieser Evaluation wird hier dargestellt und kritisch kommentiert. Das Ergebnis der Kritik lautet, dass gar keine Evaluation des Forschungs-Outputs vorgenommen worden ist, sondern dass es der beauftragten Kommission nur darum ging, die Input-Strukturen zu stärken, indem mehr Stellen, mehr finanzielle Mittel und noch weniger Kontrollen gefordert wurden.
Fahrradfahren ist für viele Menschen ein wichtiger Mobilitätsfaktor. Sie können sich mit eigener Kraft in einem Umkreis von mehreren Kilometern bewegen. Im Alter wird das Fahrradfahren jedoch durch nachlassende Kraft und eingeschränkte Motorik zum Gleichgewichthalten eingeschränkt. Erschwerend kommt hinzu, dass diese Personen aus Vorsicht in der Regel kleinere Fahrgeschwindigkeiten bevorzugen. Bei niedrigen Geschwindigkeiten nimmt aber die Gleichgewichtsstabilität des Fahrrads ab und der Fahrer muss intensiver mit dem Lenker das Gleichgewicht kontrollieren. Moderne E-Bikes können die nachlassende körperliche Kraft kompensieren. Es bleibt aber das Problem des Gleichgewichthaltens beim Radfahren. Im folgenden Beitrag wird die Gleichgewichtsregelung von Fahrädern betrachtet. Dabei werden verschiedene Möglichkeiten der Gleichgewichtsregelung behandelt. Die Beurteilung der Verfahren erfolgt anhand der Stabilität und der Eigenschwingungen des geregelten Systems. Besonderes Augenmerk wird dabei auf die Stabilisierung des Bereichs geringer Fahrgeschwindigkeiten gelegt, da mit der nachlassenden Motorik oft auch eher geringere Fahrgeschwindigkeiten gewählt werden.
In diesem Bericht wird der Autobewerter Graja für Java-Programme vorgestellt. Wir geben einen Überblick über die unterstützten Bewertungsmethoden sowie die beteiligten Nutzerrollen. Wir gehen auf technische Einzelheiten und Randbedingungen der in Graja eingesetzten Bewertungsmethoden ein und zeigen die Einbindung von Graja in eine technische Gesamtarchitektur. An einem durchgehenden Beispiel stellen wir die Struktur einer Programmieraufgabe sowie die von Graja unterstützten Feedback-Möglichkeiten dar. Informationen zum bisherigen Einsatz des Graders runden den Bericht ab.
Ein Forschungsteam unter Leitung von Prof. Dr. Romppel hat zwischen 1.8.2011 und 31.7.2014 die Betreuung von Kindern in der Großtagespflege untersucht.
Mit der Neufassung des § 24 Abs. 2 SGB VIII zum 1. August 2013 besteht für alle Kinder ab dem 2. Lebensjahr ein Rechtsanspruch auf individuelle Förderung. Der erwarteten wachsenden Nachfrage nach Plätzen für Kinder unter 3 Jahren soll neben dem Krippenausbau auch mit einem Ausbau der Kindertagespflege, in Niedersachsen besonders auch der Großtagespflege, begegnet werden. Großtagespflegestellen sind rechtlich ein gleichwertiges Angebot zur Krippe. Die vorliegende Untersuchung in Niedersachsen geht zum einen der Frage nach, ob die Qualität der pädagogischen Arbeit in den Großtagespflegestellen diesem Anspruch genügen kann. Mit der TAS-R, einem Beobachtungs- und Bewertungsverfahren werden ausgewählte Großtagespflegestellen beurteilt und mit strukturierten Interviews zu ihrer Arbeit befragt. Zudem wird die telefonische und schriftliche Befragung aller Jugendämter Niedersachsens zur Organisation der Fachberatung sowie zur Struktur der finanziellen und fachlichen Unterstützung der Großtagespflegestellen vor Ort vorgestellt. Die Ergebnisse und Empfehlungen für die Verantwortlichen verweisen auf Handlungsbedarf.
Dieses Research Paper befasst sich mit dem Thema der Hochverfügbarkeit von Automatisierungsnetzwerken am Beispiel von PROFINET. Anhand von verschiedenen PROFINET-Topologien soll verdeutlicht werden, durch welche Maßnahmen eine hohe Verfügbarkeit erzielt werden kann. Zuvor wird mithilfe von grundliegenden Berechnungsbeispielen gezeigt, wie sich die Verfügbarkeit eines technischen Systems ermitteln lässt. Anschließend erfolgt für die Betrachtung der Gesamtverfügbarkeit einer PROFINET-Anlage eine genaue Bestimmung der jeweiligen Verfügbarkeitswerte für die einzelnen PROFINET-Geräte. Ein besonderes Augenmerk richtet sich hierbei speziell auf die Verwendung von IO Devices mit redundanten bzw. nicht-redundanten Interfacemodulen. Für das Erzielen einer hohen Verfügbarkeit sind nicht nur PROFINET-Geräte von entscheidender Bedeutung, sondern auch die Stuktur des PROFINET-Netzwerks. Im Zusammenspiel mit den bereits existierenden Redundanzprotokollen, die für die Verwaltung des Datenverkehrs zuständig sind, werden in diesem Bericht mehrere Topologien anhand verschiedener Eigenschaften und Voraussetzungen auf ihre Vor- und Nachteile untersucht und entsprechend ihrer Gesamtverfügbarkeitswerte bewertet.
Dieses Research Paper basiert im Wesentlichen auf der Bachelorarbeit von Herrn Sebastian Stelljes an der Hochschule Hannover. Im Nachgang zur Arbeit wurden noch weitere Aspekte untersucht und mit den Inhalten der Bachelorarbeit zu diesem Research Paper zusammengeführt.
Im Rahmen einer umfassenden Organisationanalyse durch das Projekt "Inklusive Beratung und Begleitung" der Hochschule Hannover wurde die Konzeptionalisierung und Praxis der Kooperationen der Jakob-Muth-Schule, anerkannte Tagesbildungsstätte aus Meppen einer näheren Betrachtung unterzogen und auf ihren Mehrwert im Kontext einer inklusiven Schullandschaft reflektiert. Anhand von Einzel- und Gruppeninterviews mit Lehrer*innen sowie pädagogischen Fachkräften konnten inklusionsförderliche und -hemmende Aspekte herausgearbeitet werden. Im Zuge einer resümierenden Betrachtung werden Ansatzpunkte zur Verbesserung der Zusammenarbeit und pädagogischen Praxis formuliert und zur Diskussion gestellt.
Im Rahmen des vom Bundesministerium für Wirtschaft und Technologie geförderten Forschungsprojektes INSA sollen wichtige Beiträge zur Verbesserung der IT-Sicherheit von Produktionsanlagen insbesondere in kleinen und mittelständischen Unternehmen (KMU) realisiert und erprobt werden.
Die IT-Sicherheit von Produktionsanlagen wird zu einer immer wichtigeren Komponente des Schutzes von Unternehmen gegen Cyber-Attacken. Neben Angriffen aus dem Internet sind dabei interne Angriffsquellen in Betracht zu ziehen. Gängige Vorgehensmodelle, wie z. B. die VDI-Richtlinie 2182, setzen dabei unter anderem auf eine wiederkehrende Analyse der Bedrohungen und auf die Implementierung entsprechender Schutzmaßnahmen. Die Durchführung einer solchen wiederkehrenden Gefährdungsanalyse ist mit einem wiederkehrenden manuellen Aufwand verbunden, weshalb kleine und mittlere Unternehmen die Durchführung dieser Maßnahmen häufig meiden. Ziel des Projektes ist die Unterstützung kleiner und mittlerer Unternehmen bei der Durchführung entsprechender Bedrohungsanalysen zu unterstützen.
Der Ansatz des Projektes beruht auf der automatisierten bzw. teilautomatisierten Erfassung der installierten Automatisierungskomponenten (Assets). Danach kann für bekannte Standardkomponenten durch die Verwendung wissensbasierter Methoden eine Beurteilung der Bedrohung einer Automatisierungsanlage erfolgen. Hierfür wird fachspezifisches Wissen erfasst und verarbeitet wird. Diese Methoden können bei Bedarf in die Engineering-Oberfläche einer Automatisierungsanlage intergiert werden.
Die vorliegende Arbeit ist entstanden im Rahmen eines von Michael Simon betreuten studentischen Projektes im Studiengang Diplom-Pflegemanagement. Ziel des gemeinsamen Projektes war eine Bestandsaufnahme und Evaluation internetbasierter Krankenhaussuchmaschinen. Das Projekt bestand aus drei Teilprojekten, startete im Wintersemester 2006/2007 und schloss im Frühjahr 2008 mit einem gemeinsamen Projektbericht ab. Die jetzt vorgelegte Veröffentlichung ist eine überarbeitete Fassung des Projektberichts, aktualisiert auf den Stand von Mitte 2009.
Enthält: "Der Bedarf von Patienten an Informationen über die Qualität der Krankenhausbehandlung" von Gert Freiwald, "Qualitätsdimensionen und Qualitätsindikatoren der Krankenhausbehandlung" von Jörn Magdeburg und "Anforderungen an und Qualitätskriterien für Krankenhaus-Suchmaschinen" von Frank Fihlon