Refine
Year of publication
Document Type
- Article (29)
- Periodical Part (29)
- Book (8)
- Report (7)
- Part of a Book (5)
- Conference Proceeding (5)
- Working Paper (3)
- Preprint (2)
- Course Material (1)
Has Fulltext
- yes (89)
Is part of the Bibliography
- no (89)
Keywords
- Milchwirtschaft (16)
- Molkerei (14)
- Bibliothek (12)
- E-Learning (4)
- Kostenverlauf (4)
- Vernehmung (4)
- World Wide Web 2.0 (4)
- Belehrung (3)
- Business Intelligence (3)
- Informationskompetenz (3)
Institute
- Sonstige Einrichtungen (89) (remove)
„Grappa“ ist eine Middleware, die auf die Anbindung verschiedener Autobewerter an verschiedene E-Learning-Frontends respektive Lernmanagementsysteme (LMS) spezialisiert ist. Ein Prototyp befindet sich seit mehreren Semestern an der Hochschule Hannover mit dem LMS „moodle“ und dem Backend „aSQLg“ im Einsatz und wird regelmäßig evaluiert. Dieser Beitrag stellt den aktuellen Entwicklungsstand von Grappa nach diversen Neu- und Weiterentwicklungen vor. Nach einem Bericht über zuletzt gesammelte Erfahrungen mit der genannten Kombination von Systemen stellen wir wesentliche Neuerungen der moodle-Plugins, welche der Steuerung von Grappa aus moodle heraus dienen, vor. Anschließend stellen wir eine Erweiterung der bisherigen Architektur in Form eines neuentwickelten Grappa-php-Clients zur effizienteren Anbindung von LMS vor. Weiterhin berichten wir über die Anbindung eines weiteren Autobewerters „Graja“ für Programmieraufgaben in Java. Der Bericht zeigt, dass bereits wichtige Schritte für eine einheitliche Darstellung automatisierter Programmbewertung in LMS mit unterschiedlichen Autobewertern für die Studierenden absolviert sind. Die praktischen Erfahrungen zeigen aber auch, dass sowohl bei jeder der Systemkomponenten individuell, wie auch in deren Zusammenspiel via Grappa noch weitere Entwicklungsarbeiten erforderlich sind, um die Akzeptanz und Nutzung bei Studierenden sowie Lehrenden weiter zu steigern.
An important part of computed tomography is the calculation of a three-dimensional reconstruction of an object from series of X-ray images. Unfortunately, some applications do not provide sufficient X-ray images. Then, the reconstructed objects no longer truly represent the original. Inside of the volumes, the accuracy seems to vary unpredictably. In this paper, we introduce a novel method to evaluate any reconstruction, voxel by voxel. The evaluation is based on a sophisticated probabilistic handling of the measured X-rays, as well as the inclusion of a priori knowledge about the materials that the object receiving the X-ray examination consists of. For each voxel, the proposed method outputs a numerical value that represents the probability of existence of a predefined material at the position of the voxel while doing X-ray. Such a probabilistic quality measure was lacking so far. In our experiment, false reconstructed areas get detected by their low probability. In exact reconstructed areas, a high probability predominates. Receiver Operating Characteristics not only confirm the reliability of our quality measure but also demonstrate that existing methods are less suitable for evaluating a reconstruction.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Diversity wird vielerorts als Querschnittsaufgabe erfolgreich in die Organisationsentwicklung von Hochschulen integriert. Aus der Perspektive einer mittelgroßen Hochschule sollen die Hürden dabei näher betrachtet werden. Implementierte Maßnahmen einer diversity-reflexiven und habitussensiblen Lehre für die heterogenen Studierenden eines ingenieurswissenschaftlichen Studiengangs werden analysiert und Reaktionen auf den Versuch eines Kulturwandels eingefangen. Dabei wird hinterfragt, wie nachhaltig ein solches Vorgehen sein kann. Mit qualitativem Material wird dabei die Perspektive der bisher in den Hochschulen unterrepräsentierten Studierenden eingeholt.
4753 Webseiten wurden mit der Open-Source-Software webXray auf die Einbindung von Elementen untersucht, durch die Dritte über den Abruf einer Webseite durch einen Browser von einem Server informiert werden können. 54,77 % der analysierten Webseiten wiesen solche Third Party Elements (TPE) auf. 18,94 % setzten Cookies ein, 44,81 % banden Javascript von Drittanbietern ein. Google-Services dominieren die TPE-Anbieterliste, sie werden in 30,02 % der untersuchten Webseiten verwendet
Das Forschungsinformationssystem VIVO bietet als Linked-Data-basiertes System die Möglichkeit, Daten aus anderen Quellen wiederzuverwenden. In der Praxis kann man dabei auf Konvertierungsprobleme stoßen. Oft liegen Daten nur in tabellarischem Format vor, z.B. als CSV-Datei. Zur Konvertierung dieser Daten existieren verschiedene Werkzeuge, viele dieser Werkzeuge erfordern jedoch entweder spezielle technische Umgebungen (oft Linux-Systeme) oder sie sind in der Bedienung sehr anspruchsvoll. Im Artikel wird ein Workflow für die Konvertierung von Daten aus GeoNames für VIVO mit Google Refine beschrieben.
Libworld. Biblioblogs global
(2007)
Zuerst wird auf die Wichtigkeit bibliotheks- und informationswissenschaftlicher Fachkommunikation eingegangen. Die Eignung von Blogs zur Kommunikation innerhalb einer wissenschaftlichen Disziplin wird hervorgehoben. Es folgt eine allgemeine Typologie der Blogger. Abschließend wird das Projekt LibWorld des Fachblogs Infobib vorgestellt. Im Rahmen dieses Projektes stellen Gastautoren aus zahlreichen Ländern die Biblioblogosphäre (bibliotheksrelevante Blogs) ihrer Heimat vor.
A German university has developed a learning information system to improve information literacy among German students. An online tutorial based on this Lerninformationssystem has been developed. The structure of this learning information system is described, an online tutorial based on it is illustrated, and the different learning styles that it supports are indicated.
In diesem Working Paper sollen wesentliche Erkenntnisse und Forderungen aus der - bisher vor allem englischsprachigen - Diskussion über die webgerechte Freigabe öffentlicher Daten zusammengefaßt werden. Das Paper versteht sich als Ausgangspunkt für Diskussion und Strategieentwicklung, ohne letztere selbst leisten zu können. Die Entwicklungspotentiale von Open Government Data (OGD) sollen zunächst aus der Sicht verschiedener Beteiligter dargestellt werden. Mit den in den Sebastopol-Prinzipien formulierten grundlegenden Anforderungen an OGD wird der Begriff schließlich definiert. Anhand von Veröffentlichungen des W3C kann schließlich die Bedeutung der Verwendung und (Weiter-)Entwicklung offener Standards für OGD gezeigt werden, daneben aber auch die Hauptprobleme eines entsprechenden Change Managements im öffentlichen Sektor. Abschließend werden einige modellhafte Beispiele für die praktische Umsetzung von OGD angeführt.
Der Leitfaden dient als Wegweiser für eine strukturierte Anhörung von Kindern im Alter von drei bis 14 Jahren im forensischen Kontext. Ziel soll es sein, kindgerecht möglichst umfangreiche und zuverlässige Informationen zu erhalten. Er gliedert sich in 1) Beispielformulierungen und prägnante Informationen sowie Erklärungen zur praktischen Befragung von Kindern, die in Form von einzelnen, aufeinanderfolgenden Karten präsentiert werden und 2) einen theoretischen Teil, der entwicklungspsychologische Aspekte, rechtliche Rahmenbedingungen, sowie Lösungsansätze für häufig aufkommende Fragen und Probleme bei der Anhörung von Kindern beinhaltet. Die Karten folgen dem typischen Verlauf einer strukturierten Anhörung: Belehrung, Themenneutrales Training zur Befragung, Tatrelevante Anhörung, Verständnisfragen. Sie können am Bildschirm eingeblendet, oder in ausgedruckter Form verwendet werden. Zu jeder Karte finden sich entsprechende Erklärungen zur Vertiefung. Der gesamte Leitfaden orientiert sich an neuesten wissenschaftlichen Erkenntnissen aus dem Bereich der Vernehmungs‐ und Entwicklungspsychologie sowie an relevanten gesetzlichen Grundlagen. Er eignet sich für Polizeibeamte, Richter, Staatsanwälte, Anwälte, forensische Gutachter und andere Personen, die Befragungen von Kindern im forensischen Kontext durchführen.
Dieser Leitfaden dient als Hilfsmittel für die Vernehmung von erwachsenen Zeugen und Beschuldigten. Die Anwendung dieser Struktur folgt dem typischen Ablauf einer Vernehmung und wird durch ein spezielles Kartenformat unterstützt.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen bewährte praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Die gesamte Methodik der Befragung orientiert sich an neuesten wissenschaftlichen Erkenntnissen. Die Kartenform wurde gewählt, damit beispielsweise Polizeibeamte in der Lage sind, an jedem Ort und zu jeder Zeit eine Vernehmung durchfzuführen. Die vorgegebene Struktur trägt dazu bei, dass rechtliche Rahmenbedingungen eingehalten werden und die Verwertbarkeit der Aussagen vor Gericht erreicht wird. Im letzten Teil werden Fragen zu diesem Verfahren beantwortet sowie Hinweise zu weiterführender Literatur für den interessierten Leser gegeben.
Der vorliegende Leitfaden ist eine Hilfestellung zur Vernehmung von erwachsenen Zeugen und Beschuldigten. Er wurde an der Hochschule für Polizei Baden-Württemberg interdisziplinär erstellt und berücksichtigt neueste wissenschaftliche Erkenntnisse sowie rechtliche, kriminalistische und psychologische Aspekte.
Beginnend mit konkreten Beispielformulierungen für die Belehrung folgen praktikable Fragen, die entsprechend eines roten Fadens durch die Vernehmung leiten. Zusätzlich finden sich zu jeder Karte ergänzende Erläuterungen. Durch diese Methode können bei aussagewilligen Personen umfangreiche und qualitativ hochwertige Aussagen generiert werden. Diese ermöglichen die spätere Bewertung des Wahrheitsgehaltes der Aussagen.
Wir hoffen, dass Ihnen damit die praktische Vernehmung erleichtert wird und Sie gute Ergebnisse erzielen werden.
Wir freuen uns über Ihr Feedback!
This formal guide serves as a tool for questioning adult witnesses and accused persons. The utilisation of this framework follows the standard procedure of questioning and is underpinned by a purpose-built set of flash cards. Starting with concrete sample phrasings for informing the person of their rights, tried-and-tested questions and queries follow and lead through the questioning like the central theme. In addition, you will find supplementary explanations for each flash card. This technique enables law-enforcement professionals to obtain comprehensive statements of high quality from individuals willing to testify, which in turn permits a subsequent evaluation of truthfulness of statements to be conducted. The entire technique of questioning is geared towards the most recent scientific consensus. We selected the flash card format in order to allow police officers, for instance, to be able to conduct a questioning at any time and in whichever context. The specified structure contributes to ensuring that the general legislative framework is upheld and that we achieve statements that are considered solid in court. The final section addresses FAQs about this questioning technique, as well as references to further reading for those wishing to delve deeper.
In der Zentralbibliothek der Hochschule Hannover wurde ab Wintersemester 2012 ein Experiment mit Roving Librarians durchgeführt, um die Auskunftsqualität zu verbessern. Die Mitarbeiterinnen und Mitarbeiter der Bibliothek liefen zu diesem Zweck mit einem Netbook ausgerüstet durch den Benutzungsbereich der Bibliothek, um Fragen der Nutzer und Nutzerinnen gleich dort aufzufangen, wo sie entstehen. Der Versuch kann nicht als erfolgreich bezeichnet werden, doch konnten während des Experiments wertvolle Einblicke in Nutzerwünsche gewonnen werden.
Die Kostenanalyse zur Bestimmung des Einflusses der Kapazitätsgröße und -auslastung auf den Kostenverlauf von Hilfskostenstellen (Hilfsabteilungen) erfolgt mit Hilfe von Modellkalkulationen. Eine spezielle Form der Teilkostenrechnung ermöglicht die Zurechnung der Kosten nach Kostenkategorien (jahresfix, tagesfix, ggf. chargenfix und mengenproportional) auf die entsprechenden Kostenträger (z. B. Kälte, Dampf) der jeweiligen Hilfskostenstelle. Durch computergestützte Simulationen können die Auswirkungen der verschiedenen Kosteneinflußfaktoren im einzelnen quantifiziert werden.
Mit der Analyse des Kostenverlaufes in der Abteilung "Speisequark" wird die Aktualisierung der Modellabteilungsrechnungen fortgeführt. In drei Unterabteilungen - Reifungslager, Produktion und Abpackung - werden aus der Produktgruppe Speisequark die drei Produkte Speisequark mager, 500-g-Becher (P1), Speisequark mager, 250-g-Becher (P2) und Speisequark 40 % Fett i. Tr., 250-g-Becher (P3) hergestellt und hinsichtlich ihrer Produktionskosten untersucht. Die Bestimmung der Abteilungs- und Stückkosten erfolgt in drei Modellgrößen, deren Kapazitäten entsprechend der Leistung des Quarkseparators für Quarkmengen zwischen 1.100 und 4.400 kg Quark/Stunde ausgelegt sind. In Abhängigkeit vom Beschäftigungsgrad, der für Werte zwischen 28 und 100 % simuliert wird, werden Kosten für Produktionsmengen zwischen 1.600 und 33.100 t Quark/Jahr ermittelt. Die in Ansatz gebrachten Investitionen betragen im Modell 1 4,8 Mio. DM, die sich im Modell 3 auf 7,9 Mio. DM erhöhen. Bezogen auf die jeweilige Outputmenge ergeben sich aus den Investitionssummen spezifische Investitionen, die mit zunehmender Modellgröße von 768 DM auf 323 DM/t Quark abfallen.
Kostenanalysen für einen 2-Schicht-Betrieb an 250 Produktionstagen im Jahr zeigen, daß die modellspezifischen Gesamtkosten z. B. für P1 zu 67 % (Modell 1) bis 78 % (Modell 3) von den Rohstoffkosten bestimmt werden. 14-6 % entfallen auf die Anlagekosten, 11-12 % auf die Verpackungskosten, und mit 6-2 % sind die Personalkosten an den modellspezifischen Gesamtkosten beteiligt. Die Kosten für Energie sowie Hilfs- und Betriebsstoffe werden in allen Modellen nur mit einem Anteil von 1 % an den Gesamtkosten ausgewiesen. Unter dem Einfluß von Kapazitätsauslastung und Kapazitätsgröße lassen sich Kostendegressionseffekte erzielen, die durch Simulationsrechnungen für verschiedene Variationen von Beschäftigungen belegt werden. Die Kostenanalyse macht deutlich, daß mit zunehmender Modellgröße und steigender Produktionsmenge erhebliche Stückkostendegressionen zu erzielen sind, wobei der Einfluß der Modellgröße auf die Kostendegression höher ist als derjenige des Beschäftigungsgrades.