TY - RPRT U1 - Forschungsbericht A1 - Garmann, Robert T1 - Ein Datenformat für variable Programmieraufgaben N2 - Automatisiert bewertbare Programmieraufgaben dienen Studierenden zum Einüben von Programmierfertigkeiten. Die Verfügbarkeit von mehreren verschiedenen Aufgaben, die denselben Stoff abdecken, ist für verschiedene Zwecke hilfreich. Eine Programmieraufgabe lässt sich durch Einführung von Variationspunkten variabel gestalten. Die hierbei entstehende Aufgabenschablone ist Ausgangsbasis der sogenannten Materialisierung, der automatischen Generierung konkreter Aufgaben. Der vorliegende Beitrag stellt ein Datenmodell mit dem Ziel vor, sowohl die Auswahl von Variationspunktwerten als auch die automatische Materialisierung auf verschiedenen Systemen in verschiedenen Programmiersprachen zu unterstützen. Das vorgeschlagene Datenformat ermöglicht Lernmanagementsystemen die Unterstützung variabler Programmieraufgaben bei gleichzeitiger Unkenntnis des eingesetzten Autobewerters. KW - individuelle Programmieraufgaben KW - ProFormA KW - Autobewerter KW - E-Assessment KW - automatisierte Bewertung KW - Programmierung KW - E-Learning KW - Computerunterstütztes Lernen KW - XML KW - Übung KW - Lernaufgabe Y2 - 2019 UN - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bsz:960-opus4-13972 U6 - https://dx.doi.org/10.25968/opus-1397 DO - https://dx.doi.org/10.25968/opus-1397 ER - TY - RPRT U1 - Forschungsbericht A1 - Garmann, Robert T1 - Ein Format für Bewertungsvorschriften in automatisiert bewertbaren Programmieraufgaben N2 - Automatisiert bewertbare Programmieraufgaben definieren Tests, die auf Einreichungen angewendet werden. Da Testergebnisse nicht mit Bewertungsergebnissen gleichzusetzen sind, schlagen wir ein Beschreibungsformat vor, das Testergebnisse auf Bewertungsergebnisse abbildet. Lehrkräfte können die Abbildungsvorschrift an ihren Lehrkontext anpassen. Der Vorschlag ist unabhängig von den beteiligten Autobewertern, von den eingesetzten Benutzungsschnittstellen und von der zu lernenden Programmiersprache einsetzbar. Das Format basiert auf verschachtelten Bewertungskategorien, welche um ein Nullifikationen-Konzept ergänzt werden. Letzteres sucht einen Ausgleich im Spannungsfeld zwischen einem für Studierende einfach verständlichen Bewertungsergebnis und den Eigenarten der eigentlich nicht für Bewertungszwecke erfundenen, nichtsdestotrotz regelmäßig und sinnvollerweise für Bewertungszwecke eingesetzten Softwarewerkzeuge. KW - E-Assessment KW - Programmieraufgabe KW - ProFormA KW - Bewertungsschema KW - Softwaretest KW - Programmierung KW - E-Learning KW - Computerunterstütztes Lernen KW - XML KW - Übung KW - Lernaufgabe Y2 - 2019 UN - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bsz:960-opus4-13432 U6 - https://dx.doi.org/10.25968/opus-1343 DO - https://dx.doi.org/10.25968/opus-1343 ER - TY - RPRT U1 - Forschungsbericht A1 - Garmann, Robert T1 - Spezifikation von Variabilität in automatisch bewerteten Programmieraufgaben N2 - Wir beschreiben eine Möglichkeit, Variationspunkte und deren Varianten in automatisiert bewerteten Programmieraufgaben zu spezifizieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält. Die Varianten werden automatisch gebildet, indem an definierten Variationspunkten immer wieder andere, konkrete Werte eingesetzt werden. Schon bei sehr einfachen Aufgaben bestehen Abhängigkeiten zwischen den einzelnen Variationspunkten, die bei der Wahl der konkreten Werte zu berücksichtigen sind. Zudem kann die Menge der gültigen Werte auch bei einfachen Aufgaben so groß werden, dass die vollständige Auflistung aller Wertkombinationen an Ressourcengrenzen scheitert. Die vorgestellte Spezifikation verwendet eine kompakte und für Aufgabenautoren verständliche Sprache, die eine automatische Auswahl von korrekten, den Abhängigkeiten gehorchenden Wertekombinationen ermöglicht. Die Sprache ist unabhängig von den Erfordernissen eines bestimmten Autobewerters und versetzt Frontend- und Backendsysteme in verschiedenen technischen Ökosystemen in die Lage, ausgewählte Werte einer sehr großen Wertemenge zu generieren, deren Abhängigkeiten zu prüfen, sowie ggf. bestimmte Wertbelegungen in einem benutzerfreundlichen Dialog auszuwählen. Wir unterstützen Variationspunkte mit endlichen Mengen vorzugebender diskreter Werte sowie kontinuierliche Wertebereiche, die durch eine vorzugebende Anzahl von Samples diskretisiert werden. Wir beschäftigen uns insbesondere mit der Frage, wie lange Auflistungen gültiger Wertkombinationen durch die Angabe von Ableitungsvorschriften ersetzt werden können. Ein besonderes Augenmerk legen wir auf eine redundanzfreie Beschreibung der Variantenmenge. Die Notation setzt auf XML und Javascript in der Annahme, dass diese Technologien in allen beteiligten Systemen zur Verfügung stehen können. KW - Individuelle Programmieraufgaben KW - Grader KW - Autobewerter KW - E-Assessment KW - Variabilität KW - Programmierung KW - E-Learning KW - Computerunterstütztes Lernen KW - Übung KW - Lernaufgabe Y2 - 2018 UN - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bsz:960-opus4-11893 U6 - https://dx.doi.org/10.25968/opus-1189 DO - https://dx.doi.org/10.25968/opus-1189 ER - TY - RPRT U1 - Forschungsbericht A1 - Garmann, Robert T1 - Eine Java-Bibliothek zur Spezifikation von Variabilität in automatisch bewerteten Programmieraufgaben N2 - Wir führen schrittweise in den Einsatz einer Java-Bibliothek ein, um Variationspunkte und deren Wertemengen in automatisiert bewerteten Programmieraufgaben zu spezifizieren und als XML-Datei zu exportieren. Solche Variationspunkte kommen bei individualisierbaren Programmieraufgaben zum Einsatz, bei denen jede Studentin und jeder Student eine eigene Variante einer Programmieraufgabe erhält. KW - Individuelle Programmieraufgaben KW - Grader KW - Autobewerter KW - E-Assessment KW - Variabilität KW - Programmierung KW - E-Learning KW - Computerunterstütztes Lernen KW - Java KW - XML KW - Übung KW - Lernaufgabe KW - Java KW - XML Y2 - 2018 UN - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bsz:960-opus4-11874 U6 - https://dx.doi.org/10.25968/opus-1187 DO - https://dx.doi.org/10.25968/opus-1187 ER - TY - RPRT U1 - Forschungsbericht A1 - Garmann, Robert T1 - Graja - Autobewerter für Java-Programme N2 - In diesem Bericht wird der Autobewerter Graja für Java-Programme vorgestellt. Wir geben einen Überblick über die unterstützten Bewertungsmethoden sowie die beteiligten Nutzerrollen. Wir gehen auf technische Einzelheiten und Randbedingungen der in Graja eingesetzten Bewertungsmethoden ein und zeigen die Einbindung von Graja in eine technische Gesamtarchitektur. An einem durchgehenden Beispiel stellen wir die Struktur einer Programmieraufgabe sowie die von Graja unterstützten Feedback-Möglichkeiten dar. Informationen zum bisherigen Einsatz des Graders runden den Bericht ab. KW - Autobewerter KW - Programmieraufgabe KW - Grader KW - Java KW - e-Assessment KW - Programmierung KW - Softwaretest KW - E-Learning KW - Computerunterstütztes Lernen KW - Java KW - Konfiguration KW - Softwarewartung KW - Übung KW - Lernaufgabe KW - Softwarewerkzeug KW - JUnit Y2 - 2016 UN - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bsz:960-opus4-9418 U6 - https://dx.doi.org/10.25968/opus-941 DO - https://dx.doi.org/10.25968/opus-941 SP - 20 S1 - 20 ER - TY - RPRT U1 - Forschungsbericht A1 - Garmann, Robert T1 - Bewertungsaspekte und Tests in Java-Programmieraufgaben für Graja im ProFormA-Aufgabenformat N2 - Ein Autobewerter für von Studierenden eingereichte Programme führt die im ProFormA-Aufgabenformat sequentiell spezifizierten "Tests" aus, um die Einreichung zu prüfen. Bzgl. der Interpretation und Darstellung der Testausführungsergebnisse gibt es derzeit keinen graderübergreifenden Standard. Wir beschreiben eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten, die nach didaktischen Aspekten gruppiert ist und Referenzen auf die Testausführungen besitzt. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detailaufschlüsselung der Bewertungsaspekte müssen in der Konsequenz Testausführungen in Teilausführungen aufgebrochen werden. Wir illustrieren unseren Vorschlag unter Einsatz der Testwerkzeuge Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter. KW - e-Assessment KW - Programmieraufgabe KW - Autobewerter KW - Java KW - Grader KW - Programmierung KW - Softwaretest KW - E-Learning KW - Computerunterstütztes Lernen KW - Java KW - Konfiguration KW - Softwarewartung KW - Übung KW - Lernaufgabe KW - Softwarewerkzeug KW - JUnit Y2 - 2016 UN - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bsz:960-opus4-8344 U6 - https://dx.doi.org/10.25968/opus-834 DO - https://dx.doi.org/10.25968/opus-834 SP - 27 S1 - 27 ER - TY - RPRT U1 - Forschungsbericht A1 - Garmann, Robert T1 - E-Assessment mit Graja – ein Vergleich zu Anforderungen an Softwaretestwerkzeuge N2 - Die automatisierte Bewertung studentischer Übungsabgaben in Programmieren-Lehrveranstaltungen weist Parallelen zum automatisierten Test in der professionellen Softwareentwicklung auf. Allerdings muss ein Autobewerter (Grader), um lernförderlich zu sein, andere Zielsetzungen erfüllen als üblicherweise im professionellen Softwaretest eingesetzte Analyse- und Testwerkzeuge. Dieser Beitrag identifiziert wesentliche Unterschiede und beschreibt, wie sich diese Unterschiede in dem an der Hochschule Hannover entwickelten und seit mehreren Jahren im Einsatz befindlichen Autobewerter "Graja" niederschlagen. KW - computer based assessment KW - Programmieraufgabe KW - Autobewerter KW - Grader KW - Computerunterstütztes Lernen KW - Softwaretest KW - Programmierung KW - E - Learning KW - Java KW - Konfiguration KW - Softwarewartung KW - JUnit KW - Lernaufgabe KW - Softwarewerkzeug KW - Übung Y2 - 2015 UN - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bsz:960-opus4-6180 U6 - https://dx.doi.org/10.25968/opus-618 DO - https://dx.doi.org/10.25968/opus-618 SP - 15 S1 - 15 ER -