@masterthesis{Dangendorf2019, type = {Bachelor Thesis}, author = {Dangendorf, Kilian}, title = {Entwurf und Implementierung eines Konverters f{\"u}r Aufgaben von LON-CAPA nach Moodle-STACK}, doi = {10.25968/opus-1458}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:960-opus4-14584}, school = {Hochschule Hannover}, year = {2019}, abstract = {An der Hochschule Hannover soll die Lernplattform LON-CAPA von Moodle-STACK abgel{\"o}st werden. Dazu werden Aufgaben von LON-CAPA nach Moodle-STACK konvertiert. Durch die Entwicklung eines Konverters kann ein großer Teil dieser Arbeit automatisiert erfolgen. Aufgrund der potentiellen Komplexit{\"a}t von LON-CAPA-Aufgaben ist nicht jede Aufgabe in vollem Umfang zu {\"u}bersetzen und eine manuelle Nacharbeit notwendig. In dieser Arbeit werden die LON-CAPA-Antworttypen numerical, formula und math response analysiert. Es wird untersucht, wie LON-CAPA-Aufgabenelemente einzeln umgewandelt werden k{\"o}nnen und welche Parameter im Moodle-STACK-Format gesetzt werden m{\"u}ssen, um eine {\"a}quivalente Aufgabe in Moodle-STACK zu erhalten. Die technische Umsetzung erfolgt in Java. Der modulare Aufbau sieht Wartbarkeit und Weiterentwicklung vor. Auf GitHub steht die Implementierung unter der GPL (GNU General Public License) zur Verf{\"u}gung: https://github.com/kiliandangendorf/lc2mdl}, subject = {Umsetzung }, language = {de} } @techreport{Garmann2015, author = {Garmann, Robert}, title = {E-Assessment mit Graja - ein Vergleich zu Anforderungen an Softwaretestwerkzeuge}, doi = {10.25968/opus-618}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:960-opus4-6180}, pages = {15}, year = {2015}, abstract = {Die automatisierte Bewertung studentischer {\"U}bungsabgaben in Programmieren-Lehrveranstaltungen weist Parallelen zum automatisierten Test in der professionellen Softwareentwicklung auf. Allerdings muss ein Autobewerter (Grader), um lernf{\"o}rderlich zu sein, andere Zielsetzungen erf{\"u}llen als {\"u}blicherweise im professionellen Softwaretest eingesetzte Analyse- und Testwerkzeuge. Dieser Beitrag identifiziert wesentliche Unterschiede und beschreibt, wie sich diese Unterschiede in dem an der Hochschule Hannover entwickelten und seit mehreren Jahren im Einsatz befindlichen Autobewerter "Graja" niederschlagen.}, subject = {Computerunterst{\"u}tztes Lernen}, language = {de} } @inproceedings{GarmannFrickeBott2016, author = {Garmann, Robert and Fricke, Peter and Bott, Oliver J.}, title = {Bewertungsaspekte und Tests in Java-Programmieraufgaben f{\"u}r Graja im ProFormA-Aufgabenformat}, series = {Lucke, U., Schwill, A. \& Zender, R. (Hrsg.), DeLFI 2016 - Die 14. E-Learning Fachtagung Informatik. Bonn: Gesellschaft f{\"u}r Informatik e.V. (S. 215-220)}, booktitle = {Lucke, U., Schwill, A. \& Zender, R. (Hrsg.), DeLFI 2016 - Die 14. E-Learning Fachtagung Informatik. Bonn: Gesellschaft f{\"u}r Informatik e.V. (S. 215-220)}, isbn = {978-3-88579-656-5}, issn = {1617-5468}, url = {http://nbn-resolving.de/urn:nbn:de:bsz:960-opus4-12819}, pages = {215 -- 220}, year = {2016}, abstract = {Das ProFormA-Aufgabenformat wurde eingef{\"u}hrt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu erm{\"o}glichen. Ein Autobewerter f{\"u}hrt im ProFormA-Aufgabenformat spezifizierte „Tests" sequentiell aus, um ein vom Studierenden eingereichtes Programm zu pr{\"u}fen. F{\"u}r die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein grader{\"u}bergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausf{\"u}hrungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter f{\"u}r Java-Programme. Je nach gew{\"u}nschter Detaillierung der Bewertungsaspekte sind Testausf{\"u}hrungen in Teilausf{\"u}hrungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.}, subject = {Java }, language = {de} }