Refine
Document Type
- Report (9)
- Conference Proceeding (5)
Language
- German (14)
Has Fulltext
- yes (14)
Is part of the Bibliography
- no (14)
Keywords
- Programmierung (11)
- Computerunterstütztes Lernen (10)
- E-Learning (10)
- Grader (10)
- Autobewerter (9)
- Lernaufgabe (8)
- Übung <Hochschule> (8)
- E-Assessment (6)
- Programmieraufgabe (6)
- Softwaretest (6)
- ProFormA (4)
- JUnit (3)
- Java (3)
- Java <Programmiersprache> (3)
- Konfiguration <Informatik> (3)
- Softwarewartung (3)
- Softwarewerkzeug (3)
- Variabilität (3)
- XML (3)
- e-Assessment (3)
- Bewertungsschema (2)
- Graja (2)
- Individuelle Programmieraufgaben (2)
- Java <Programmiersprache> (2)
- Übung <Hochschule> (2)
- Automatisierte Bewertung (1)
- Automatisierte Programmbewertung (1)
- Bewertungsaspekt (1)
- Bewertungsmaßstab (1)
- Computerunterstützter Unterricht (1)
- E - Assessment (1)
- E - Learning (1)
- EAssessment (1)
- Grappa (1)
- Grundschule (1)
- Informatikunterricht (1)
- Interdisziplinarität (1)
- Lernmanagementsystem (1)
- Middleware (1)
- Plugin (1)
- ProFormA-Aufgabenformat (1)
- Programmieraufgaben (1)
- Programmieren für Kinder (1)
- Schulinformatik (1)
- Scratch <Programmiersprache> (1)
- ScratchJr (1)
- automatisch bewertete Programmieraufgaben (1)
- automatisierte Bewertung (1)
- computer based assessment (1)
- fächerübergreifendes Lernen (1)
- individuelle Programmieraufgabe (1)
- individuelle Programmieraufgaben (1)
Institute
- Fakultät IV - Wirtschaft und Informatik (14) (remove)
Die automatisierte Bewertung studentischer Übungsabgaben in Programmieren-Lehrveranstaltungen weist Parallelen zum automatisierten Test in der professionellen Softwareentwicklung auf. Allerdings muss ein Autobewerter (Grader), um lernförderlich zu sein, andere Zielsetzungen erfüllen als üblicherweise im professionellen Softwaretest eingesetzte Analyse- und Testwerkzeuge. Dieser Beitrag identifiziert wesentliche Unterschiede und beschreibt, wie sich diese Unterschiede in dem an der Hochschule Hannover entwickelten und seit mehreren Jahren im Einsatz befindlichen Autobewerter "Graja" niederschlagen.
Wir beschreiben und belegen anhand eines Pilotprojekts in einer zweiten Grundschulklasse, dass Informatik in der Grundschule das Potential hat, fächerübergreifend Kompetenzen in fast allen Fächern des Grundschulkanons zu fördern. Wir erläutern mehrere Unterrichtseinheiten eines ScratchJr-Einsatzes und dokumentieren positive Wirkungen auf vielfältige Kompetenzen, die Kinder im Grundschulalter erwerben sollen. Der Beitrag stellt einen Erfahrungsbericht und qualitative Ergebnisse zur Verfügung. Eingesetzte Arbeitsmaterialien werden online zur Verfügung gestellt. Die bisherigen positiven Erfahrungen haben uns veranlasst, die Arbeit mit ScratchJr in der Pilotklasse auf mehrere Monate auszudehnen.
Ein Autobewerter für von Studierenden eingereichte Programme führt die im ProFormA-Aufgabenformat sequentiell spezifizierten "Tests" aus, um die Einreichung zu prüfen. Bzgl. der Interpretation und Darstellung der Testausführungsergebnisse gibt es derzeit keinen graderübergreifenden Standard. Wir beschreiben eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten, die nach didaktischen Aspekten gruppiert ist und Referenzen auf die Testausführungen besitzt. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detailaufschlüsselung der Bewertungsaspekte müssen in der Konsequenz Testausführungen in Teilausführungen aufgebrochen werden. Wir illustrieren unseren Vorschlag unter Einsatz der Testwerkzeuge Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.
Das ProFormA-Aufgabenformat wurde eingeführt, um den Austausch von Programmieraufgaben zwischen beliebigen Autobewertern (Grader) zu ermöglichen. Ein Autobewerter führt im ProFormA-Aufgabenformat spezifizierte „Tests“ sequentiell aus, um ein vom Studierenden eingereichtes Programm zu prüfen. Für die Strukturierung und Darstellung der Testergebnisse existiert derzeit kein graderübergreifender Standard. Wir schlagen eine Erweiterung des ProFormA-Aufgabenformats um eine Hierarchie von Bewertungsaspekten vor, die nach didaktischen Aspekten gruppiert ist und entsprechende Testausführungen referenziert. Die Erweiterung wurde in Graja umgesetzt, einem Autobewerter für Java-Programme. Je nach gewünschter Detaillierung der Bewertungsaspekte sind Testausführungen in Teilausführungen aufzubrechen. Wir illustrieren unseren Vorschlag mit den Testwerkzeugen Compiler, dynamischer Softwaretest, statische Analyse sowie unter Einsatz menschlicher Bewerter.