Block 2: Dein eigenes Spec (60 min)

Auf einen Blick

  • Zeit: 60 Minuten (5 Orientierung, 20 Skills, 15 Misconceptions, 15 Paar-Review, 5 Wrap)
  • Ergebnis: Erstes vollständiges Spec Sheet: drei Sektionen, 4-8 Skills, 2-4 Misconceptions
  • Format: Solo, mit Cross-discipline-Paar-Review am Ende
  • Leitfrage: Was muss in Köpfen passieren, damit deine Lernenden diese Aufgabe lösen?

Du baust ein Spec für eine eigene Teilaufgabe. Das LLM hilft in zwei Rollen: als Hypothesengenerator (Skills und Knowledge) und als Lernende-Simulator (Misconceptions). Was es liefert, sind plausible Hypothesen, keine validierten Aussagen: behandle die Ausgabe als Ausgangspunkt für deine Validierung.

View slides in full screen

Schritt 1: Teilaufgabe wählen und Sektion 1 (5 min)

Eine Teilaufgabe, nicht die ganze Aufgabe.

Aufgabe: Öffne die Spec-Vorlage. Wähle eine Teilaufgabe aus deiner Lehre (oder ein Backup-Szenario). Trage die drei Felder von Sektion 1 ein: Wortlaut, Rahmen, intendiertes Ergebnis.

Schritt 2: Skills und Knowledge mit dem Hypothesengenerator (20 min)

Das LLM enumeriert die Voraussetzungen, als hätte es gerade die Vorgängerveranstaltung abgeschlossen. Es liefert Hypothesen, die du gegen deine Lehrerfahrung validierst.

Aufgabe (5 min): Öffne ein Chat-LLM deiner Wahl (Copilot, HuggingChat, Claude, ChatGPT). Kopiere den Prompt, ersetze die Platzhalter, lass die Liste produzieren.

Prompt für den Hypothesengenerator

Hier ist Material aus einem Kurs in <<< DISZIPLIN EINFÜGEN >>>. Spiele
eine Person, die gerade die Vorgängerveranstaltung abgeschlossen hat,
aber diese Aufgabe hier noch nicht gesehen hat.

Für jeden Schritt in der Musterlösung, liste auf: was müsste die Person
bereits wissen, erkennen oder begründen können, um den Schritt zu
verstehen? Markiere alles, was das Material voraussetzt, aber nicht
selbst erklärt. Sortiere die Liste in drei Typen:

- Faktenwissen (Abrufen): was die Person aus dem Gedächtnis abrufen
  können muss.
- Klassifikationswissen (Erkennen): was sie als Instanz eines Konzepts
  oder Anwendungsfalls erkennen können muss.
- Erklärungswissen (Begründen): was sie begründen können muss,
  einschliesslich konzeptioneller Verständnisse und Interpretationen.

Material:
<<< AUFGABE UND MUSTERLÖSUNG EINFÜGEN >>>

Aufgabe (15 min): Lies die LLM-Liste mit Stift in der Hand. Pro Eintrag entscheide Behalten (plausibel, passt), Korrigieren (teilweise richtig, umformulieren) oder Verwerfen (passt nicht zu Niveau oder Kontext). Ergänze Knowledge Components, die das LLM übersehen hat: vor allem tacite Punkte, die in deinem Fach kompetente Praktikerinnen erkennen, aber selten verschriftlicht werden. Trage in Sektion 2 ein: kurze Formulierung + charakteristische Fehlerform.

Das LLM hat keinen Zugang zu deiner konkreten Vorgängerveranstaltung. Zwei Risiken folgen daraus:

  • Es kann Voraussetzungen erfinden, die in deinem Vorkurs nicht behandelt werden (sie sehen plausibel aus, weil sie in Lehrbüchern üblich sind).
  • Es kann Voraussetzungen auslassen, die du tatsächlich lehrst, die aber in Lehrbüchern selten explizit ausgewiesen sind (oft die didaktisch interessantesten Stellen).

Beide Risiken adressierst du im Validieren. Einträge aus eigener Lehrerfahrung kannst du optional als B (beobachtet) markieren, übrige bleiben V (vermutet).

Schritt 3: Misconceptions mit Lernende-Simulator (15 min)

Das LLM spielt eine Lernende mit einer Misconception und schreibt eine plausible falsche Antwort. Du beobachtest, ob deine Aufgabe die Misconception fängt.

Aufgabe (5 min): Wähle eine wahrscheinliche Misconception aus deinem Fach. Kopiere den Prompt, ersetze Platzhalter, lass das LLM die Antwort produzieren.

Prompt für die Lernende-Simulator-Rolle

Du bist eine Lernende in <<< STUDIENGANG, SEMESTER EINFÜGEN >>>. Du
hältst die folgende Misconception: <<< MISCONCEPTION IN ICH-FORM
FORMULIEREN >>>. Sonst bist du auf dem Niveau deines Kurses kompetent.
Lies die folgende Aufgabe und schreibe die Antwort, die du in einem Leistungsnachweis geben würdest:

<<< AUFGABE EINFÜGEN >>>

Schreibe die Antwort so, dass sie von der falschen Annahme aus konsistent ist.

Aufgabe (10 min): Trage in Sektion 3 ein: Misconception in Ich-Form + Vermutung zur intuitiven Grundlage. Wiederhole für 1-3 weitere Misconceptions, falls die Zeit reicht. Frag zu jeder Simulation: Fängt meine Aufgabe diese Antwort? Welche Beobachtungspunkte machen die Misconception sichtbar?

Schritt 4: Cross-discipline Paar-Review (15 min)

Eine Aussenstehende aus möglichst entfernter Disziplin liest dein Spec. Pro Paar: 5 min zu deinem Spec, 5 min zum Spec der Partnerin, 5 min für gemeinsame Notizen.

Aufgabe: Bildet ein Cross-discipline-Paar. Lest euch gegenseitig das Spec und beantwortet drei Fragen:

  1. Welcher Eintrag ist mir als Aussenstehende nicht verständlich? Welche Begriffe sind unerklärt, welche Beispiele fehlen?
  2. Welche Misconception erscheint mir aus der Aussenperspektive plausibel? Welche fühlt sich wie eine Lehrer-Vermutung an, ohne intuitive Grundlage?
  3. Was würde ich als Aussenstehende ergänzen? Welche Voraussetzung erwarte ich in diesem Fach, die im Spec nicht steht?

Notiere Stichworte, aber überarbeite das Spec noch nicht. Die Überarbeitung passiert in Block 3, wenn du das Spec gegen das laufende Werkzeug testest.

Was du nach Block 2 hast

Ein erstes vollständiges Markdown-Spec mit Sektion 1 (Teilaufgabe), Sektion 2 (4-8 Skills mit Fehlerformen), Sektion 3 (2-4 Misconceptions mit intuitiven Grundlagen). Speichere es als Markdown-Datei (ein Textdokument mit der Datei-Endung “.md”). In Block 3 fügst du es in das Werkzeug ein und beobachtest, was es produziert.

Warum cross-discipline?

Die Paar-Review innerhalb derselben Disziplin tendiert dazu, die gleichen Blind Spots zu reproduzieren: zwei Statistik-Lehrpersonen finden in der Spec der jeweils anderen die gleichen automatisierten Schritte. Die cross-discipline Paarung erzwingt, dass eine Aussenstehende die Spec liest, die genau die fehlende Automatisierung nicht hat. Erfahrungsgemäss liefert diese Phase einen Grossteil der substantiellen Korrekturen am Spec Sheet.

Die kognitive Pointe ist Nathans Experimentalbefund (Nathan and Petrosino 2003): Expertinnen unterschätzen systematisch, was schwierig ist, weil ihre eigene Performance automatisiert ist. Eine fachfremde Person, die die Aufgabe nicht automatisiert hat, sieht genau die Stellen, an denen die Expertin Schritte überspringt. Die Distanz zwischen den Disziplinen ist hier ein Feature.

Die theoretische Struktur dahinter

Knowledge-Component-Theorie (Koedinger et al. 2012), KLI-Taxonomie und die volle Falsifikationsnotiz sind in einem internen Dokument für die Workshop-Leitung festgehalten. Die V/B-Markierung (vermutet vs. beobachtet) ist in deinem Spec optional vorhanden; du nutzt sie, sobald ein Eintrag aus eigener Lehrerfahrung kommt statt nur aus dem LLM-Output. Die Falsifikationsnotiz selbst ist Take-Home-Hausaufgabe und nicht Teil des 60-min Block 2.

Weiter: Block 3: Das laufende Werkzeug

Back to top

References

Koedinger, Kenneth R., Albert T. Corbett, and Charles Perfetti. 2012. “The KnowledgeLearningInstruction Framework: Bridging the SciencePractice Chasm to Enhance Robust Student Learning.” Cognitive Science 36 (5): 757–98. https://doi.org/10.1111/j.1551-6709.2012.01245.x.
Nathan, Mitchell J., and Anthony Petrosino. 2003. “Expert Blind Spot Among Preservice Teachers.” American Educational Research Journal 40 (4): 905–28. https://doi.org/10.3102/00028312040004905.

Reuse