Das 5-Fragen-Framework
Aufgaben für das KI-Zeitalter gestalten
Überblick
Dieses Framework hilft, bestehende Aufgaben und Prüfungen systematisch darauf zu prüfen, ob sie lernrelevante kognitive Verarbeitung bewahren, oder ob KI-Tools das Denken der Studierenden ersetzen können.
Die fünf Fragen bauen aufeinander auf. Wenn eine Frage mit “Ja” beantwortet wird, folgt eine klare Handlungsempfehlung.
Dieses Framework ist kein etabliertes Modell aus der Literatur, sondern eine Synthese, die ich aus den lernwissenschaftlichen Grundlagen in Teil 1 für diesen Workshop-Kontext konstruiert habe. Der Ausgangspunkt war ein praktisches Designproblem: Pauschale KI-Policies (“Verbieten” oder “Erlauben”) helfen Lehrenden wenig, wenn sie bei einer konkreten Aufgabe entscheiden müssen, ob und wie KI eingesetzt werden soll. Die fünf Fragen bilden einen Entscheidungsbaum, der von der breitesten Unterscheidung (Lern- vs. Leistungskontext) zur spezifischsten Gestaltungsentscheidung (Versuch-dann-Prüfe-Struktur) führt. Jede Frage ist direkt an einen kognitiven Mechanismus aus Teil 1 gebunden, sodass die Empfehlungen nicht auf Intuition beruhen, sondern auf der Architektur des Lernens selbst.
Die 5 Fragen
Frage 1: Geht es primär ums Lernen?
Unterscheide Lern- von Leistungskontexten.
- Lernkontext (Übungen, Hausaufgaben, Selbststudium): Der Prozess zählt, nicht das Produkt → KI-Outsourcing verhindern
- Leistungskontext (Prüfungen, professionelle Aufgaben): Das Ergebnis zählt → KI-Unterstützung kann sinnvoll sein
Wenn ja: Outsourcing verhindern. Die lernrelevante kognitive Verarbeitung (Abruf, Elaboration, Schemabildung) ist das eigentliche Lernziel, nicht das Produkt.
Frage 2: Werden noch Grundlagen aufgebaut?
Wo stehen die Studierenden auf dem Anfänger-Experten-Kontinuum?
- Grundlagenphase (Anfänger:innen): Interne Verarbeitung ist essentiell für Schemabildung → KI erst nach dem eigenen Versuch
- Fortgeschrittene Phase: Expert:innen haben die Schemas bereits, und KI kann als Verstärker dienen
Wenn ja: Interne Verarbeitung verlangen. Studierende müssen die Grundlagen selbst aufbauen, bevor KI-Tools sinnvoll eingesetzt werden können (→ Evaluationsparadox).
Frage 3: Muss internes Wissen nachgewiesen werden?
Kann die Aufgabe nur mit eigenem Wissen gelöst werden?
- Mündliche Prüfungen, Erklärungen in eigenen Worten, spontane Anwendung
- Wenn nicht: Kann KI die Aufgabe stellvertretend lösen?
Wenn ja: Outsourcing unmöglich machen. Aufgabenformate wählen, die internes Wissen erfordern (z.B. mündliche Komponenten, Erklärungen, unangekündigte Anwendung).
Frage 4: Kann KI die Aufgabe ohne Denkarbeit der Studierenden erledigen?
Der Reality Check: Gib die Aufgabe testweise an ein KI-Tool. Produziert es ein akzeptables Ergebnis?
- Wenn ja: Die Aufgabe testet Produktion, nicht Verstehen
- Lösung: Aufgabe umgestalten, sodass der Denkprozess sichtbar wird
Wenn ja: Aufgabe umgestalten. Persönliche Erfahrungen einbauen, Prozessdokumentation verlangen, mündliche Komponenten hinzufügen, Troubleshooting statt Lösungsfindung.
Frage 5: Gibt es eine Versuch-dann-Prüfe-Struktur?
Die goldene Regel für KI im Lernkontext:
- Studierende machen zuerst einen eigenen Versuch (Hypothese generieren, Lösung skizzieren, Argument formulieren)
- Dann wird mit KI verglichen, geprüft oder erweitert
Wenn ja: KI für die Prüfphase nutzen. Die Reihenfolge “Versuch → Prüfung” bewahrt die aktive Verarbeitung: Studierende aktivieren ihr internes Modell, bilden Vorhersagen und können aus der Diskrepanz zum KI-Output lernen.
In der Prüfphase brauchen Studierende explizite Hinweise, worauf sie achten sollen. Ohne Signale vergleichen sie Oberflächenmerkmale (Länge, Stil, Vokabular) statt der lernrelevanten Strukturen (Argumentationslogik, Annahmen, Kausalität).
Statt: “Vergleiche deinen Text mit dem KI-Text” Besser: “Vergleiche die kausale Argumentationskette deines Textes mit der KI-Version. Wo unterscheiden sich die Annahmen?”
Ohne diesen kognitiven Scheinwerfer lernen Studierende zufällig; mit ihm wird der Vergleich zum gezielten Lernmoment.
Theoretische Fundierung
Jede der 5 Fragen ist in den wissenschaftlichen Grundlagen aus Teil 1 verankert:
| Frage | Theoretische Grundlage |
|---|---|
| 1. Geht es ums Lernen? | Lernen ≠ Leisten, denn Produktion korrekter Ergebnisse ist nicht gleich Kompetenzaufbau |
| 2. Werden Grundlagen aufgebaut? | Novizen-Experten-Progression & Expertise Reversal Effect: Was Anfängern hilft, schadet Experten |
| 3. Muss internes Wissen nachgewiesen werden? | Schemabildung & Langzeitgedächtnis, also Wissen muss intern aufgebaut, nicht extern geliefert werden |
| 4. Kann KI ohne Denkarbeit erledigen? | Cognitive Outsourcing & Schein-Kompetenz: Oberflächenprodukte ohne Denkprozess |
| 5. Gibt es Versuch-dann-Prüfe? | Vorhersagefehler & Desirable Difficulties: Informative Fehler erzeugen durch eigenen Versuch vor KI-Feedback |
Teilbearbeitetes Anwendungsbeispiel: Volkswirtschaftslehre
Ursprüngliche Aufgabe: “Analysiere die Auswirkungen einer Zinserhöhung auf den Wohnungsmarkt.”
Die ersten drei Fragen sind analysiert. Versuche, Fragen 4 und 5 selbst zu beantworten, bevor du die Lösung aufklappst.
| Frage | Analyse |
|---|---|
| 1. Lernen? | Ja, denn es ist eine Hausaufgabe im 2. Semester |
| 2. Grundlagen? | Ja, denn makroökonomische Modelle werden gerade aufgebaut |
| 3. Internes Wissen? | Nein, der Text kann mit KI produziert werden |
| 4. KI ohne Denkarbeit? | Deine Einschätzung: ________________________ |
| 5. Versuch-dann-Prüfe? | Deine Einschätzung: ________________________ |
Frage 4: Kann KI die Aufgabe ohne Denkarbeit erledigen? Ja. “Analysiere die Auswirkungen einer Zinserhöhung auf den Wohnungsmarkt” ist ein einfacher Prompt. ChatGPT liefert eine solide Analyse mit korrekter ökonomischer Logik.
Frage 5: Gibt es eine Versuch-dann-Prüfe-Struktur? Nein. Es gibt keine eingebaute Phase, in der Studierende zuerst selbst analysieren, bevor sie KI konsultieren.
Redesign:
- Phase 1: Studierende skizzieren zuerst ihre eigene kausale Argumentationskette (handschriftlich oder zeitbegrenzt)
- Phase 2: KI-generierte Analyse als Vergleich, wobei Studierende Unterschiede identifizieren und beide Argumentationen bewerten
- Phase 3: Mündliche Kurzpräsentation der Synthese (2 Min)
Die Versuch-dann-Prüfe-Struktur bewahrt die aktive Verarbeitung: Studierende aktivieren ihr Wissen, bilden Erwartungen und lernen aus der Diskrepanz. Die mündliche Komponente macht Outsourcing unmöglich.
Disziplinspezifische Hinweise
Mathematik und Naturwissenschaften
- Problemlösung ohne KI verlangen, dann mit KI-Lösung vergleichen
- Erklärungsfragen einbauen (“Warum funktioniert dieser Schritt?”)
- Zwei-Phasen-Aufgaben: Handschriftlich → dann mit Tools prüfen
Schreiben und Geisteswissenschaften
- Persönliche/erfahrungsbasierte Komponenten einbauen
- Prozessdokumentation verlangen (Entwürfe, Gedankenprotokolle)
- Mündliche Komponenten (Verteidigung, Erklärung)
- Fokus auf das Denken hinter dem Text, nicht den Text selbst
Professionelle Fächer
- Simulierte Praxis ohne KI (Beratungsgespräche, klinische Entscheidungen)
- Echtzeitreasoning unter Zeitdruck
- Fälle mit Ambiguität, die kein eindeutiges “richtig” haben
Sprachen
- Spontane mündliche Interaktion maximieren
- Zeitbegrenzte Schreibübungen
- KI als Post-Produktions-Check, nicht als Produktionstool
Vom Design zur Praxis: 3 Diagnose-Fragen für den Lehralltag
Die 5 Fragen helfen beim Gestalten von Aufgaben. Aber wie prüft man danach, ob das Denken tatsächlich bei den Studierenden geblieben ist? Drei Diagnose-Fragen, die den Versuch-dann-Prüfe-Bogen abbilden:
Die 3 Diagnose-Fragen
| Zeitpunkt | Frage an Studierende | Was sie diagnostiziert | Theoretischer Anker |
|---|---|---|---|
| Vorher | “Was hast du versucht, bevor du KI gefragt hast?” | Gab es einen eigenen Versuch? (Generation) | Generierungseffekt, Desirable Difficulties |
| Während | “Wo hat dich die KI überrascht, und warum?” | War das interne Modell aktiv? (Vorhersagefehler) | Prediction Error Learning, Evaluationsparadox |
| Nachher | “Was machst du nächstes Mal anders, ohne KI?” | Hat sich das Schema aktualisiert? (Transfer) | Wissenskompilation, Schemabildung |
So klingen die Antworten
| Zeitpunkt | Outsourcing (Denken ausgelagert) | Genuine Verarbeitung (Denken geblieben) |
|---|---|---|
| Vorher | “Ich hab direkt ChatGPT gefragt” / vages “Ich hab mal überlegt” | “Ich hab zuerst X probiert, bin bei Y steckengeblieben, weil…” |
| Während | “Nichts hat mich überrascht” / “Die KI hat gut geschrieben” | “Ich dachte, der Zusammenhang sei A, aber die KI hat B argumentiert, und das hat mich zum Nachdenken gebracht, weil…” |
| Nachher | “Keine Ahnung” / “Ich würde es genauso machen” | “Beim nächsten Mal würde ich zuerst X klären, weil ich gemerkt habe, dass…” |
Die Schlüsselfrage ist “Während”: Wer outsourct, hat keine spezifischen Erwartungen, die überrascht werden konnten, denn es gab keinen aktiven Vergleich zwischen eigenem Modell und KI-Output. Wer das Denken selbst geleistet hat, kann konkrete Überraschungsmomente benennen.
Zwei Einsatzmodi
Modus 1, Einbauen: Die Fragen als Teil der Aufgabe verlangen. Z.B.: “Reiche neben deiner Lösung eine 3-Satz-Reflexion ein: Was hast du vor der KI-Nutzung versucht? Wo hat dich der KI-Output überrascht? Was machst du nächstes Mal anders?” So wird die Diagnostik zum strukturellen Bestandteil, und der Strand zwingt die Ameise durch den Checkpoint.
Modus 2, Nachfragen: In Sprechstunden, mündlichen Prüfungen oder Seminardiskussionen dieselben drei Fragen als Gesprächswerkzeug nutzen. Keine Vorbereitung nötig, denn die Fragen funktionieren in jedem Fach.
- Flüssige Leistung ≠ Outsourcing. Fortgeschrittene Studierende produzieren glatte Arbeit und bestehen die Diagnose-Fragen. Kompetenz nicht mit Outsourcing verwechseln.
- KI-Nutzung ≠ Outsourcing. Wer KI für Formatierung, Sprachkorrektur oder Literatursuche nutzt, während die konzeptuelle Arbeit intern bleibt, betreibt legitimes Offloading.
- Prozessdokumentation kann fabriziert werden. Achte auf Spezifität und Idiosynkrasie: Echte Denkspuren enthalten konkrete Sackgassen und spezifische Verwirrungsmomente. Fabrizierte sind generisch und narrativ zu glatt.
Zusammenfassung
Wenn die Analyse zeigt, dass deine Aufgabe bereits produktive Anstrengung bewahrt und KI die Aufgabe nicht ohne Denkarbeit erledigen kann: Das ist ein gutes Ergebnis. Nicht jede Aufgabe braucht eine KI-Komponente. Das Framework kann auch bestätigen, dass dein aktuelles Design bereits solide ist.