Praktische Implikationen für die Lehre
Was bedeutet das konkret?
Drei zentrale Prinzipien:
Anstrengung ist das Signal: Wenn Lernen sich zu leicht anfühlt, findet es wahrscheinlich nicht statt.
KI als Tutor, nicht als Antwortgeber: KI soll Denkprozesse anregen, nicht ersetzen.
Expertise bestimmt den Nutzen: Dasselbe Werkzeug wirkt unterschiedlich je nach Vorwissen.
Die Kernaussage: Grundlagen BEVOR Werkzeuge. Erst das Fundament, dann die Erweiterung.
Anwendungsfragen
Gesundheit: Grundlagen sicherstellen in der Praxis
Die Aussage, dass Grundlagen vor Werkzeugen kommen müssen, ist relevant für die Physiotherapie. Im ersten Jahr lernen Studierende die Anatomie und die manuelle Befundaufnahme. Es zeigt sich aber immer mehr, dass sie ChatGPT nutzen, um Diagnosen zu “checken” oder Behandlungspläne zu erstellen, ohne die muskuloskelettalen Zusammenhänge wirklich zu verstehen.
Frage: Wie kann konkret sichergestellt werden, dass Studierende diese Grundlagen wirklich beherrschen, bevor sie KI-Tools nutzen? Sollte die Nutzung in den ersten Semestern komplett verboten werden, oder gibt es einen Weg, KI so einzusetzen, dass sie das Verständnis fördert statt ersetzt? Bei praktischen Prüfungen am Patienten zeigt sich nämlich, dass einige zwar theoretisch viel wissen, aber die Hände nicht richtig einsetzen können.
Die praktischen Fertigkeiten (“Hände einsetzen”) erfordern Prozeduralisierung, die nur durch Übung entsteht. KI kann hier nicht helfen. Formative Assessments ohne KI können den Lernstand erfassen. In frühen Phasen ist Zurückhaltung sinnvoll, später kann KI als Werkzeug dienen, dessen Vorschläge kritisch geprüft werden. Mehr dazu im Leitfaden unter Prozeduralisierung: Vom Wissen zum Können und Übungsphasen schützen.
Technik und Informatik: Differenzierung nach Niveau
Die Aussage “Expertise bestimmt den Nutzen” ist interessant. Im Software Engineering zeigt sich genau dieses Paradox: Studierende nutzen GitHub Copilot und ChatGPT schon ab dem ersten Semester für ihre Programmieraufgaben. Die fortgeschrittenen Studierenden nutzen es effektiv als Pair-Programming-Partner, aber die Anfänger kopieren Code, den sie nicht verstehen.
Frage: Wie unterscheidet man in der Aufgabenstellung zwischen Anfängern und Fortgeschrittenen? Sollten für Erstsemester andere Regeln gelten als für Masterstudierende? Und wie formuliert man Programmieraufgaben so, dass auch mit KI-Unterstützung noch echtes Lernen stattfindet? Reicht es, wenn verlangt wird, dass sie den generierten Code erklären können, oder braucht es fundamentale Coding-Aufgaben komplett ohne KI?
Differenzierung nach Niveau ist sinnvoll. Für Anfänger: Grundlagen ohne KI aufbauen. Für Fortgeschrittene: KI als Werkzeug erlauben, aber Verständnis prüfen. Code erklären lassen ist ein guter Ansatz, aber nicht ausreichend. Auch: Code modifizieren, Fehler finden, auf neue Probleme anwenden. Mehr dazu im Leitfaden unter Der Expertise-Umkehr-Effekt und Entscheidungsrahmen.
HAFL: Notwendige Grundlagen vs. delegierbare Berechnungen
Die Aussage “Effort is the signal” und dass zu einfaches Lernen kein echtes Lernen ist, wirft Fragen auf. An der HAFL arbeiten Studierende viel mit Berechnungen zu Nährstoffkreisläufen, Bodenqualität und Ertragsprognosen. Früher haben sie das mühsam von Hand oder mit Excel durchgerechnet, heute können sie das alles von KI-Tools machen lassen.
Frage: Müssen Studierende diese Berechnungen wirklich noch selbst durchführen können, oder reicht es, wenn sie die Resultate interpretieren und validieren können? In der Praxis auf dem Betrieb werden sie ja auch digitale Tools nutzen. Wo genau liegt die Grenze zwischen “nötigem Aufwand für Verständnis” und “ineffizienter Zeitverschwendung”? Welche Grundlagen sind wirklich unverzichtbar, und wo darf die KI die mühsame Arbeit übernehmen?
Die Grenze liegt dort, wo Verstehen nötig ist, um Fehler zu erkennen und Anpassungen vorzunehmen. Routine-Berechnungen können delegiert werden, wenn die Konzepte verstanden sind. Die Frage ist: Können sie erkennen, wenn das Tool einen unrealistischen Wert ausgibt? Können sie bei veränderten Bedingungen anpassen? Das erfordert konzeptuelles Verständnis. Mehr dazu im Leitfaden unter Der stärkste Gegeneinwand und Kognition erweitern vs. ersetzen.
Soziale Arbeit: KI als Tutor, nicht als Antwortgeber
Der Punkt “KI als Tutor, nicht als Antwortgeber” ist relevant für die Soziale Arbeit. Es geht viel um Fallanalysen und die Entwicklung von Interventionsstrategien. Studierende müssen lernen, komplexe soziale Situationen zu verstehen und ethisch reflektierte Entscheidungen zu treffen.
Frage: Wenn KI als “Tutor” eingesetzt werden soll, der das Denken stimuliert: Wie macht man das konkret? Sollten Prompts vorgegeben werden, mit denen Studierende Fälle diskutieren? Oder sollten sie aufgefordert werden, ihre eigenen Lösungsansätze zuerst zu entwickeln und dann mit der KI zu reflektieren? Die Sorge ist, dass die KI zu schnell fertige “Lösungen” anbietet, obwohl es in der Sozialen Arbeit selten eindeutige Antworten gibt. Wie verhindert man, dass Studierende die KI-Antworten als “richtig” übernehmen, statt kritisch zu hinterfragen?
Die Sequenz “erst eigene Lösung, dann Reflexion mit KI” ist vielversprechend. Wichtig ist, dass KI nicht als Autorität wahrgenommen wird. Strukturierte Prompts können helfen, KI als Diskussionspartner zu nutzen, nicht als Antwortgeber. Die Gefahr der vorschnellen “Lösung” ist real. Gemeinsame Analyse von KI-Grenzen kann helfen. Mehr dazu im Leitfaden unter Sokratisches Fragen in KI-Tutoren und KI-Tutoren evaluieren.
Mehr zu diesem Thema im Leitfaden: