Experten vs. Lernende
Warum dasselbe Werkzeug unterschiedlich wirkt
Experten haben eine qualitativ andere kognitive Architektur. Sie sehen Muster und Bedeutung statt Einzelteile. Sie speichern Wissen in “Chunks”: vernetzte Wissensstrukturen, die automatisch abgerufen werden.
Experten können:
- Routine auslagern
- KI-Output bewerten
- Mehr Kapazität für Komplexes nutzen
Lernende hingegen:
- Können nicht bewerten
- Überspringen möglicherweise Grundlagen
- Risiko: “Fliessende Inkompetenz”
Dasselbe Werkzeug, fundamental unterschiedliche Auswirkungen.
Anwendungsfragen
Gesundheit: Prüfungen und praktische Kompetenz
Im klinischen Reasoning im 2. Semester Pflege zeigt sich folgendes Risiko: Studierende könnten mit ChatGPT sehr flüssig klingende Pflegediagnosen erstellen, ohne die zugrundeliegenden Symptommuster wirklich zu erkennen.
Frage: Wie kann in Prüfungssituationen überhaupt noch festgestellt werden, ob jemand eine Situation selbstständig einschätzen kann? Und noch wichtiger: Wenn Studierende im Praktikum möglicherweise KI-Tools nutzen, um Dokumentationen zu schreiben, wie stellt man sicher, dass sie die kritischen Warnsignale bei Patienten trotzdem wahrnehmen und nicht nur schön formulierte, aber inhaltlich falsche Einschätzungen abgeben?
Das Risiko der “fliessenden Inkompetenz” ist hier besonders kritisch. Praktische Prüfungen (OSCE), mündliche Fallbesprechungen und Prozessbeobachtung im Praktikum können helfen, die tatsächliche Kompetenz zu erfassen. Mehr dazu im Leitfaden unter Fliessende Inkompetenz und Prozess bewerten, nicht nur Produkt.
Technik und Informatik: Grundstudium ohne Code-Assistenten?
In der Informatik zeigt sich das Paradox täglich: Studierende können mit GitHub Copilot funktionierenden Code produzieren, aber wenn nachgefragt wird, warum sie genau diese Datenstruktur gewählt haben, kommt oft nichts.
Frage: Sollte im Grundstudium bewusst auf Code-Assistenten verzichtet werden, damit Studierende erst mal die fundamentalen Patterns selbst entwickeln? Oder ist das realitätsfern, weil sie in der Berufswelt ja sowieso mit diesen Tools arbeiten werden? Und wie baut man Übungen, bei denen sie lernen, KI-generierten Code kritisch zu evaluieren, wenn sie dafür ja genau das Expertenwissen brauchen, das sie erst aufbauen sollten?
Das ist das Kerndilemma: Um KI kritisch zu nutzen, braucht man Expertise. Um Expertise aufzubauen, braucht man Übung ohne Abkürzungen. Die Sequenzierung “Grundlagen zuerst” ist wahrscheinlich der richtige Ansatz. Später kann KI als Werkzeug dienen. Mehr dazu im Leitfaden unter Warum Experten profitieren, Lernende nicht und Die Sequenzierungsfrage.
Soziale Arbeit: Systemisches Verstehen vs. Textbausteine
Das Konzept der “Chunks” und Erfahrungsmuster ist relevant für die Soziale Arbeit, wo viel mit Falldokumentationen und Analysen komplexer Lebenssituationen gearbeitet wird.
Frage: Wenn Studierende KI nutzen, um Sozialberichte zu schreiben oder Interventionsstrategien zu entwickeln: Wie unterscheidet man, ob sie wirklich die systemischen Zusammenhänge verstehen oder nur AI-generierte Fachliteratur-Versatzstücke aneinanderreihen? Besonders kritisch ist das bei ethischen Dilemmata: KI kann durchaus schlüssig klingende Argumentationen liefern, aber erfasst sie die moralische Komplexität realer Fälle? Wie trainiert man diese professionelle Urteilsfähigkeit, wenn Studierende sich an KI-Output gewöhnen?
Die professionelle Urteilsfähigkeit ist das, was Experten von Novizen unterscheidet. KI kann plausibel klingende Texte produzieren, aber nicht die kontextspezifische Einschätzung leisten. Fallbesprechungen, Supervisionen und Reflexion über die eigene Entscheidungsfindung sind hier wichtiger als schriftliche Produkte. Mehr dazu im Leitfaden unter Kritisches Denken erfordert Fachwissen.
Wirtschaft: Business-Logik vs. formale Korrektheit
Im strategischen Management und Business Analytics zeigt sich ein Problem: Studierende können mit KI-Tools beeindruckende Marktanalysen erstellen, aber auf die Frage “Ist diese Strategie für dieses spezifische Unternehmen sinnvoll?” fehlt ihnen das Gespür.
Frage: Wie gestaltet man Fallstudien und Prüfungen so, dass Studierende zeigen müssen, dass sie die Business-Logik verstehen und nicht nur KI-Output aufhübschen? Und praktisch: Wenn in Gruppenarbeiten die Analyse zwar formal korrekt ist, aber komplett an der Realität des Unternehmens vorbeigeht, wie thematisiert man das, ohne dass es wie ein generelles KI-Verbot klingt?
Prüfungsformate, die Begründungen und kontextspezifische Anpassungen fordern, können helfen. Mündliche Verteidigung von Analysen, unerwartete Folgefragen, Anwendung auf neue Szenarien. Das Thematisieren des Problems ist wichtig: Es geht nicht um KI-Verbot, sondern um Lernziele. Mehr dazu im Leitfaden unter Warum Experten profitieren, Lernende nicht und Entscheidungsrahmen.
Mehr zu diesem Thema im Leitfaden: