Wie man Kompetenzen erwirbt
Vom Novizen zum Experten: Die Wissenschaft des Lernens
Geschätzte Lesezeit: 15–20 Minuten
Diese Seite vertieft die wissenschaftlichen Grundlagen des Workshops mit Fokus auf zwei Themen, die hier exklusiv behandelt werden:
- Kernthema 1: Die Progression von schwachen zu starken Methoden (Newell & Simon, Anderson)
- Kernthema 2: Vorhersagefehler als Lernmechanismus und die Idee des internen Modells
Für verwandte Themen siehe: Arbeitsgedächtnis & Cognitive Load | Gedächtnis & Lernstrategien
Die Progression von schwachen zu starken Methoden
Wenn wir neue Fähigkeiten erlernen, verändert sich die Art, wie unser Gehirn Information verarbeitet. Wer versteht, wie dieser Prozess abläuft, erkennt auch, warum das Auslagern kognitiver Arbeit an KI den Aufbau echter Expertise gefährden kann.
Newell und Simon (1972) beschrieben erstmals die Progression von schwachen zu starken Problemlösungsmethoden. John Andersons ACT-R-Theorie (Anderson 1982, 2007) modelliert, wie dieser Übergang durch Wissenskompilation geschieht: Deklaratives Wissen wird durch Übung und Feedback zu automatisierten Produktionsregeln.
Diese Darstellung vereinfacht: In modernem ACT-R ist die Beziehung zwischen deklarativem und prozeduralem Wissen dynamischer und bidirektionaler, als das Stufenmodell suggeriert. Auch Experten behalten deklarative Repräsentationen, die weiterhin aktualisiert werden können. Für den Lehrkontext bleibt die grundlegende Progressionslogik aber nützlich.
Schwache Methoden (Anfänger-Stadium)
Schwache Methoden sind domänenübergreifende Problemlösungsstrategien, die Anfänger verwenden, wenn ihnen spezifisches Wissen fehlt:
- Mittel-Ziel-Analyse:
Was ist der Unterschied zwischen meinem aktuellen Stand und dem Ziel? - Rückwärtsarbeiten:
Vom Ziel zurück zum Ausgangszustand gehen - Analogie:
Das erinnert mich an...(oft basierend auf Oberflächenmerkmalen) - Versuch und Irrtum:
Ich probiere Verschiedenes aus, bis etwas funktioniert - Bergsteigen:
Immer in Richtung dessen bewegen, was besser erscheint
Mit schwachen Methoden:
- Ziel ist, \(x\) zu finden
- Aktueller Zustand: \(3x + 5 = 20\)
- Wie kann ich den Unterschied verringern?
- Vielleicht \(5\) subtrahieren?
- Warum? Ähm… um \(x\) allein zu bekommen?
- Ok, also \(3x = 15\)
- Was reduziert jetzt den Unterschied?
- Durch \(3\) teilen?
- \(x = 5\)
Beachte das überlegte, schrittweise Vorgehen!
Prozeduralisierung (Fortgeschrittenen-Stadium)
In dieser Phase werden wiederkehrende Muster zu Prozeduren. Der Prozess ist immer noch bewusst, läuft aber flüssiger ab, mit geringerer kognitiver Belastung und weniger Fehlern. Ein typisches Beispiel: Das Einmaleins wird direkt aus dem Gedächtnis abgerufen, statt jedes Mal neu berechnet.
Gleichzeitig beginnen sich Produktionsregeln zu bilden. Das sind WENN-DANN-Bedingungs-Aktionspaare:
WENNich “3 × 4” seheDANNantworte “12”WENNeine Gleichung die Form \(ax + b = c\) hatDANNsubtrahiere b von beiden SeitenWENNder Code nicht kompiliertDANNprüfe zuerst auf Syntaxfehler
Kompilierung (Experten-Stadium)
Durch wiederholte Übungsdurchläufe wird Wissen automatisch (Anderson 1982). Mustererkennung dominiert, die kognitive Belastung sinkt auf ein Minimum, und die Ausführung wird schnell und fehlerfrei. Das Paradoxe daran: Experten können ihre eigenen Schritte oft nicht mehr erklären!
Welche Regeln in einer Situation ausgelöst werden, hängt von ihrer Produktionsstärke ab. Häufig erfolgreiche Regeln werden stärker und schneller aktiviert. Deshalb verbessert Übung sowohl Geschwindigkeit als auch Genauigkeit, weil sich stärkere Produktionen gegen schwächere Alternativen durchsetzen.
Experte sieht die Gleichung und erkennt sofort → \(x = 5\)
Wenn nach Erklärung gefragt:
- “Ich weiss es einfach…”
- “Du subtrahierst 5 und teilst durch 3”
- “Wie wusste ich das? Ich bin mir nicht sicher…”
Das Wissen ist zu automatischen Prozeduren kompiliert.
Denke an ein Thema, das du deinen Studierenden beibringst:
- Welche “schwachen Methoden” verwenden Anfänger typischerweise?
- Welche automatisierten Prozeduren haben Experten entwickelt?
- Was würde passieren, wenn du Anfängern direkt Experten-Werkzeuge gibst?
Notiere 2–3 Beobachtungen aus deiner eigenen Lehre.
Kognitive Belastung und Expertise
Die Cognitive Load Theory erklärt, warum Anfänger und Experten das gleiche Material völlig unterschiedlich verarbeiten. Eine ausführliche Darstellung findest du im Deep-Dive Arbeitsgedächtnis & Cognitive Load. Hier das Wesentliche für den Kompetenzaufbau:
Expertise verändert die kognitive Belastung grundlegend. Was für Anfänger 7+ interagierende Elemente im Arbeitsgedächtnis erfordert (z.B. das Lösen von \((x + 3)(x - 2) = 0\)), ist für Experten ein einziger Chunk. Wer kognitive Arbeit vollständig an KI auslagert, verarbeitet nichts im Arbeitsgedächtnis, und ohne Verarbeitung findet kein Lernen statt. Dieser Zusammenhang ist als Expertise Reversal Effect bekannt und hat direkte Konsequenzen für den KI-Einsatz: Was Experten hilft (komplexe Werkzeuge, offene Probleme), überfordert Anfänger, und umgekehrt.
Das KI-Bypass-Problem
Wie KI die kognitive Architektur stört
Das Auslagern kognitiver Prozesse an KI kann das gesamte Lernsystem kurzschliessen. Ohne kognitive Anstrengung findet keine Verarbeitung im Arbeitsgedächtnis statt, und unverarbeitete Informationen gelangen nicht ins Langzeitgedächtnis. Ohne Speicherung entstehen keine Schemata, und ohne Schemata bleibt der Weg vom Anfänger zum Experten blockiert.
Das Grundproblem: KI bietet die Vorteile von Expertise (sofortiger Zugriff auf organisiertes Wissen), ohne den Prozess, der Expertise schafft (Arbeitsgedächtnisanstrengung → Speicherung im Langzeitgedächtnis).
Diese Risiken sind am gravierendsten bei systematischem, undifferenziertem Outsourcing. Gelegentliche KI-Nutzung nach eigenem Versuch kann den Lernprozess unterstützen, wie die Versuch-dann-Prüfe-Struktur in Teil 2 zeigt.
Die Experten-Anfänger-Unterrichtsfalle
Der gefährlichste Fehler in der Bildung ist anzunehmen, dass Anfänger so lernen sollten, wie Experten arbeiten. Kirschner (Kirschner, Hendrick, und Heal 2022) bezeichnet das als Verwechslung der „Epistemologie des Experten mit der Pädagogik für Lernende”.
Warum Expertenmethoden Anfängern aktiv schaden
Anfängern Expertenwerkzeuge zu geben, kann aktiv schädlich sein:
| Mechanismus | Experten | Anfänger | Ergebnis mit KI |
|---|---|---|---|
| Kognitive Belastung | Verarbeiten viele Elemente als Chunks | Werden mit derselben Komplexität überfordert | Kognitive Überlastung, kein Lernen |
| Produktionsregeln | Starke Regeln feuern automatisch | Müssen Regeln durch Wiederholung aufbauen | Keine Wiederholung, dauerhafte Abhängigkeit |
| Schemabildung | Reichhaltige Schemata durch Erfahrung | Müssen Schemata Element für Element konstruieren | Kein Konstruktionsprozess, kein Transfer |
| Metakognition | Wissen, wann welche Strategie passt | Entwickeln Bewusstsein durch Selbstüberwachung | Keine Selbstüberwachung, keine Selbsteinschätzung |
Wenn Anfänger zu früh Expertenwerkzeuge nutzen, können sich mehrere Risiken verstärken (Bastani u. a. 2025): Anfänglicher Erfolg schafft falsches Selbstvertrauen, schwache Methoden verkümmern durch Nichtgebrauch, und Transfer scheitert, wenn KI nicht verfügbar ist. Das Selbstbild aktualisiert sich: Lernende schliessen aus ihren Erfahrungen rational, dass sie es allein nicht können.
Das Ergebnis ist nicht “Verlernen” im engeren Sinne, sondern Fähigkeitsatrophie durch Nichtgebrauch.
Diese Prinzipien bilden die Grundlage für:
- Die 5 Leitfragen in Teil 2 (Leitfragen 2 & 5 behandeln den Kompetenzaufbau und die Versuch-dann-Prüfe-Struktur)
- Die Peer-Diagnose in Teil 3: Die Advocatus-Diaboli-Frage (“Könnte eine Studierende das Denken nach deiner Änderung immer noch delegieren?”) prüft, ob der Kompetenzaufbauprozess geschützt ist
Du wirst diese Prinzipien in der Praxis anwenden, wenn du deine eigenen Aufgaben analysierst.
Lehren im Einklang mit dem Gehirn
Prinzip 1: Die Entwicklungssequenz respektieren
Schwache Methoden müssen zuerst kommen. Sie sind keine Fehler, sondern notwendig. Prozeduralisierung erfordert umfangreiche Übung mit überlegten Prozessen, und Kompilierung geschieht automatisch nach ausreichender Wiederholung.
Prinzip 2: Kognitive Belastung kalibrieren
Anfänger brauchen vereinfachte, sequenzielle Darstellung. Experten können komplexe, parallele Verarbeitung bewältigen. Dasselbe Material muss je nach Expertenniveau unterschiedlich präsentiert werden.
Diese beiden Prinzipien betreffen das Was der Instruktion. Die nächsten beiden betreffen das Wie im Kontext von KI.
Prinzip 3: Das Zeitfenster für produktive Anstrengung schützen
- Genügend Zeit für eigenständiges Arbeiten vor KI-Konsultation geben
- Denkprozesse dokumentieren, bevor externe Hilfe gesucht wird
- Mehrere Versuche ermöglichen, bevor Lösungen zugänglich sind
Prinzip 4: Scaffolding statt Substitution
KI sollte irrelevante kognitive Belastung reduzieren, nicht jede Anstrengung eliminieren. Durchgearbeitete Beispiele zeigen den Prozess, nicht nur die Antwort. Und sobald Kompetenz entsteht, wird die Unterstützung schrittweise abgebaut (Scaffolding).
Wähle eines der vier Prinzipien (Entwicklungssequenz, kognitive Belastung, produktive Anstrengung, Scaffolding):
- Wie gut ist dieses Prinzip in einer deiner aktuellen Lehrveranstaltungen umgesetzt?
- Was müsstest du konkret ändern?
Halte deine Antwort in 2–3 Sätzen fest, bevor du weiterliest.
Der folgende Abschnitt vertieft das Konzept des “Prediction Error Learning”, das im Workshop eingeführt wurde. Hier siehst du die wissenschaftlichen Details und Mechanismen hinter diesem Prinzip.
Vorhersagefehler: Ein wichtiger Lernmechanismus
Prediction Error Learning ist ein wichtiger neuronaler Mechanismus für den Kompetenzaufbau. Die Forschung dazu umfasst mehrere unterschiedliche theoretische Traditionen: dopaminerge Belohnungssignale (Rescorla-Wagner-Tradition), sensorische Vorhersagefehler (Predictive Processing) und Überraschung im Bayesianischen Sinne (für einen Überblick siehe Sprevak und Smith o. J.). Diese Traditionen teilen eine Grundidee, unterscheiden sich aber in Mechanismen und Geltungsbereich. Für die Lehrpraxis ist die gemeinsame Grundidee nützlich: Das Gehirn lernt aus der Diskrepanz zwischen Erwartung und Erfahrung.
Der Vorhersagefehler-Zyklus
Schritt 1: Bildung einer Vorhersage
Beim Auftreten eines Problems prognostiziert das Gehirn automatisch, was passieren sollte, basierend auf dem aktuellen Wissen:
- „Wenn ich 5 von beiden Seiten subtrahiere, komme ich näher an \(x\) heran”
- „Wenn ich diese Formel anwende, sollte ich das richtige Ergebnis bekommen”
- „Diese Code-Struktur sollte kompilieren”
Schritt 2: Realitätsabgleich
Man versucht eine Lösung und vergleicht das tatsächliche Ergebnis mit der Vorhersage:
- Positiver Vorhersagefehler: „Das lief besser als erwartet!”
- Negativer Vorhersagefehler: „Das hat nicht wie gedacht funktioniert”
- Null-Fehler: „Es lief genau wie vorhergesagt”
Schritt 3: Neuronales Update
Das Gehirn nutzt diese Fehler, um sein Wissen anzupassen. Neuronale Signale markieren Vorhersagefehler als wichtige Lernmomente, beteiligte Pfade werden verstärkt, und synaptische Verbindungen verändern sich proportional zur Fehlergrösse. Konsolidierung im Schlaf macht die Änderungen dauerhaft.
Die Forschung zu Prediction Error Learning umfasst mehrere Systeme: dopaminerge Signale im mesolimbischen System, Eligibility Traces im Cerebellum und Konsolidierungsprozesse im Hippocampus und Neokortex. Diese Mechanismen sind komplexer und weniger eindeutig geklärt, als populäre Darstellungen oft suggerieren.
Für die Lehrpraxis ist entscheidend: Der Vorhersagefehler-Zyklus funktioniert, wenn Lernende selbst Hypothesen bilden, diese testen und Feedback bekommen, unabhängig von den genauen neuronalen Details.
Versuch 1: Lernender denkt „Ich muss die 5 eliminieren, also addiere ich 5 auf beiden Seiten”
- Vorhersage: Das sollte helfen, \(x\) zu finden
- Realität: Erhält \(3x + 10 = 25\) (weiter vom Ziel entfernt)
- Vorhersagefehler: Negativ! Dieser Ansatz verschlechtert es
- Lernen: Gehirn markiert „gleiches Hinzufügen” als erfolglos
Versuch 2: Lernender versucht „Ich subtrahiere 5 von beiden Seiten”
- Vorhersage: Das könnte besser funktionieren
- Realität: Erhält \(3x = 15\) (viel sauberer!)
- Vorhersagefehler: Positiv! Ansatz funktioniert
- Lernen: Gehirn stärkt „Subtrahiere zur Isolierung”-Pfad
Nach vielen Zyklen: Die Regel „Subtrahiere zur Isolierung” wird automatisch
Denke an eine Aufgabe in deiner Lehre:
- Wo generieren Studierende Vorhersagen, bevor sie Feedback bekommen?
- Wo könnte KI diesen Vorhersagefehler-Zyklus kurzschliessen?
- Wie könntest du die “Versuch-dann-Prüfe”-Struktur einbauen?
Warum das Auslagern kognitiver Prozesse an KI das Lernsignal verarmt
Wenn KI sofort fertige Antworten liefert, wird der Vorhersagefehler nicht null. Das Gehirn bildet immer automatisch Erwartungen. Aber der Vorhersagefehler wird vermutlich uninformativ:
- Ohne eigenen Lösungsversuch aktivieren Lernende ihr internes Modell nicht
- Ohne spezifische Vorhersage gibt es nichts, woran das Feedback sinnvoll andocken kann
- Das Ergebnis ist ein diffuser, unstrukturierter Vorhersagefehler, der kaum Lernen erzeugt
Das verschärft sich für Anfänger. Je weniger Vorwissen sie mitbringen, desto weniger können sie mit dem KI-Output anfangen. Ihr internes Modell ist noch zu undifferenziert, um dem Feedback Bedeutung zuzuschreiben.
Im Gegensatz dazu: Wer zuerst selbst einen Lösungsversuch unternimmt, aktiviert sein internes Modell, bildet spezifische Vorhersagen und erzeugt dadurch informative Vorhersagefehler, genau die Art von Diskrepanz, aus der das Gehirn effektiv lernen kann.
Anders formuliert: Lernen lässt sich als Aktualisierung von Überzeugungen verstehen. Lernende haben ein aktuelles Modell (ihre bisherigen Schemata), machen daraus eine Vorhersage und passen ihr Modell anhand der beobachteten Diskrepanz an. Je spezifischer die Vorhersage, desto informativer das Feedback. Genau deshalb funktioniert die Versuch-dann-Prüfe-Struktur: Der eigene Versuch erzeugt eine konkrete Erwartung, die dem anschliessenden Feedback eine klare Bezugsgrösse gibt. Ohne eigenen Versuch ist Feedback diffus, so als wollte man eine Überzeugung aktualisieren, die man nie hatte.
Das interne Modell: Was Expertise eigentlich ist
Ein Experte “weiss” nicht einfach mehr Fakten. Expertise bedeutet, reichhaltige, vernetzte Wissensstrukturen (Schemata) aufgebaut zu haben, die eigenständig Vorhersagen, Erklärungen und Lösungen ermöglichen. Der Begriff “internes generatives Modell” fasst diese Idee zusammen. Er verbindet verschiedene Traditionen (ACT-R-Produktionsregeln, Schema-Theorie, Predictive Processing), die einen gemeinsamen Kern teilen: Expertise ist ein Modell im Kopf, das generieren kann.
Ein wichtiger Unterschied: Wenn wir von einem “internen generativen Modell” sprechen, meinen wir etwas anderes als ein “generatives KI-Modell”. Ein LLM ist ein statistisches Modell der Sprache: Es lernt Verteilungsmuster aus Texten und sagt das nächste Token in einer Sequenz vorher. Das interne Modell einer Expertin ist ein generatives Modell ihres Fachgebiets: Es erfasst kausale Zusammenhänge, strukturelle Beziehungen und kontextabhängige Regeln und kann daraus neue Hypothesen aufstellen und Probleme eigenständig lösen. Dieser Unterschied erklärt, warum LLM-Output so überzeugend und zugleich so leer sein kann: Das LLM modelliert, wie Menschen über ein Fachgebiet schreiben, nicht das Fachgebiet selbst. Deshalb brauchen Studierende ihr eigenes generatives Modell, eines, das im kausalen Verständnis ihrer Domäne verankert ist.
Warum ist diese Perspektive trotzdem hilfreich? Sie erklärt auf einen Blick, warum aktives Problemlösen so wirksam ist: Es zwingt Lernende, ihr internes Modell zu aktivieren, es “laufen zu lassen” und konkrete Vorhersagen zu generieren, die dann an der Realität scheitern oder bestätigt werden können.
Für Experten bedeutet das, dass sie von KI-Feedback tatsächlich profitieren können. Ihr Modell ist differenziert genug, um spezifische Vorhersagen zu machen, und das Feedback dockt an konkreten Erwartungen an. Für Anfänger sieht das anders aus: Ihr Modell ist noch zu undifferenziert. Ohne eigenen Lösungsversuch aktivieren sie es nicht, und der KI-Output bleibt ein diffuser Datenpunkt, aus dem wenig gelernt werden kann.
Das erklärt auch, warum das Evaluationsparadox existiert. KI-Output zu bewerten ist selbst eine Form von Inferenz. Man muss das eigene Modell aktivieren und prüfen, ob der Output damit konsistent ist. Ohne entwickeltes Modell fehlt die Grundlage dafür.
Die entscheidende Frage für jede Lernsituation lautet deshalb: Wie aktiv ist das interne Modell der Lernenden, wenn sie dem KI-Output begegnen? Je aktiver das Modell, desto informativer das Feedback, und desto mehr wird gelernt.
Wünschenswerte Schwierigkeiten und Lernstrategien
Lernen erfordert sogenannte “desirable difficulties” (Bjork und Bjork 2011): Herausforderungen, die sich schwierig anfühlen, aber das langfristige Behalten fördern (Abrufübung, verteiltes Wiederholen, Interleaving, Generierung). Eine ausführliche Darstellung dieser Strategien mit praktischen Beispielen findest du im Deep-Dive Gedächtnis & Lernstrategien.
Die theoretischen Vorhersagen werden durch erste empirische Befunde gestützt: weniger kritisches Denken bei hohem KI-Vertrauen (Lee u. a. 2025), nur oberflächliches Lernen bei Programmierstudierenden (Yang, Hsu, und Wu 2025) und verminderte Problemlösefähigkeiten bei Mathematiklernenden (Bastani u. a. 2025). Die theoretische Argumentation steht auf Jahrzehnten kognitionswissenschaftlicher Forschung.
Bevor du weiterliest, fasse für dich zusammen:
- Was sind die drei wichtigsten Erkenntnisse für deine Lehre?
- Welche eine Änderung an einer Aufgabe wirst du zuerst umsetzen?
- Wo erwartest du den grössten Widerstand von Studierenden?
Wer seine Erkenntnisse in eigene Worte fasst, verankert sie besser.
Du hast jetzt die vollständige wissenschaftliche Grundlage gelesen. Formuliere in einem Satz:
Was ist die wichtigste Erkenntnis, die du in deine nächste Lehrveranstaltung mitnimmst?
Schreibe den Satz auf, bevor du die Schnellreferenz-Tabelle anschaust.
Schnellreferenz
| Schwache Methoden (Anfänger) | Starke Methoden (Experten) |
|---|---|
| Mittel-Ziel-Analyse | Mustererkennung |
| Rückwärtsarbeiten vom Ziel | Vorwärtsverkettung aus Prinzipien |
| Versuch und Irrtum | Automatisierte Prozeduren |
| Oberflächenanalogien | Tiefenstruktur |
| Schrittweise bewusst | Automatisch gechunkt |
| Stadium | Was passiert | Didaktische Implikation |
|---|---|---|
| Deklarativ | Auswendig gelernte Regeln befolgen | Klare durchgearbeitete Beispiele geben |
| Kompilierung | Wiederholte Sequenzen werden zu Chunks | Viele ähnliche Übungsaufgaben |
| Prozedural | Automatisierte Expertise | Bereit für komplexe Anwendungen |
Literatur
Wiederverwendung
Zitat
@online{ellis,
author = {Ellis, Andrew},
title = {Wie man Kompetenzen erwirbt},
url = {https://virtuelleakademie.github.io/ki-lehre-intermediate/01-lernen-verstehen/kompetenz-erwerben/},
langid = {de}
}