Wie man Kompetenzen erwirbt

Vom Novizen zum Exerten: Die Wissenschaft des Lernens

Zentrale Erkenntnisse

  1. Expertise erfordert schrittweisen Kompetenzaufbau durch schwache → starke Methoden
  2. Kognitive Anstrengung ist kein Fehler, sondern die Funktion, die Lernen durch Vorhersagefehler ermöglicht
  3. Offloading an KI umgeht genau die Anstrengungen, die dauerhafte Fähigkeiten aufbauen
  4. Expertenmethoden schaden Anfängern aktiv, indem sie kognitive Überlastung und Abhängigkeit erzeugen
  5. Echtes Verständnis entsteht durch tausende anstrengende Übungszyklen mit Vorhersagefehlern
  6. Wähle deine Werkzeuge mit Bedacht: Nutze KI, um irrelevante kognitive Belastung zu reduzieren, nicht um essentielles Lernen zu überspringen

Die Reise vom Anfänger zum Experten

Wenn wir neue Fähigkeiten erlernen, durchläuft unser Gehirn eine bemerkenswerte Transformation. Das Verständnis dieses Prozesses hilft uns zu erkennen, warum das Auslagern kognitiver Prozesse an KI die Entwicklung echter Expertise verhindern kann – und warum Expertenwerkzeuge Anfängern aktiv schaden können.

Die Progression von schwachen zu starken Methoden

Nach John Andersons ACT-R-Theorie (Anderson 1982, 2007) entwickelt sich Expertise durch eine vorhersehbare Progression:

1. Schwache Methoden (Anfänger-Stadium)

Schwache Methoden sind domänenübergreifende Problemlösungsstrategien, die Anfänger verwenden, wenn ihnen spezifisches Wissen fehlt:

  • Mittel-Ziel-Analyse: Was ist der Unterschied zwischen meinem aktuellen Stand und dem Ziel?
  • RĂĽckwärtsarbeiten: Vom Ziel zurĂĽck zum Ausgangszustand gehen
  • Analogie: Das erinnert mich an... (oft basierend auf Oberflächenmerkmalen)
  • Versuch und Irrtum: Ich probiere Verschiedenes aus, bis etwas funktioniert
  • Bergsteigen: Immer in Richtung dessen bewegen, was besser erscheint
Beispiel: Anfänger löst \(3x + 5 = 20\)

Mit schwachen Methoden:

  • Ziel ist, \(x\) zu finden
  • Aktueller Zustand: \(3x + 5 = 20\)
  • Wie kann ich den Unterschied verringern?
  • Vielleicht \(5\) subtrahieren?
  • Warum? Ă„hm… um \(x\) allein zu bekommen?
  • Ok, also \(3x = 15\)
  • Was reduziert jetzt den Unterschied?
  • Durch \(3\) teilen?
  • \(x = 5\)

Beachte das ĂĽberlegte, schrittweise Vorgehen!

2. Prozeduralisierung (Fortgeschrittenen-Stadium)

  • Wiederkehrende Muster werden zu Prozeduren
  • Immer noch bewusst, aber flĂĽssiger
  • Geringere kognitive Belastung
  • Schneller mit weniger Fehlern
  • Beispiel: Nutzung des Einmaleins aus dem Gedächtnis

In dieser Phase beginnen sich Produktionsregeln zu bilden. Das sind WENN-DANN-Bedingungs-Aktionspaare:

  • WENN ich “3 Ă— 4” sehe DANN antworte “12”
  • WENN eine Gleichung die Form \(ax + b = c\) hat DANN subtrahiere b von beiden Seiten
  • WENN der Code nicht kompiliert DANN prĂĽfe zuerst auf Syntaxfehler

3. Kompilierung (Experten-Stadium)

  • Wissen wird durch zahlreiche Ăśbungsdurchläufe automatisch
  • Mustererkennung dominiert
  • Minimale kognitive Belastung
  • Schnell und fehlerfrei
  • Kann die Schritte nicht mehr erklären!

Produktionsstärke bestimmt, welche Regeln ausgelöst werden: Häufig erfolgreiche Regeln werden stärker und schneller aktiviert. Deshalb verbessert Übung sowohl die Geschwindigkeit ALS AUCH die Genauigkeit – stärkere Produktionen setzen sich gegen schwächere Alternativen durch.

Beispiel: Experte löst \(3x + 5 = 20\)

Experte sieht die Gleichung und erkennt sofort → \(x = 5\)

Wenn nach Erklärung gefragt:

  • “Ich weiĂź es einfach…”
  • “Du subtrahierst 5 und teilst durch 3”
  • “Wie wusste ich das? Ich bin mir nicht sicher…”

Das Wissen ist zu automatischen Prozeduren kompilert.

Warum kognitive Anstrengung zählt: Die Biologie des Lernens

Das Vorhersagefehler-Lernsystem

Das menschliche Gehirn lernt durch ein ausgefeiltes Vorhersagefehler-System, das leicht umgangen werden kann, wenn die kognitive Verarbeitung ausgelagert wird. Diese biologische Realität erklärt, warum Anstrengung für das Lernen unerlässlich ist.

Cognitive Load Theory verstehen

Die evolutionäre Grundlage des Lernens

Die Cognitive Load Theory (CLT) (Sweller 2023) beschäftigt sich speziell damit, wie Menschen biologisch sekundäres Wissen erwerben – das akademische Wissen, das Schulen vermitteln sollen. Das Verständnis dieses Unterschieds ist entscheidend, um zu begreifen, warum KI das Lernen so tiefgreifend stören kann.

Biologisch primäres vs. sekundäres Wissen

Wissenstyp Beispiele
Biologisch primär (wir sind dafür evolutionär angepasst) • Gesichter und Stimmen erkennen
• Soziale Interaktionen verstehen
• Gesprochene Sprache lernen
• Räumliche Orientierung
• Gefahr und Sicherheit erkennen
Biologisch sekundär (wir sind NICHT dafür evolutionär angepasst) • Lesen und Schreiben
• Mathematik und Algebra
• Programmieren und Datenanalyse
• Wissenschaftliches Denken
• Historische Analyse
Warum diese Unterscheidung wichtig ist
  • Primäres Wissen kann durch natĂĽrliche Entdeckung und Spiel erlernt werden
  • Sekundäres Wissen erfordert explizite Instruktion und angeleitetes Ăśben
  • Schulen existieren, weil sich sekundäres Wissen nicht natĂĽrlich entwickelt
  • KI-Störung ist besonders schädlich fĂĽr den Erwerb sekundären Wissens

Die kognitive Architektur des Lernens

CLT basiert darauf, wie die menschliche Kognition Informationen verarbeitet und nutzt eine Architektur, die die Evolution durch natĂĽrliche Selektion widerspiegelt (Sweller 2023):

Zwei Wege fĂĽr neue Informationen

Menschen können neues biologisch sekundäres Wissen auf zwei Arten erwerben:

  1. Entdeckung durch Problemlösen: Eigenständiges Durcharbeiten von Herausforderungen
  2. Lernen von anderen: Aufnahme von Informationen durch Instruktion

Entscheidend: Beide Erwerbsarten sind selbst biologisch primär – wir sind hervorragend darin, Dinge zu entdecken und von anderen zu lernen. Deshalb dominieren Menschen die Säugetierwelt.

Die Engstelle der Verarbeitung

Sobald Information durch einen der beiden Wege erworben wurde, muss sie verarbeitet werden durch:

Arbeitsgedächtnis:

  • Stark begrenzte Kapazität (Millers 7±2, neuer: Cowans 4±1 Chunks)
  • Stark begrenzte Dauer (15–30 Sekunden ohne Wiederholung)
  • Die Engstelle, in der alles bewusste Lernen stattfindet

Langzeitgedächtnis:

  • Keine bekannten Begrenzungen fĂĽr Kapazität oder Dauer
  • Hier lebt die Expertise durch fachspezifische Informationsspeicherung
  • Das Ziel aller Instruktion
Elementinteraktivität in der Praxis

Betrachte das Lösen: \((x + 3)(x - 2) = 0\)

Für einen Anfänger muss jedes Element im Arbeitsgedächtnis gehalten werden:

  • Was \(x\) bedeutet
  • Die Bedeutung der Klammern
  • Additions- und Subtraktionsoperationen
  • Implizite Multiplikation
  • Die Bedeutung von „gleich Null“
  • Wie man Lösungen findet

Insgesamt: 7+ interagierende Elemente = Überlastung des Arbeitsgedächtnisses

Für einen Experten ist das ein Chunk aus dem Langzeitgedächtnis: - “Faktorisierte Form, also \(x = -3\) oder \(x = 2\)”

Insgesamt: 1 Chunk = Minimale Belastung des Arbeitsgedächtnisses

Beim Auslagern an KI: - Eingabe → Antwort

Insgesamt: 0 Arbeitsgedächtnisverarbeitung = Kein Lernen, keine Speicherung im Langzeitgedächtnis

Wie Expertise wirklich entsteht

Wie De Groot 1965 erstmals zeigte (Groot and Groot 1978; Sweller 2024), ist Expertise fächerspezifisch und resultiert aus riesigen Mengen fachspezifischer Informationen im Langzeitgedächtnis. Das ist nicht einfach “mehr Fakten wissen”, sondern organisierte Wissensstrukturen (Schemata), die Experten ermöglichen:

  • Mehrere Elemente zu Chunks bĂĽndeln
  • Muster automatisch erkennen
  • Prozeduren ohne bewusste Anstrengung abrufen
  • Das Arbeitsgedächtnis fĂĽr höheres Denken freimachen

Das KI-Bypass-Problem

Wie KI die kognitive Architektur stört

Das Auslagern kognitiver Prozesse an KI kann das gesamte Lernsystem kurzschlieĂźen:

  1. Umgeht Verarbeitung im Arbeitsgedächtnis: Keine kognitive Anstrengung bedeutet keine Kodierung
  2. Verhindert Speicherung im Langzeitgedächtnis: Unverarbeitete Informationen werden nicht gespeichert
  3. Eliminiert Schemabildung: Lernende erhalten Antworten, ohne Wissensstrukturen aufzubauen
  4. Blockiert den Übergang vom Anfänger zum Experten: Kein Weg von begrenztem zu unbegrenztem Wissen

Das Grundproblem: KI bietet die Vorteile von Expertise (sofortiger Zugriff auf organisiertes Wissen), ohne den Prozess, der Expertise schafft (Arbeitsgedächtnisanstrengung → Speicherung im Langzeitgedächtnis).

Pädagogische Implikationen

Die Experten-Anfänger-Unterrichtsfalle

Der gefährlichste Fehler in der Bildung ist anzunehmen, dass Anfänger so lernen sollten, wie Experten arbeiten. Das führt zu dem, was Kirschner (Kirschner, Hendrick, and Heal 2022) als Verwechslung der „Epistemologie des Experten mit der Pädagogik für Lernende“ bezeichnet.

Was Experten tun (Wissen produzieren):

  • Arbeiten von automatisierten Prinzipien aus vorwärts
  • Erkennen tiefe Muster sofort
  • Wenden starke, fachspezifische Methoden an
  • Erschaffen und entdecken neues Wissen
  • Verarbeiten mehrere Elemente gleichzeitig

Was Anfänger brauchen (Wissen lernen):

  • RĂĽckwärtsarbeiten mit Mittel-Ziel-Analyse
  • Grundlegende Mustererkennung durch Ăśbung aufbauen
  • Mit schwachen, allgemeinen Methoden beginnen
  • Vorhandenes Wissen rekonstruieren und verstehen
  • Elemente nacheinander verarbeiten, um Ăśberlastung zu vermeiden

Warum Expertenmethoden Anfängern aktiv schaden

Anfängern Expertenwerkzeuge zu geben, ist nicht nur ineffektiv – es ist aktiv schädlich für das Lernen:

1. Mismatch der kognitiven Belastung (cognitive load)

  • Experten können viele Elemente verarbeiten, weil sie diese zu Mustern gebĂĽndelt haben
  • Anfänger werden mit derselben Komplexität ĂĽberfordert
  • Ergebnis: Kognitive Ăśberlastung verhindert jegliches Lernen

2. Störung der Produktionsregeln

  • Experten haben starke, erfolgreiche Produktionsregeln, die automatisch feuern
  • Anfänger mĂĽssen diese Regeln durch wiederholte Anwendung schwacher Methoden aufbauen
  • KI-AbkĂĽrzungen verhindern die notwendige Wiederholung zur Stärkung der Regeln
  • Ergebnis: Schwache Regeln entwickeln sich nie, dauerhafte Abhängigkeit bleibt

3. Schemabildungs-Bypass

  • Experten haben reichhaltige Schemata, aufgebaut durch Erfahrung
  • Anfänger mĂĽssen diese Schemata Element fĂĽr Element konstruieren
  • KI-Antworten liefern das Ergebnis ohne den Konstruktionsprozess
  • Ergebnis: Es entstehen keine Schemata, Transfer auf neue Situationen ist unmöglich

4. Metakognitive Schädigung

  • Experten wissen, wann und warum sie verschiedene Strategien anwenden
  • Anfänger entwickeln dieses Bewusstsein durch Ăśberwachung des eigenen Denkens
  • KI-Abhängigkeit beseitigt die Notwendigkeit zur SelbstĂĽberwachung
  • Ergebnis: Lernende können ihr eigenes Verständnis nicht mehr bewerten
Die Abhängigkeitskaskade

Wenn Anfänger zu früh Expertenwerkzeuge nutzen:

  1. Anfänglicher Erfolg schafft falsches Selbstvertrauen
  2. Schwache Methoden verkĂĽmmern durch Nichtgebrauch
  3. Problemlösefähigkeiten verschlechtern sich ohne Übung
  4. Abhängigkeit vertieft sich, da interne Fähigkeiten schwinden
  5. Transfer scheitert, wenn KI nicht verfĂĽgbar ist
  6. Erlernte Hilflosigkeit entsteht bei neuen Herausforderungen

Das ist nicht nur „kein Lernen“, sondern Verlernen vorhandener Fähigkeiten.

Lehren im Einklang mit dem Gehirn

Prinzip 1: Die Entwicklungssequenz respektieren

  • Schwache Methoden mĂĽssen zuerst kommen – sie sind keine Fehler, sondern notwendig
  • Prozeduralisierung erfordert umfangreiche Ăśbung mit ĂĽberlegten Prozessen
  • Kompilierung geschieht automatisch nach ausreichender Wiederholung

Prinzip 2: Kognitive Belastung kalibrieren

  • Anfänger brauchen vereinfachte, sequenzielle Darstellung
  • Experten können komplexe, parallele Verarbeitung bewältigen
  • Dasselbe Material muss je nach Expertenniveau unterschiedlich präsentiert werden

Prinzip 3: Das „Struggle Window“ schützen

  • GenĂĽgend Zeit fĂĽr eigenständiges Ringen vor KI-Konsultation geben
  • Denkprozesse dokumentieren, bevor externe Hilfe gesucht wird
  • Mehrere Versuche, bevor Lösungen zugänglich sind

Prinzip 4: Scaffolding statt Substitution

  • KI nutzen, um irrelevante kognitive Belastung zu reduzieren, nicht jede Anstrengung zu eliminieren
  • Durchgearbeitete Beispiele liefern, die den Prozess zeigen, nicht nur die Antworten
  • UnterstĂĽtzung schrittweise abbauen, sobald Kompetenz entsteht (Scaffolding)

Wie Vorhersagefehler Lernen antreiben

Wie Vorhersagefehler Lernen antreiben

Schritt 1: Bildung einer Vorhersage

Beim Auftreten eines Problems prognostiziert das Gehirn automatisch, was passieren sollte – basierend auf dem aktuellen Wissen:

  • „Wenn ich 5 von beiden Seiten subtrahiere, komme ich näher an \(x\) heran“
  • „Wenn ich diese Formel anwende, sollte ich das richtige Ergebnis bekommen“
  • „Diese Code-Struktur sollte kompilieren“

Schritt 2: Realitätsabgleich

Man versucht eine Lösung und vergleicht das tatsächliche Ergebnis mit der Vorhersage:

  • Positiver Vorhersagefehler: „Das lief besser als erwartet!“
  • Negativer Vorhersagefehler: „Das hat nicht wie gedacht funktioniert“
  • Null-Fehler: „Es lief genau wie vorhergesagt“

Schritt 3: Neuronales Update

Das Gehirn nutzt diese Fehler zur Anpassung des Wissens:

  • Dopamin-AusschĂĽttung markiert Vorhersagefehler als wichtige Lernmomente
  • Eligibility Traces markieren beteiligte neuronale Pfade zur Stärkung
  • Synaptische Gewichte werden je nach Fehlergröße angepasst
  • Konsolidierung im Schlaf macht diese Ă„nderungen dauerhaft

Versuch 1: Lernender denkt „Ich muss die 5 eliminieren, also addiere ich 5 auf beiden Seiten“

  • Vorhersage: Das sollte helfen, \(x\) zu finden
  • Realität: Erhält \(3x + 10 = 25\) (weiter vom Ziel entfernt)
  • Vorhersagefehler: Negativ! Dieser Ansatz verschlechtert es
  • Lernen: Gehirn markiert „gleiches HinzufĂĽgen“ als erfolglos

Versuch 2: Lernender versucht „Ich subtrahiere 5 von beiden Seiten“

  • Vorhersage: Das könnte besser funktionieren
  • Realität: Erhält \(3x = 15\) (viel sauberer!)
  • Vorhersagefehler: Positiv! Ansatz funktioniert
  • Lernen: Gehirn stärkt „Subtrahiere zur Isolierung“-Pfad

Nach vielen Zyklen: Die Regel „Subtrahiere zur Isolierung“ wird automatisch

Warum das Auslagern kognitiver Prozesse an KI das Lernsignal eliminiert

KI liefert sofort perfekte Antworten:

  • Keine Vorhersagephase (Lernende generieren keine Erwartungen)
  • Keine Versuch-Phase (es werden keine Lösungen ausprobiert)
  • Keine Fehlerphase (kein Vergleich zwischen Erwartung und Realität)
  • Ergebnis: Null Vorhersagefehler = kein Lernsiganl

Das Gehirn hat buchstäblich nichts, woraus es lernen kann, weil der Vorhersagefehler-Zyklus nie stattfindet.

Das erklärt, warum Lernende hunderte Beispiele anschauen oder tausende korrekte KI-Antworten bekommen und trotzdem nicht lernen. Lernen braucht Fehler, nicht Perfektion.

Das Prinzip der “Desirable Difficulties”

Lernen erfordert sogenannte “desirable difficulties” (Bjork and Bjork 2011) – Herausforderungen, die sich schwierig anfühlen, aber das langfristige Behalten fördern:

  1. Abrufübung: Abrufen aus dem Gedächtnis stärkt es
  2. Verteiltes Wiederholen: Vergessen und erneutes Lernen schafft dauerhaftes Wissen
  3. Interleaving: Verschiedene Problemarten mischen fördert Unterscheidungsfähigkeit
  4. Generierung: Selbst Antworten erstellen (auch falsche) ist besser als Konsum

Der Kompilierungsprozess

Echte Expertise entsteht durch tausende Ăśbungszyklen:

Problem begegnen → Vorhersage treffen → Lösung versuchen → Mit Vorhersage vergleichen → Feedback bekommen → Neuronale Anpassung  
↓  
Neuronaler Pfad wird gestärkt  
↓  
Muster wird automatisch

Jeder Zyklus:

  • Stärkt neuronale Verbindungen durch Vorhersagefehler
  • Verringert die Bearbeitungszeit durch Wiederholung
  • Entlastet das Arbeitsgedächtnis fĂĽr höheres Denken
  • Ermöglicht kreatives Problemlösen durch starke Grundlagen

So funktioniert Expertise wirklich: Bei einem Problem konkurrieren mehrere Produktionsregeln. Die Regel mit dem höchsten „Nutzen“ (basierend auf vergangenem Erfolg durch Vorhersagefehler) setzt sich durch. Jede erfolgreiche Anwendung stärkt diese Regel, wodurch sie künftig wahrscheinlicher gewinnt. Deshalb wirken Experten, als „wüssten sie es einfach“ – ihre stärksten Produktionen feuern automatisch.

Was wir verlieren, wenn wir die Anstrengung ĂĽberspringen

Was wir verlieren
  1. Keine Gedächtnisbildung: Das Gehirn kodiert nicht, was es nicht verarbeitet
  2. Keine Musterentwicklung: Können nicht erkennen, was wir nicht geübt haben
  3. Keine Transferfähigkeit: Können ungeübte Prinzipien nicht auf neue Kontexte anwenden
  4. Keine Metakognition: Entwickeln kein Bewusstsein ĂĽber das eigene Denken
  5. Kein Lernen durch Vorhersagefehler: Der fundamentale Lernmechanismus wird umgangen

Die Expertise-Illusion

Das Auslagern kognitiver Prozesse an KI erzeugt eine gefährliche Illusion:

  • OberflächenflĂĽssigkeit: Perfekte Antworten ohne Verständnis
  • Falsches Selbstvertrauen: Glauben, es „verstanden zu haben“ ohne Ăśbung
  • Fragiles Wissen: Bricht ohne KI-UnterstĂĽtzung zusammen
  • Begrenzter Transfer: Kann nicht auf neue Situationen angewandt werden

Forschungsergebnisse: Die Kosten des kognitiven Auslagerns

Aktuelle Studien zeigen alarmierende Auswirkungen von KI-Nutzung auf das Lernen:

  • 68% weniger kritisches Denken bei Wissensarbeitenden mit hoher KI-VertrauenswĂĽrdigkeit (Lee et al. 2025)
  • Nur oberflächliches Lernen bei Programmierstudierenden mit ChatGPT (Yang, Hsu, and Wu 2025)
  • Verminderte Problemlösefähigkeiten bei Mathematiklernenden mit KI-Tools (Bastani et al. 2024)
  • „Die Fluency-Illusion“: KI-Kompetenz wird mit eigenem Können verwechselt

Die biologische Realität des Lernens

Lernen ist nicht nur ein kognitiver, sondern ein biologischer Prozess, der das Gehirn physisch verändert (Oakley et al. 2025):

Schlafkonsolidierung ist essenziell

Lernen endet nicht mit dem Ăśben:

  • Sharp wave ripples im Schlaf spielen Erlebtes erneut ab
  • Das Gehirn entscheidet, was bleibt und was gelöscht wird
  • Erinnerungen wandern vom Hippocampus in den Kortex
  • Neue neuronale Verbindungen festigen sich

Man kann Schlaf nicht herunterladen – genauso wenig wie Expertise!

Das „Grokking“-Phänomen

Sogar maschinelle Lernmodelle zeigen dieses Muster:

  • Lange Plateauphase ohne sichtbaren Fortschritt
  • Plötzlicher Sprung zur Generalisierung
  • FrĂĽher als „Überanpassung“ missverstanden
  • Heute als tiefes Musterlernen erkannt

Das Gedächtnisparadoxon

Umkehrung des Flynn-Effekts

Seit den 1970er/80er Jahren, als Bildung sich vom Auswendiglernen abkehrte:

  • IQ-Werte sanken erstmals in der Geschichte
  • “Warum auswendig lernen, wenn man nachschlagen kann?”
  • Genau zu dem Zeitpunkt, als Neurowissenschaften bewiesen, dass Auswendiglernen kritisches Denken fördert
  • Wir verwarfen bewährte Methoden, gerade als wir ihren Nutzen verstanden (Oakley et al. 2025)

Echte Expertise aufbauen

Evidenzbasierte Strategien
  1. Die Anstrengung annehmen
    • Deine Verwirrung ist ein notwendiger Lernschritt
    • Fehler liefern wertvolle Vorhersagefehler-Signale
    • Schwierigkeit zeigt Gehirnwachstum an
  2. Abruf ĂĽben
    • Selbst testen, bevor Antworten ĂĽberprĂĽft werden
    • Konzepte ohne Notizen erklären
    • Anderen das Gelernte beibringen
  3. Lernen verteilen
    • Nach Tagen/Wochen zu Konzepten zurĂĽckkehren
    • Vergessen zwischen den Sitzungen zulassen
    • In verschiedenen Kontexten erneut lernen
  4. Praxis variieren
    • Problemtypen mischen
    • Kontexte wechseln
    • Neue Anwendungen suchen
  5. Vorhersagefehler schĂĽtzen
    • Erst eigene Versuche unternehmen, bevor Hilfe gesucht wird
    • Bemerkenswertes Nichterwarten identifizieren
    • Fehler als Lernchancen, nicht als Scheitern sehen

Schnellreferenz: Wie Theorien zusammenwirken

Schwache Methoden (Anfänger) Starke Methoden (Experten)
Mittel-Ziel-Analyse Mustererkennung
Rückwärtsarbeiten vom Ziel Vorwärtsverkettung aus Prinzipien
Versuch und Irrtum Automatisierte Prozeduren
Oberflächenanalogien Tiefenstruktur
Schrittweise bewusst Automatisch gechunkt
Stadium Was passiert Didaktische Implikation
Deklarativ Auswendig gelernte Regeln befolgen Klare durchgearbeitete Beispiele geben
Kompilierung Wiederholte Sequenzen werden zu Chunks Viele ähnliche Übungsaufgaben
Prozedural Automatisierte Expertise Bereit fĂĽr komplexe Anwendungen

Achte auf diese Anzeichen fĂĽr kognitives Auslagern:

  • Glatte Leistung ohne Erklärungsfähigkeit
  • Unfähigkeit, Problemvarianten zu lösen
  • Kein Fortschritt trotz Ăśbung
  • Abhängigkeit von KI bei Grundaufgaben
  • KI-Ausgabe wird mit eigenem Verständnis verwechselt
  • Sofortige KI-Konsultation ohne eigenen Versuch
  • Keine Vorhersagefehler (immer „richtige“ Antworten)
Back to top

References

Anderson, John R. 1982. “Acquisition of Cognitive Skill.” Psychological Review 89 (4): 369–406. https://doi.org/10.1037/0033-295X.89.4.369.
———. 2007. How Can the Human Mind Occur in the Physical Universe? Oxford University Press. https://doi.org/10.1093/acprof:oso/9780195324259.001.0001.
Bastani, Hamsa, Osbert Bastani, Alp Sungu, Haosen Ge, Özge Kabakcı, and Rei Mariman. 2024. “Generative AI Can Harm Learning.” SSRN Scholarly Paper. Rochester, NY. July 15, 2024. https://doi.org/10.2139/ssrn.4895486.
Bjork, Elizabeth Ligon, and Robert A. Bjork. 2011. “Making Things Hard on Yourself, but in a Good Way: Creating Desirable Difficulties to Enhance Learning.” In Psychology and the Real World: Essays Illustrating Fundamental Contributions to Society, 56–64. New York, NY, US: Worth Publishers.
Groot, Adriaan D. De, and Adrianus Dingeman de Groot. 1978. Thought and Choice in Chess. Walter de Gruyter. https://books.google.com?id=EI4gr42NwDQC.
Kirschner, Paul, Carl Hendrick, and Jim Heal. 2022. How Teaching Happens: Seminal Works in Teaching and Teacher Effectiveness and What They Mean in Practice. London: Routledge. https://doi.org/10.4324/9781003228165.
Lee, Hao-Ping (Hank), Advait Sarkar, Lev Tankelevitch, Ian Drosos, Sean Rintel, Richard Banks, and Nicholas Wilson. 2025. “The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers.” In. https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/.
Oakley, Barbara, Michael Johnston, Kenzen Chen, Eulho Jung, and Terrence Sejnowski. 2025. “The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI.” May 12, 2025. https://doi.org/10.31234/osf.io/3xye5_v2.
Sweller, John. 2023. “The Development of Cognitive Load Theory: Replication Crises and Incorporation of Other Theories Can Lead to Theory Expansion.” Educational Psychology Review 35 (4): 95. https://doi.org/10.1007/s10648-023-09817-2.
———. 2024. “Cognitive Load Theory and Individual Differences.” Learning and Individual Differences 110 (February): 102423. https://doi.org/10.1016/j.lindif.2024.102423.
Yang, Tzu-Chi, Yi-Chuan Hsu, and Jiun-Yu Wu. 2025. “The Effectiveness of ChatGPT in Assisting High School Students in Programming Learning: Evidence from a Quasi-Experimental Research.” Interactive Learning Environments, January, 1–18. https://doi.org/10.1080/10494820.2025.2450659.

Reuse

Citation

BibTeX citation:
@online{ellis,
  author = {Ellis, Andrew},
  title = {Wie Man {Kompetenzen} Erwirbt},
  url = {https://virtuelleakademie.github.io/cas-hochschuldidaktik/02-wie-menschen-lernen/kompetenz-erwerben/},
  langid = {en}
}
For attribution, please cite this work as:
Ellis, Andrew. n.d. “Wie Man Kompetenzen Erwirbt.” https://virtuelleakademie.github.io/cas-hochschuldidaktik/02-wie-menschen-lernen/kompetenz-erwerben/.