Wie man Kompetenzen erwirbt

Vom Novizen zum Experten: Die Wissenschaft des Lernens

HinweisLesehinweise

Geschätzte Lesezeit: 15–20 Minuten

Diese Seite vertieft die wissenschaftlichen Grundlagen des Workshops mit Fokus auf zwei Themen, die hier exklusiv behandelt werden:

  • Kernthema 1: Die Progression von schwachen zu starken Methoden (Newell & Simon, Anderson)
  • Kernthema 2: Vorhersagefehler als Lernmechanismus und die Idee des internen Modells

Für verwandte Themen siehe: Arbeitsgedächtnis & Cognitive Load | Gedächtnis & Lernstrategien

Zentrale Erkenntnisse

  1. Expertise erfordert schrittweisen Kompetenzaufbau durch schwache → starke Methoden
  2. Kognitive Anstrengung signalisiert, dass lernrelevante Prozesse aktiv sind (Schemabildung, Abruf, Elaboration, Konsolidierung). Nicht die Anstrengung selbst, sondern diese Prozesse sind die Lernmechanismen
  3. Expertise bedeutet: ein internes generatives Modell aufbauen, das eigenständig Vorhersagen, Erklärungen und Lösungen produzieren kann
  4. KI-Outsourcing liefert Ergebnisse ohne den Prozess, der dieses interne Modell aufbaut
  5. Expertenmethoden schaden Anfängern aktiv, indem sie kognitive Überlastung und Abhängigkeit erzeugen

Die Reise vom Anfänger zum Experten

Wenn wir neue Fähigkeiten erlernen, durchläuft unser Gehirn eine bemerkenswerte Transformation. Wenn man versteht, wie dieser Prozess abläuft, wird klar: Wer kognitive Arbeit an KI auslagert, riskiert, dass echte Expertise gar nicht erst entsteht. Schlimmer noch: Expertenwerkzeuge können Anfängern aktiv schaden.

Die Progression von schwachen zu starken Methoden

Newell und Simon (1972) beschrieben erstmals die Progression von schwachen zu starken Problemlösungsmethoden. John Andersons ACT-R-Theorie (Anderson 1982, 2007) modelliert, wie dieser Übergang durch Wissenskompilation geschieht: Deklaratives Wissen wird durch Übung und Feedback zu automatisierten Produktionsregeln. Expertise entwickelt sich durch eine vorhersehbare Progression:

1. Schwache Methoden (Anfänger-Stadium)

Schwache Methoden sind domänenübergreifende Problemlösungsstrategien, die Anfänger verwenden, wenn ihnen spezifisches Wissen fehlt:

  • Mittel-Ziel-Analyse: Was ist der Unterschied zwischen meinem aktuellen Stand und dem Ziel?
  • Rückwärtsarbeiten: Vom Ziel zurück zum Ausgangszustand gehen
  • Analogie: Das erinnert mich an... (oft basierend auf Oberflächenmerkmalen)
  • Versuch und Irrtum: Ich probiere Verschiedenes aus, bis etwas funktioniert
  • Bergsteigen: Immer in Richtung dessen bewegen, was besser erscheint
HinweisBeispiel: Anfänger löst \(3x + 5 = 20\)

Mit schwachen Methoden:

  • Ziel ist, \(x\) zu finden
  • Aktueller Zustand: \(3x + 5 = 20\)
  • Wie kann ich den Unterschied verringern?
  • Vielleicht \(5\) subtrahieren?
  • Warum? Ähm… um \(x\) allein zu bekommen?
  • Ok, also \(3x = 15\)
  • Was reduziert jetzt den Unterschied?
  • Durch \(3\) teilen?
  • \(x = 5\)

Beachte das überlegte, schrittweise Vorgehen!

2. Prozeduralisierung (Fortgeschrittenen-Stadium)

  • Wiederkehrende Muster werden zu Prozeduren
  • Immer noch bewusst, aber flüssiger
  • Geringere kognitive Belastung
  • Schneller mit weniger Fehlern
  • Beispiel: Nutzung des Einmaleins aus dem Gedächtnis

In dieser Phase beginnen sich Produktionsregeln zu bilden. Das sind WENN-DANN-Bedingungs-Aktionspaare:

  • WENN ich “3 × 4” sehe DANN antworte “12”
  • WENN eine Gleichung die Form \(ax + b = c\) hat DANN subtrahiere b von beiden Seiten
  • WENN der Code nicht kompiliert DANN prüfe zuerst auf Syntaxfehler

3. Kompilierung (Experten-Stadium)

  • Wissen wird durch zahlreiche Übungsdurchläufe automatisch
  • Mustererkennung dominiert
  • Minimale kognitive Belastung
  • Schnell und fehlerfrei
  • Kann die Schritte nicht mehr erklären!

Produktionsstärke bestimmt, welche Regeln ausgelöst werden: Häufig erfolgreiche Regeln werden stärker und schneller aktiviert. Deshalb verbessert Übung sowohl die Geschwindigkeit ALS AUCH die Genauigkeit: Stärkere Produktionen setzen sich gegen schwächere Alternativen durch.

HinweisBeispiel: Experte löst \(3x + 5 = 20\)

Experte sieht die Gleichung und erkennt sofort → \(x = 5\)

Wenn nach Erklärung gefragt:

  • “Ich weiss es einfach…”
  • “Du subtrahierst 5 und teilst durch 3”
  • “Wie wusste ich das? Ich bin mir nicht sicher…”

Das Wissen ist zu automatischen Prozeduren kompiliert.

ReflectReflexion: Expertise in deiner Lehre

Denke an ein Thema, das du deinen Studierenden beibringst:

  • Welche “schwachen Methoden” verwenden Anfänger typischerweise?
  • Welche automatisierten Prozeduren haben Experten entwickelt?
  • Was würde passieren, wenn du Anfängern direkt Experten-Werkzeuge gibst?

Notiere 2–3 Beobachtungen aus deiner eigenen Lehre.

Kognitive Belastung und Expertise

Die Cognitive Load Theory erklärt, warum Anfänger und Experten das gleiche Material völlig unterschiedlich verarbeiten. Eine ausführliche Darstellung findest du im Deep-Dive Arbeitsgedächtnis & Cognitive Load. Hier das Wesentliche für den Kompetenzaufbau:

Expertise verändert die kognitive Belastung grundlegend. Was für Anfänger 7+ interagierende Elemente im Arbeitsgedächtnis erfordert (z.B. das Lösen von \((x + 3)(x - 2) = 0\)), ist für Experten ein einziger Chunk. Beim Auslagern an KI: 0 Arbeitsgedächtnisverarbeitung, also kein Lernen. Dieser Mechanismus, der Expertise Reversal Effect, hat direkte Konsequenzen für den KI-Einsatz: Was Experten hilft (komplexe Werkzeuge, offene Probleme), überfordert Anfänger und umgekehrt.

Das KI-Bypass-Problem

Wie KI die kognitive Architektur stört

Das Auslagern kognitiver Prozesse an KI kann das gesamte Lernsystem kurzschliessen:

  1. Umgeht Verarbeitung im Arbeitsgedächtnis: Keine kognitive Anstrengung bedeutet keine Kodierung
  2. Verhindert Speicherung im Langzeitgedächtnis: Unverarbeitete Informationen werden nicht gespeichert
  3. Eliminiert Schemabildung: Lernende erhalten Antworten, ohne Wissensstrukturen aufzubauen
  4. Blockiert den Übergang vom Anfänger zum Experten: Kein Weg von begrenztem zu unbegrenztem Wissen
Warnung

Das Grundproblem: KI bietet die Vorteile von Expertise (sofortiger Zugriff auf organisiertes Wissen), ohne den Prozess, der Expertise schafft (Arbeitsgedächtnisanstrengung → Speicherung im Langzeitgedächtnis).

Diese Risiken sind am gravierendsten bei systematischem, undifferenziertem Outsourcing. Gelegentliche KI-Nutzung nach eigenem Versuch kann den Lernprozess unterstützen, wie die Versuch-dann-Prüfe-Struktur in Teil 2 zeigt.

Die Experten-Anfänger-Unterrichtsfalle

Der gefährlichste Fehler in der Bildung ist anzunehmen, dass Anfänger so lernen sollten, wie Experten arbeiten. Kirschner (Kirschner, Hendrick, und Heal 2022) bezeichnet das als Verwechslung der „Epistemologie des Experten mit der Pädagogik für Lernende”.

Warum Expertenmethoden Anfängern aktiv schaden

Anfängern Expertenwerkzeuge zu geben, ist nicht nur ineffektiv, sondern aktiv schädlich:

Mechanismus Experten Anfänger Ergebnis mit KI
Kognitive Belastung Verarbeiten viele Elemente als Chunks Werden mit derselben Komplexität überfordert Kognitive Überlastung, kein Lernen
Produktionsregeln Starke Regeln feuern automatisch Müssen Regeln durch Wiederholung aufbauen Keine Wiederholung, dauerhafte Abhängigkeit
Schemabildung Reichhaltige Schemata durch Erfahrung Müssen Schemata Element für Element konstruieren Kein Konstruktionsprozess, kein Transfer
Metakognition Wissen, wann welche Strategie passt Entwickeln Bewusstsein durch Selbstüberwachung Keine Selbstüberwachung, keine Selbsteinschätzung
WarnungDie Abhängigkeitskaskade

Wenn Anfänger zu früh Expertenwerkzeuge nutzen, können sich mehrere Risiken verstärken: Anfänglicher Erfolg schafft falsches Selbstvertrauen, schwache Methoden verkümmern durch Nichtgebrauch, und Transfer scheitert, wenn KI nicht verfügbar ist. Das Selbstbild aktualisiert sich: Lernende schliessen aus ihren Erfahrungen rational, dass sie es allein nicht können.

Das Ergebnis ist nicht “Verlernen” im engeren Sinne, sondern Fähigkeitsatrophie durch Nichtgebrauch.

HinweisVerbindung zum Workshop

Diese Prinzipien bilden die Grundlage für:

  • Das 5-Fragen-Framework in Teil 3 (Fragen 2 & 5 behandeln den Kompetenzaufbau und die Versuch-dann-Prüfe-Struktur)
  • Die Kollegiale Kurzberatung in Teil 3: Die Advocatus-Diaboli-Frage (“Könnte eine Studierende das Denken nach deiner Änderung immer noch delegieren?”) prüft, ob der Kompetenzaufbauprozess geschützt ist

Du wirst diese Prinzipien in der Praxis anwenden, wenn du deine eigenen Aufgaben analysierst.

Lehren im Einklang mit dem Gehirn

Prinzip 1: Die Entwicklungssequenz respektieren

  • Schwache Methoden müssen zuerst kommen. Sie sind keine Fehler, sondern notwendig
  • Prozeduralisierung erfordert umfangreiche Übung mit überlegten Prozessen
  • Kompilierung geschieht automatisch nach ausreichender Wiederholung

Prinzip 2: Kognitive Belastung kalibrieren

  • Anfänger brauchen vereinfachte, sequenzielle Darstellung
  • Experten können komplexe, parallele Verarbeitung bewältigen
  • Dasselbe Material muss je nach Expertenniveau unterschiedlich präsentiert werden

Prinzip 3: Das Zeitfenster für produktive Anstrengung schützen

  • Genügend Zeit für eigenständiges Arbeiten vor KI-Konsultation geben
  • Denkprozesse dokumentieren, bevor externe Hilfe gesucht wird
  • Mehrere Versuche, bevor Lösungen zugänglich sind

Prinzip 4: Scaffolding statt Substitution

  • KI nutzen, um irrelevante kognitive Belastung zu reduzieren, nicht jede Anstrengung zu eliminieren
  • Durchgearbeitete Beispiele liefern, die den Prozess zeigen, nicht nur die Antworten
  • Unterstützung schrittweise abbauen, sobald Kompetenz entsteht (Scaffolding)
ReflectReflexion: Prinzipien auf die eigene Lehre übertragen

Wähle eines der vier Prinzipien (Entwicklungssequenz, kognitive Belastung, produktive Anstrengung, Scaffolding):

  • Wie gut ist dieses Prinzip in einer deiner aktuellen Lehrveranstaltungen umgesetzt?
  • Was müsstest du konkret ändern?

Halte deine Antwort in 2–3 Sätzen fest, bevor du weiterliest.

TippVertiefung: Workshop-Konzept wissenschaftlich betrachtet

Der folgende Abschnitt vertieft das Konzept des “Prediction Error Learning”, das im Workshop eingeführt wurde. Hier siehst du die wissenschaftlichen Details und Mechanismen hinter diesem Prinzip.

Vorhersagefehler: Ein wichtiger Lernmechanismus

Prediction Error Learning ist ein wichtiger neuronaler Mechanismus für den Kompetenzaufbau. Die Forschung dazu umfasst mehrere unterschiedliche theoretische Traditionen: dopaminerge Belohnungssignale (Rescorla-Wagner-Tradition), sensorische Vorhersagefehler (Predictive Processing) und Überraschung im Bayesianischen Sinne. Diese Traditionen teilen eine Grundidee, unterscheiden sich aber in Mechanismen und Geltungsbereich. Für die Lehrpraxis ist die gemeinsame Grundidee nützlich: Das Gehirn lernt aus der Diskrepanz zwischen Erwartung und Erfahrung.

Der Vorhersagefehler-Zyklus

Schritt 1: Bildung einer Vorhersage

Beim Auftreten eines Problems prognostiziert das Gehirn automatisch, was passieren sollte, basierend auf dem aktuellen Wissen:

  • „Wenn ich 5 von beiden Seiten subtrahiere, komme ich näher an \(x\) heran”
  • „Wenn ich diese Formel anwende, sollte ich das richtige Ergebnis bekommen”
  • „Diese Code-Struktur sollte kompilieren”

Schritt 2: Realitätsabgleich

Man versucht eine Lösung und vergleicht das tatsächliche Ergebnis mit der Vorhersage:

  • Positiver Vorhersagefehler: „Das lief besser als erwartet!”
  • Negativer Vorhersagefehler: „Das hat nicht wie gedacht funktioniert”
  • Null-Fehler: „Es lief genau wie vorhergesagt”

Schritt 3: Neuronales Update

Das Gehirn nutzt diese Fehler zur Anpassung des Wissens:

  • Neuronale Signale markieren Vorhersagefehler als wichtige Lernmomente
  • Neuronale Pfade, die am Fehler beteiligt waren, werden verstärkt
  • Synaptische Verbindungen werden je nach Fehlergrösse angepasst
  • Konsolidierung im Schlaf macht diese Änderungen dauerhaft

Die Forschung zu Prediction Error Learning umfasst mehrere Systeme: dopaminerge Signale im mesolimbischen System, Eligibility Traces im Cerebellum und Konsolidierungsprozesse im Hippocampus und Neokortex. Diese Mechanismen sind komplexer und weniger eindeutig geklärt, als populäre Darstellungen oft suggerieren.

Für die Lehrpraxis ist entscheidend: Der Vorhersagefehler-Zyklus funktioniert, wenn Lernende selbst Hypothesen bilden, diese testen und Feedback bekommen, unabhängig von den genauen neuronalen Details.

Versuch 1: Lernender denkt „Ich muss die 5 eliminieren, also addiere ich 5 auf beiden Seiten”

  • Vorhersage: Das sollte helfen, \(x\) zu finden
  • Realität: Erhält \(3x + 10 = 25\) (weiter vom Ziel entfernt)
  • Vorhersagefehler: Negativ! Dieser Ansatz verschlechtert es
  • Lernen: Gehirn markiert „gleiches Hinzufügen” als erfolglos

Versuch 2: Lernender versucht „Ich subtrahiere 5 von beiden Seiten”

  • Vorhersage: Das könnte besser funktionieren
  • Realität: Erhält \(3x = 15\) (viel sauberer!)
  • Vorhersagefehler: Positiv! Ansatz funktioniert
  • Lernen: Gehirn stärkt „Subtrahiere zur Isolierung”-Pfad

Nach vielen Zyklen: Die Regel „Subtrahiere zur Isolierung” wird automatisch

ReflectReflexion: Vorhersagefehler in deiner Lehre

Denke an eine Aufgabe in deiner Lehre:

  • Wo generieren Studierende Vorhersagen, bevor sie Feedback bekommen?
  • Wo könnte KI diesen Vorhersagefehler-Zyklus kurzschliessen?
  • Wie könntest du die “Versuch-dann-Prüfe”-Struktur einbauen?

Warum das Auslagern kognitiver Prozesse an KI das Lernsignal verarmt

Wenn KI sofort fertige Antworten liefert, wird der Vorhersagefehler nicht null. Das Gehirn bildet immer automatisch Erwartungen. Aber der Vorhersagefehler wird uninformativ:

  • Ohne eigenen Lösungsversuch aktivieren Lernende ihr internes Modell nicht
  • Ohne spezifische Vorhersage gibt es nichts, woran das Feedback sinnvoll andocken kann
  • Das Ergebnis ist ein diffuser, unstrukturierter Vorhersagefehler, der kaum Lernen erzeugt

Das entscheidende Problem: Je weniger Vorwissen Lernende haben, desto weniger können sie mit dem KI-Output anfangen. Ihr internes Modell ist noch zu undifferenziert, um dem Feedback Bedeutung zuzuschreiben.

Im Gegensatz dazu: Wer zuerst selbst einen Lösungsversuch unternimmt, aktiviert sein internes Modell, bildet spezifische Vorhersagen und erzeugt dadurch informative Vorhersagefehler, genau die Art von Diskrepanz, aus der das Gehirn effektiv lernen kann.

Das interne Modell: Was Expertise eigentlich ist

Ein Experte “weiss” nicht einfach mehr Fakten. Expertise bedeutet, reichhaltige, vernetzte Wissensstrukturen (Schemata) aufgebaut zu haben, die eigenständig Vorhersagen, Erklärungen und Lösungen ermöglichen. Die Metapher des “internen generativen Modells” fasst diese Idee zusammen, sie ist allerdings eine didaktische Synthese aus verschiedenen Traditionen (ACT-R-Produktionsregeln, Schema-Theorie, Predictive Processing), kein etablierter Fachbegriff einer einzelnen Theorie.

Warum ist diese Perspektive trotzdem hilfreich? Sie erklärt auf einen Blick:

  • Warum aktives Problemlösen so wirksam ist: Es zwingt Lernende, ihr internes Modell zu aktivieren, es “laufen zu lassen” und konkrete Vorhersagen zu generieren, die dann an der Realität scheitern oder bestätigt werden können.
  • Warum Experten von KI-Feedback profitieren: Ihr Modell ist differenziert genug, um spezifische Vorhersagen zu machen. Feedback dockt an konkreten Erwartungen an und ist deshalb informativ.
  • Warum Anfänger durch KI-Outsourcing gefährdet sind: Ihr Modell ist noch zu undifferenziert. Ohne eigenen Lösungsversuch aktivieren sie es nicht, und der KI-Output bleibt ein diffuser Datenpunkt, aus dem wenig gelernt werden kann.
  • Warum das Evaluationsparadox existiert: KI-Output zu bewerten ist selbst eine Form von Inferenz. Man muss das eigene Modell aktivieren und prüfen, ob der Output damit konsistent ist. Ohne entwickeltes Modell fehlt die Grundlage dafür.

Die entscheidende Frage für jede Lernsituation lautet deshalb: Wie aktiv ist das interne Modell der Lernenden, wenn sie dem KI-Output begegnen? Je aktiver das Modell, desto informativer das Feedback, und desto mehr wird gelernt.

Wünschenswerte Schwierigkeiten und Lernstrategien

Lernen erfordert sogenannte “desirable difficulties” (Bjork und Bjork 2011): Herausforderungen, die sich schwierig anfühlen, aber das langfristige Behalten fördern (Abrufübung, verteiltes Wiederholen, Interleaving, Generierung). Eine ausführliche Darstellung dieser Strategien mit praktischen Beispielen findest du im Deep-Dive Gedächtnis & Lernstrategien.

Aktuelle Studien zeigen, dass KI-Outsourcing diese Mechanismen systematisch untergräbt: weniger kritisches Denken bei hohem KI-Vertrauen (Lee u. a. 2025), nur oberflächliches Lernen bei Programmierstudierenden (Yang, Hsu, und Wu 2025) und verminderte Problemlösefähigkeiten bei Mathematiklernenden (Bastani u. a. 2025).

ReflectReflexion: Das Gesamtbild

Bevor du weiterliest, fasse für dich zusammen:

  • Was sind die drei wichtigsten Erkenntnisse für deine Lehre?
  • Welche eine Änderung an einer Aufgabe wirst du zuerst umsetzen?
  • Wo erwartest du den grössten Widerstand von Studierenden?

Diese Selbsterklärung ist der Übergang vom Verstehen zum Anwenden.

Lernen ist nicht nur ein kognitiver, sondern ein biologischer Prozess (Oakley u. a. 2025). Schlafkonsolidierung spielt eine zentrale Rolle: Sharp wave ripples im Schlaf spielen Erlebtes erneut ab, Erinnerungen wandern vom Hippocampus in den Kortex, und neue neuronale Verbindungen festigen sich. Man kann Schlaf nicht herunterladen, genauso wenig wie Expertise.

Das “Grokking”-Phänomen in maschinellen Lernmodellen zeigt ein ähnliches Muster: Nach einer langen Plateauphase ohne sichtbaren Fortschritt kommt ein plötzlicher Sprung zur Generalisierung. Manchmal braucht es viel mehr Trainingsschritte als bis zum Memorieren, dann findet das Modell plötzlich die zugrundeliegende Regel.

ReflectAbschluss-Reflexion

Du hast jetzt die vollständige wissenschaftliche Grundlage gelesen. Formuliere in einem Satz:

Was ist die wichtigste Erkenntnis, die du in deine nächste Lehrveranstaltung mitnimmst?

Schreibe den Satz auf, bevor du die Schnellreferenz-Tabelle anschaust.

Schnellreferenz

Schwache Methoden (Anfänger) Starke Methoden (Experten)
Mittel-Ziel-Analyse Mustererkennung
Rückwärtsarbeiten vom Ziel Vorwärtsverkettung aus Prinzipien
Versuch und Irrtum Automatisierte Prozeduren
Oberflächenanalogien Tiefenstruktur
Schrittweise bewusst Automatisch gechunkt
Stadium Was passiert Didaktische Implikation
Deklarativ Auswendig gelernte Regeln befolgen Klare durchgearbeitete Beispiele geben
Kompilierung Wiederholte Sequenzen werden zu Chunks Viele ähnliche Übungsaufgaben
Prozedural Automatisierte Expertise Bereit für komplexe Anwendungen
Zurück nach oben

Literatur

Anderson, John R. 1982. „Acquisition of Cognitive Skill“. Psychological Review 89 (4): 369–406. https://doi.org/10.1037/0033-295X.89.4.369.
———. 2007. How Can the Human Mind Occur in the Physical Universe? Oxford University Press. https://doi.org/10.1093/acprof:oso/9780195324259.001.0001.
Bastani, Hamsa, Osbert Bastani, Alp Sungu, Haosen Ge, Özge Kabakcı, und Rei Mariman. 2025. „Generative AI Without Guardrails Can Harm Learning: Evidence from High School Mathematics“. Proceedings of the National Academy of Sciences of the United States of America 122 (26): e2422633122. https://doi.org/10.1073/pnas.2422633122.
Bjork, Elizabeth Ligon, und Robert A. Bjork. 2011. „Making Things Hard on Yourself, but in a Good Way: Creating Desirable Difficulties to Enhance Learning“. In Psychology and the Real World: Essays Illustrating Fundamental Contributions to Society, 56–64. New York, NY, US: Worth Publishers.
Kirschner, Paul, Carl Hendrick, und Jim Heal. 2022. How Teaching Happens: Seminal Works in Teaching and Teacher Effectiveness and What They Mean in Practice. London: Routledge. https://doi.org/10.4324/9781003228165.
Lee, Hao-Ping (Hank), Advait Sarkar, Lev Tankelevitch, Ian Drosos, Sean Rintel, Richard Banks, und Nicholas Wilson. 2025. „The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. In. https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/.
Newell, Allen, und Herbert A. Simon. 1972. Human Problem Solving. Brattleboro, Vermont: Echo Point Books & Media.
Oakley, Barbara, Michael Johnston, Kenzen Chen, Eulho Jung, und Terrence Sejnowski. 2025. „The Memory Paradox: Why Our Brains Need Knowledge in an Age of AI. 12. Mai 2025. https://doi.org/10.31234/osf.io/3xye5_v2.
Yang, Tzu-Chi, Yi-Chuan Hsu, und Jiun-Yu Wu. 2025. „The Effectiveness of ChatGPT in Assisting High School Students in Programming Learning: Evidence from a Quasi-Experimental Research“. Interactive Learning Environments, Januar, 1–18. https://doi.org/10.1080/10494820.2025.2450659.

Wiederverwendung

Zitat

Mit BibTeX zitieren:
@online{ellis,
  author = {Ellis, Andrew},
  title = {Wie man Kompetenzen erwirbt},
  url = {https://virtuelleakademie.github.io/ki-lehre-intermediate/01-lernen-verstehen/kompetenz-erwerben/},
  langid = {de}
}
Bitte zitieren Sie diese Arbeit als:
Ellis, Andrew. n.d. “Wie man Kompetenzen erwirbt.” https://virtuelleakademie.github.io/ki-lehre-intermediate/01-lernen-verstehen/kompetenz-erwerben/.