Agent-Template: Analyse & Anpassung

Von der Aufgaben-Analyse zur KI-Entscheidung

Was ist ein “Agent”?

Im Kontext dieses Workshops meint “Agent” etwas Einfaches: einen Chatbot, der mit spezifischen Anweisungen konfiguriert wurde, um sich auf eine bestimmte Weise zu verhalten. Der Statistik-Coach weiter unten auf dieser Seite ist ein Beispiel: ein Chatbot, der so eingestellt ist, dass er nur Rückfragen stellt statt Antworten zu liefern. Die Anweisungen, die dieses Verhalten definieren, heissen System-Prompt.

Einen solchen Agent kannst du z.B. in Copilot erstellen (dort heissen sie ebenfalls “Agents”). Wer tiefer einsteigen will und eigene Anwendungen mit den APIs von LLM-Anbietern bauen möchte, findet das im Advanced Workshop.

Diese Seite hilft dir, die pädagogische Entscheidung zu treffen: Ergibt ein Agent für deine Aufgabe überhaupt Sinn? Wie man Agents technisch baut und einsetzt, ist Thema des Advanced Workshops.

Voraussetzung: Die pädagogische Diagnose

Du hast eine Aufgabe mit den 5 Leitfragen analysiert und festgestellt, dass eine Versuch-dann-Prüfe-Struktur sinnvoll wäre. Jetzt stellt sich die Frage: Könnte ein KI-Agent diese Struktur unterstützen?

Diese Seite ist ein optionaler nächster Schritt nach der Aufgaben-Analyse. Nicht jede Aufgabe mit Versuch-dann-Prüfe-Struktur braucht einen Agent. Für die Prüfe-Phase gibt es oft einfachere Wege: eine Musterlösung zum Selbstvergleich, strukturiertes Peer-Feedback, oder eine Checkliste zur Selbstbewertung. Ein Agent lohnt sich, wenn:

  • Die Prüfphase personalisiertes Feedback erfordert, das du als Lehrperson nicht für alle Studierenden leisten kannst
  • Der Agent die Versuch-Phase schützt, indem er erst reagiert, nachdem Studierende einen eigenen Versuch dokumentiert haben
  • Die Aufgabe wiederholt eingesetzt wird und sich die Investition in das Design lohnt
HinweisLernprinzip: Worked Examples

Forschung zeigt: Anfänger lernen effektiver durch das Analysieren und Anpassen von Beispielen als durch freie Generierung (Sweller 2024). Erst wenn du mehrere Agents analysiert hast, wird das freie Design zugänglich.

Template: Statistik-Reflexions-Coach

Kontext

  • Fach: Deskriptive Statistik (2. Semester)
  • Lernziel: Studierende sollen verstehen, wann welches Streuungsmass (Range, IQR, Standardabweichung) angemessen ist
  • Problem: Studierende können die Formeln anwenden, aber nicht begründen, warum sie ein bestimmtes Mass wählen

Agent-Prompt (Version 1.0)

Du bist ein Statistik-Reflexions-Coach für Studierende in deskriptiver Statistik.

DEINE ROLLE:
- Du hilfst Studierenden, über ihre Entscheidungen bei der Wahl von
  Streuungsmassen nachzudenken
- Du stellst Fragen, die zum Nachdenken anregen
- Du gibst KEINE direkten Antworten oder fertigen Lösungen

ARBEITSWEISE (Versuch-dann-Prüfe):
1. Die Studierenden beschreiben einen Datensatz und ihr gewähltes
   Streuungsmass
2. Du stellst 2-3 gezielte Fragen zu ihrer Wahl:
   - "Welche Eigenschaften des Datensatzes haben dich zu dieser
     Wahl geführt?"
   - "Was würde passieren, wenn du [alternatives Mass] verwendet
     hättest?"
   - "Gibt es Ausreisser oder Schiefe in den Daten?"
3. Nach ihrer Reflexion gibst du spezifisches Feedback zu ihrer
   Begründung (nicht zur Wahl selbst)

VERBOTEN:
- Direkt sagen "Verwende X" oder "Das ist falsch"
- Die Entscheidung für die Studierenden treffen
- Fertige Analysen liefern

ZIEL:
Studierende sollen lernen, ihre Entscheidungen zu BEGRÜNDEN, nicht
nur "richtige Antworten" zu produzieren.

Deine Aufgabe: Analysieren & Anpassen

Phase 1: Analysieren (3 Min)

Evaluiere das Template mit dieser Checkliste:

Beispiel zu “zu viel preisgeben”: Die Frage “Gibt es Ausreisser oder Schiefe in den Daten?” lenkt die Aufmerksamkeit direkt auf das entscheidende Kriterium für die Wahl des Streuungsmasses. Der Agent signalisiert damit, worauf es ankommt, statt die Studierenden das selbst herausfinden zu lassen. Ist das in diesem Kontext gewollt, oder gibt der Agent hier zu viel preis? Suche nach weiteren solchen Stellen.

Phase 2: Pädagogisch bewerten (5 Min)

Wähle eine der folgenden Optionen:

Identifiziere zwei Situationen, in denen dieser Agent sein eigenes Designprinzip verletzen würde:

  • In welcher Situation würde der Agent trotz der VERBOTEN-Regeln die Denkarbeit übernehmen?
  • Welche Art von Studierendenfrage könnte den Agent dazu bringen, doch direkte Antworten zu liefern?
  • Was passiert, wenn Studierende den Agent in einer Schleife befragen, bis er schrittweise die Lösung offenlegt?

Lies den System-Prompt noch einmal mit der Frage: Wo stimmen pädagogische Absicht und tatsächliche Anweisung nicht überein?

  • Welches Lernziel wird im Kontext beschrieben, aber im Prompt nicht geschützt?
  • Wo ist eine Anweisung so vage, dass der Chatbot sie auf verschiedene Weisen interpretieren könnte?
  • Was müsste der Prompt zusätzlich adressieren, um die Versuch-dann-Prüfe-Struktur wirklich zu schützen?

Beschreibe die Lücke und erkläre, warum sie pädagogisch problematisch ist. Du musst den Prompt nicht umschreiben.

Der Statistik-Coach nutzt vor allem Abrufpraxis und Feedback. Welche weitere Strategie würde das Design stärken? Hier sind vier Kandidaten:

Strategie Kernidee
Abwechslung (Interleaving) Verschiedene Aufgabentypen mischen statt blockweise üben
Variation Gleiche Konzepte in unterschiedlichen Kontexten anwenden
Wünschenswerte Schwierigkeiten Anstrengung und Fehler als Lernhilfe nutzen
Verstehen vs. Vertrautheit In eigenen Worten erklären statt nur wiedererkennen

Wähle eine Strategie und beantworte:

  • Wie müsste sich das Verhalten des Agents ändern, um diese Strategie zu unterstützen?
  • Bleibt die Versuch-dann-Prüfe-Struktur dabei erhalten?

Beschreibe die pädagogische Logik. Die technische Umsetzung im Prompt ist Thema des Advanced Workshops. Alle 8 Strategien im Detail: Make-it-Stick-Handout.

Designprinzipien zur Orientierung

Gute Agents für Lernen:

  1. Versuch zuerst: Studierende müssen selbst denken, bevor der Agent reagiert
  2. Fragen statt Antworten: Der Agent provoziert Nachdenken
  3. Prozess über Produkt: Fördert wie Studierende denken, nicht nur was sie produzieren (besonders wichtig in der Aufbauphase; bei fortgeschrittenen Studierenden kann übermässige Prozessreflexion auch kontraproduktiv sein)
  4. Explizite Signale: Lenkt Aufmerksamkeit auf lernrelevante Merkmale
Warnung“Fragen statt Antworten” hat eine Grenze

Prinzip 2 gilt nicht für alle Studierenden gleichermassen. Ein Agent, der ausschliesslich Rückfragen stellt, setzt voraus, dass die Studierenden genug Vorwissen haben, um die Fragen produktiv zu bearbeiten. Für Studierende in der Grundlagenphase (Leitfrage 4) kann ein rein fragenbasierter Agent die kognitive Belastung erhöhen, ohne dass produktives Nachdenken entsteht: Die Studierenden wissen schlicht nicht genug, um sinnvoll zu antworten.

Cognitive Load Theory legt einen anderen Weg nahe: Für echte Anfänger ist direkte Instruktion wirksamer, z.B. ein ausgearbeitetes Beispiel mit Selbsterklärungs-Prompts oder ein teilweise gelöstes Problem zum Vervollständigen. Erst mit wachsender Kompetenz wird ein fragenbasierter Agent zum produktiven Werkzeug. Die VERBOTEN-Regeln im Template oben setzen Studierende voraus, die bereits über Grundlagenwissen verfügen.

Wann kein Agent die richtige Antwort ist

Nicht jede Versuch-dann-Prüfe-Struktur braucht einen KI-Agenten. In folgenden Situationen ist ein Agent kontraproduktiv:

Wenn der Versuch das gesamte Lernziel ist. Bei Aufgaben, in denen der eigenständige Versuch selbst die Kompetenz aufbaut (z.B. freies Schreiben, klinische Ersteinschätzung, mathematische Beweisführung), fügt ein Agent in der Prüfphase keinen Mehrwert hinzu, der über manuelles Peer-Feedback oder eine Musterlösung hinausgeht.

Wenn Studierende in der Grundlagenphase sind. Das Problem geht über das Evaluationsparadox hinaus: Studierende, denen die Grundlagen fehlen (Leitfrage 4), können den Agent-Output nicht bewerten und profitieren auch nicht von fragenbasierter Anleitung. Wer die Schemata nicht hat, um eine Rückfrage produktiv zu bearbeiten, erlebt Verwirrung statt produktiver Anstrengung. In dieser Phase sind ausgearbeitete Beispiele mit Selbsterklärungs-Prompts oder strukturiertes Peer-Feedback wirksamer als ein Agent.

Wenn die Aufgabe bereits produktive Anstrengung erzeugt. Wenn deine Analyse mit den 5 Leitfragen zeigt, dass die Aufgabe die lernrelevante kognitive Verarbeitung bereits gut schützt, besteht die Gefahr, dass ein Agent unnötige Komplexität hinzufügt, ohne den Lernprozess zu verbessern.

HinweisAber: Ein Agent für Worked Examples?

Die Aussage “kein fragenbasierter Agent für Anfänger” heisst nicht “keine KI für Anfänger”. Ein Agent, der ausgearbeitete Beispiele generiert, mit Selbsterklärungs-Prompts und angepasst an das Kompetenzniveau, ist ein ganz anderer Typ: Er liefert direkte Instruktion statt sie zu verweigern. Solche Agents können gerade für Anfänger wertvoll sein, weil sie personalisierte Worked Examples in grossem Massstab ermöglichen.

Der Haken: Ein Worked-Example-Generator erfordert sorgfältiges Design und Qualitätskontrolle, denn die generierten Beispiele müssen fachlich korrekt und didaktisch sinnvoll aufgebaut sein. Das Design und die technische Umsetzung solcher Agents ist ein Schwerpunkt des Advanced Workshops.

ReflectDas Evaluationsparadox, auf dich selbst angewendet

Du hast gerade in wenigen Minuten einen System-Prompt analysiert oder angepasst. Wie sicher bist du, dass dein Agent tatsächlich so funktioniert, wie du es beabsichtigst?

Du befindest dich jetzt in derselben Position wie deine Studierenden gegenüber dem Evaluationsparadox: Ein System-Prompt beschreibt gewünschtes Verhalten, er garantiert es nicht. Ob der Agent tatsächlich die Denkarbeit bei den Studierenden belässt, zeigt sich erst im iterativen Testen mit echten Studierenden.

Das ist kein Argument gegen Agents, sondern ein Argument für Bescheidenheit beim Design und systematisches Testen vor dem Einsatz.

WarnungDie Referenz muss stimmen

Anders als eine geprüfte Musterlösung kann ein KI-Agent in der Prüfe-Phase selbst falsch liegen. Sprachmodelle produzieren plausiblen, aber nicht immer korrekten Output. Wenn Studierende ihren eigenen Versuch gegen eine fehlerhafte Referenz vergleichen und die Fachkompetenz fehlt, den Fehler zu erkennen, lernen sie möglicherweise das Falsche. Für kritische Lerninhalte, bei denen Genauigkeit entscheidend ist, kann eine von der Lehrperson geprüfte Musterlösung die sicherere Wahl sein.

Weiter

HinweisVom Entscheiden zum Bauen

Diese Seite hilft dir bei der pädagogischen Entscheidung: Braucht meine Aufgabe einen Agent, und wenn ja, welches Verhalten muss er zeigen? Das ist die Kernkompetenz dieses Workshops.

Wenn du einen Agent tatsächlich technisch umsetzen willst, mit strukturierten Prompts, Qualitätskontrolle und Deployment, findest du das im Advanced Workshop: KI-Werkzeuge für die Lehre bauen.

Illustrierte Beispiele: Agents für verschiedene Lernstrategien

Zurück nach oben

Literatur

Sweller, John. 2024. „Cognitive Load Theory and Individual Differences“. Learning and Individual Differences 110 (Februar): 102423. https://doi.org/10.1016/j.lindif.2024.102423.

Wiederverwendung