KI: erste Schritte & rechtliche Aspekte

Andrew Ellis

05 December, 2024

KĂŒnstliche Intelligenz

  • KĂŒnstliche Intelligenz (KI): Entwicklung von Maschinen, die Aufgaben ausfĂŒhren können, welche normalerweise menschliche Intelligenz erfordern.

  • KI-Systeme können trainiert werden, um aus Daten zu lernen und Muster zu erkennen.

  • Mögliche Einsatzbereiche:

    • Personalisierte Empfehlungen
    • Selbstfahrende Autos
    • Vorhersage von Proteinfaltungen
    • Erstellung von Musik/Bildern/Texten

Large Language Models (LMMs)

Maschinelles Lernen:

Modelle, die ohne explizite Programmierung Muster aus Daten erlernen, um Vorhersagen oder Entscheidungen zu treffen.

Large Language Model:

Ein maschinelles Lernmodell, das darauf trainiert wird, das nÀchste Wort nach einem Eingabetext (Prompt) vorherzusagen.

KI verrichtet geistige Arbeit

  • Kognitive Arbeit und KI: KI hat das Potential zu verĂ€ndern, wie geistige Arbeit verrichtet wird.

  • Wichtige Erkenntnisse aus der Forschung:

    • Dell’Acqua et al. (2023) erforschen die Möglichkeiten, mit KI-UnterstĂŒtzung kognitive Aufgaben zu verbessern. Fazit: KI kann ProduktivitĂ€t und QualitĂ€t steigern, aber auch neue Herausforderungen ergeben.
    • Toner-Rodgers (n.d.) diskutiert die Implikationen von KI fĂŒr die Forschung und betont die Balance zwischen menschlicher und maschineller Intelligenz.
    • Cui et al. (2024) analysieren die Auswirkungen von generativer KI auf Software Engineering und hebt sowohl Chancen als auch Herausforderungen hervor.
  • Erkenntnisse:

    • Automatisierung von routinemĂ€ssigen kognitiven Aufgaben ist möglich
    • UnterstĂŒtzung kreativer Arbeit ist möglich
    • Deskilling: Gefahr, bei stĂ€ndiger KI-UnterstĂŒtzung eigene FĂ€higkeiten zu verlieren
    • Ohne Training: KI-Tools werden oft fĂŒr ungeeignete Aufgaben eingesetzt

Körperliche Arbeit

19. Jahrhundert

20. Jahrhundert

Bildquelle: Erstellt mit DALL-E 3

Wie sieht das fĂŒr die kognitive Arbeit aus?

1960

2030

Bildquelle: Erstellt mit DALL-E 3

Ankunftstechnologien

Hochschulen stehen vor Herausforderungen mit Technologien wie ChatGPT, weil sie:

  • Traditionelle Technologie-Evaluierungsprozesse umgehen
  • Durch spontane Adoption eingefĂŒhrt werden
  • Reaktive statt proaktive Richtlinien erfordern

Bildquelle: Erstellt mit DALL-E 3 (“ChatGPT arriving at a university in the style of a 14th century painting.”)

Adoptions- vs. Ankunfts-Technologien

(Reich and Dukes 2024)

Traditionelle EinfĂŒhrung

  • SorgfĂ€ltige Bewertung
  • Pilotversuche
  • Mitarbeiterschulung
  • Klare ZeitplĂ€ne
  • Etablierte Richtlinien

Beispiele: Adoptions-Technologien

Learning Management Systems, Smart boards

Ankunftstechnologien

  • Spontane Nutzung
  • Umgehung von Prozessen
  • Keine Vorbereitung
  • BenutzergefĂŒhrte EinfĂŒhrung
  • Reaktive Richtlinien

Beispiele: Ankunfts-Technologien

Smartphone, Wikipedia, YouTube, TikTok

Was sind LLMs?

Um die angekommene Technologie einordnen zu können, ist eine Entmystifizierung notwendig:

  • LLMs sind statistische Modelle, die Text analysieren, um das nĂ€chste Wort vorherzusagen.
  • Diese Vorhersage geschieht Wort fĂŒr Wort.
  • Jede Vorhersage basiert auf
    • der Eingabe (Prompt)
    • den zuvor generierten Wörtern
    • der internen Struktur des Modells

\[\purple{P(\text{Wort}_{i+1}} \mid \blue{\text{Kontext}}, \red{\text{Modell}})\]

Das \(\purple{\text{nÀchste Wort}}\) wird vorhergesagt, in AbhÀngigkeit von \(\blue{\text{Inputsequenz}}\) und \(\red{\text{Modell}}\).

Vorhersage

Nicht alle Teile des Kontexts sind gleich wichtig:



“Die Familie, die sehr wohlhabend war, lebte in einem grossen Haus. Das Haus stand inmitten eines weitlĂ€ufigen Gartens. Es war bekannt fĂŒr seine prĂ€chtige Fassade und die grosszĂŒgigen ___”

Nach Thomas Mann, Buddenbrooks



Welche Wörter sind besonders wichtig, um

  • die Bedeutung des Satzes zu erfassen?
  • das nĂ€chste Wort vorherzusagen?

Kontext verstehen

“Die Familie, die sehr wohlhabend war, lebte in einem grossen Haus. Das Haus stand inmitten eines weitlĂ€ufigen Gartens. Es war bekannt fĂŒr seine prĂ€chtige Fassade und die grosszĂŒgigen ___”

Syntaktische Struktur (Grammatik und Struktur des Satzes):

  • Das Wort “grosszĂŒgigen” ist ein Adjektiv, das wahrscheinlich ein Nomen - im Plural beschreibt (Dativ oder Akkusativ wegen der Endung “-en”).
  • Der Satz bezieht sich auf das Haus und den Garten, daher liegt der Fokus vermutlich auf deren Eigenschaften.

Semantischer Kontext (Bedeutung):

Die Beschreibung hebt Wohlstand hervor. Das nÀchste Wort beschreibt vermutlich etwas Luxuriöses oder WeitlÀufiges.

Lexikalische KohÀrenz (Wörter und deren Bedeutungen im Kontext):

Nach “grosszĂŒgigen” folgen hĂ€ufig Nomen, die RĂ€ume, FlĂ€chen oder architektonische Elemente beschreiben, z. B. “RĂ€ume”, “GĂ€rten”, “Fenster”.

Was sind LLMs?

Ein LLM kann man sich wie einen ausgefeilten Autocomplete-Mechanismus vorstellen.

Bildquelle: www.apple.com

Wie generieren LLMs Text?



Wie können LLMs Text vorhersagen?

Sie werden trainiert, das nÀchste Wort in einer gegebenen Wortsequenz zu erraten.

Ein LLM wird in drei Schritten aufgebaut:

  1. Sammeln eines grossen Text-Korpus.
  2. Basierend auf diesem Text, muss das Modell das nÀchste Wort in einer gegebenen Wortsequenz vorherzusagen lernen.
  3. Das Sprachmodell wird feiner abgestimmt, um das gewĂŒnschte Verhalten zu erreichen.

Wie werden LLMs trainiert?

Gefahren und Herausforderungen

Die verschiedenen Stufen des Trainings sind mit verschiedenen Arten von Bedenken verbunden:

  • Urheberrecht: Die trainierten Modelle werden mit Texten trainiert, die möglicherweise Urheberrechtlich geschĂŒtzt sind.
  • Bias: Die trainierten Modelle können bestehende Vorurteile aus den Trainingsdaten lernen.
  • Energieverbrauch: Das Training der Modelle verbraucht viel Energie und ist damit umweltbelastend.

Gefahren und Herausforderungen

  • Obschon sich LLMs viel Wissen aneignen1, werden sie nicht trainiert, faktisch korrekte Aussagen zu machen.
  • Dies bedeutet, dass wir alle Aussagen, die LLMs uns prĂ€sentieren, immer kritisch hinterfragen mĂŒssen.
  • LLMs sind keine Wissensdatenbanken. Informationen immer anhand externer Quellen ĂŒberprĂŒfen.

ChatGPT

Fragen beantworten

Bilder analysieren

Dokumente zusammenfassen

Output strukturieren

Websuche

Datenanalyse

Custom GPTs

Rechtliche Aspekte

Zwei wichtige Aspekte, welche bei der Benutzung von LLMs beachtet werden mĂŒssen:



Rechtliche Aspekte

  • Wer besitzt die Rechte an den von LLMs generierten Inhalten?
  • Risiko von Plagiaten und Urheberrechtsverletzungen
  • Richtlinien fĂŒr den Umgang mit generierten Inhalten

Datenschutz

  • Schutz personenbezogener Daten
  • Einhaltung von Datenschutzbestimmungen

Rechtliche Aspekte

  • KI-Modelle können mit Inhalten trainiert sein, an denen Dritte Urheberrechte haben—dies kann bei der Verwendung der Modelle zu Urheberrechtsverletzungen fĂŒhren.

  • Der Input (Prompt) kann geschĂŒtzte Inhalte Dritter enthalten, deren Nutzung ohne rechtliche Grundlage Urheberrechte verletzt.

  • Der von der KI generierte Output kann zufĂ€llig geschĂŒtzte Inhalte Dritter enthalten.

Rechtliche Aspekte

  • Anbieter von KI-Plattformen können sich Rechte an generierten Inhalten vorbehalten, was ebenfalls rechtliche Herausforderungen mit sich bringen kann.

  • OpenAI-Nutzungsbedingungen: die Rechte an generierten Inhalten abgetreten, OpenAI behĂ€lt sich aber Nutzungsrechte vor.

  • Nutzende/r ist in der Verantwortung, die rechtlichen Anforderungen einzuhalten.

Empfehlung

KI-Policy: Geben Sie deutlich an, dass der Inhalt von einer KI erstellt wurde, sodass kein Nutzer dies ĂŒbersehen oder missverstehen kann:

Deklaration

Der/die Autor*in hat diesen Text teilweise mit [[Modell]] erstellt. Nach der Erstellung des Entwurfs hat der/die Autor*in den Text ĂŒberprĂŒft, bearbeitet und nach eigenem Ermessen angepasst und ĂŒbernimmt die volle Verantwortung fĂŒr den Inhalt dieser Veröffentlichung.

Zitieren Sie das verwendete Modell in Ă€hnlicher Weise, wie Sie Software zitieren wĂŒrden.

Datenschutz

Datenschutz allgemein bedeutet:

  • sicherzustellen, dass keine persönlichen Daten der Lehrenden oder Lernenden ohne deren Zustimmung gesammelt, gespeichert oder weiterverarbeitet werden, um ihre PrivatsphĂ€re und Sicherheit zu gewĂ€hrleisten.

  • Transparenz darĂŒber, welche Daten erhoben und wie sie verwendet werden.

  • sicherzustellen, dass Daten nicht fĂŒr andere Zwecke als die ursprĂŒnglich angegebenen verwendet werden

  • Recht der Betroffenen auf Auskunft, Berichtigung, Löschung und Widerspruch

  • Einhaltung von Datenschutzgesetzen und -vorschriften

Lehrpersonen mĂŒssen Datenschutz beim Einsatz von (digitalen) Tools immer beachten.

Datensicherheit

Dies bedeutet:

  • Daten so zu speichern, dass sie nicht verloren gehen
  • Daten nicht manipuliert werden können
  • Technische und organisatorische Massnahmen zum Schutz vor unbefugtem Zugriff auf Daten

Schutzmassnahmen

  • Keine persönlichen Daten in die Eingabe von ChatGPT einfliessen lassen (nur anonymisierte Informationen)

  • Keine Eingabe von sensiblen oder vertraulichen Informationen (Informationen ĂŒber gesundheitliche, finanzielle oder private Angelegenheiten)

Einstellungen im Konto fĂŒr Datenkontrolle:

Copilot verwenden

Microsoft Copilot garantiert, dass die Daten der Benutzer gesichert sind:

Schutz von Unternehmensdaten

  • Benutzerdaten sind durch VerschlĂŒsselung, Sicherheitskontrollen und Datenisolation (gleich wie bei E-Mails in Exchange und Dateien in SharePoint) geschĂŒtzt.
  • Microsoft verwendet Daten nicht ohne Anweisung des Benutzers.

Detektion von KI-generiertem Inhalt

Heuristiken:

  • Durch Verwendung spezifischer Vokabeln und Phrasen: “delve”, “vibrant”, “embark”, “it’s important to note”, “based on the data provided”.

  • Durch Verwendung des in der Schweiz unĂŒblichen scharfen S (ß).

Detektion anhand vom Schreibstil und Inhalt:

  • Erkennungswerkzeuge sind nicht sehr nĂŒtzlich und können leicht umgangen werden.

  • Erkennungs-Illusion: LehrkrĂ€fte ĂŒberschĂ€tzen ihre ErkennungsfĂ€higkeiten (Fleckenstein et al. 2024).

Fragen?

References

Cui, Zheyuan (Kevin), Mert Demirer, Sonia Jaffe, Leon Musolff, Sida Peng, and Tobias Salz. 2024. “The Effects of Generative AI on High Skilled Work: Evidence from Three Field Experiments with Software Developers.” SSRN Scholarly Paper. Rochester, NY. September 3, 2024. https://doi.org/10.2139/ssrn.4945566.
Dell’Acqua, Fabrizio, Edward McFowland, Ethan R. Mollick, Hila Lifshitz-Assaf, Katherine Kellogg, Saran Rajendran, Lisa Krayer, François Candelon, and Karim R. Lakhani. 2023. “Navigating the Jagged Technological Frontier: Field Experimental Evidence of the Effects of AI on Knowledge Worker Productivity and Quality.” SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4573321.
Fleckenstein, Johanna, Jennifer Meyer, Thorben Jansen, Stefan D. Keller, Olaf Köller, and Jens Möller. 2024. “Do Teachers Spot AI? Evaluating the Detectability of AI-generated Texts Among Student Essays.” Computers and Education: Artificial Intelligence 6 (June): 100209. https://doi.org/10.1016/j.caeai.2024.100209.
Reich, Justin, and Jesse Dukes. 2024. “Toward a New Theory of Arrival Technologies.” November 14, 2024. https://doi.org/10.35542/osf.io/x6vn7.
Toner-Rodgers, Aidan. n.d. “Artificial Intelligence, Scientific Discovery, and Product Innovation.”