Der SEagent

Schulentwicklung – Bildung – Organisation

LLMs und Bildgeneratoren* in der Schule – #KIBedenken


Der Vorzeichenfehler in der Debatte über generative Tools

Kein Text, kein Vortrag, kein Podcast, kein Gespräch in dieser Debatte sollte ohne einen Prolog zur begrifflichen Schärfung und zur sprachlichen Entwirrung beginnen. Die Semantik des Begriffs „Intelligenz“ führt sonst direkt in die Vermenschlichung von Algorithmen und der Unterstellung menschlicher Attribute.

Merksatz: Und du wirst sehen, Algorithmen halluzinieren nicht. (Oder Merkmelodie eigentlich)

Mehr dazu findet sich unter diesem Beitrag.

Bevor ich zu den Bedenken komme, möchte ich anmerken, dass ich durchaus einen Nutzen von generativen Systemen, in den Bereichen tutorieller Themenerkundung und individuelles Feedback sehe. Mein eigenes Urteil zu Kosten/Nutzen dieser Systeme steht aber noch aus. Im Rahmen der von Nele Hirsch und Joscha Falck ausgerufenen Blogparade, möchte ich folgende sechs Bereiche in die Debatte aufnehmen:

1. Ressourcen

Ein erhebliches Problem, das in der schulischen Debatte über generative Systeme gerne ausgeblendet wird, ist der Ressourcenverbrauch. Strom und Wasser sind hier zu nennen. Dass wir in Schule vor dem Hintergrund von BNE im Regelfall nicht darüber reden, wie es zu bewerten ist, dass wir mit jeder Anfrage an ChatGPT etwa einen halben Liter Wasser verbrauchen und das ins Verhältnis zum Nutzen setzen, sollte uns zu denken geben. Während dieses Ausblenden, wenn es um Strom geht noch einigermaßen nachvollziehbar ist (wir haben ja Wind und Sonne), ist es das im Falle von Wasser nicht. Die dramatischen Dürren in Frankreich, Spanien und Italien im letzten Jahr, werden sich vor der sich ausbreitenden Klimakatastrophe weiter verschärfen und bald auch uns erreichen. Vor diesem Hintergrund ist ein Nachdenken darüber, inwiefern dieser Resourcenverbrauch angemessen ist, vonnöten.

2. Handarbeit

Solange unklar ist, wieviel outgesourcetes Clickwork hinter generativen Systemen steckt und die Arbeitsbedingungen der Menschen dahinter nicht gesichert sind, solange muss man sich auch klarmachen, dass generative Systeme auch mit Menschenrechtsverletzungen einher gehen. Jens Ohlig hat das auf dem CCCamp23 in seinem Vortrag „Wir müssen über KI sprechen“ ausgiebig beleuchtet.

3. Vorurteile

Generative Systeme reproduzieren und verstärken damit die Vorurteile, die in ihren Trainingsdaten enthalten sind. Das ist ein Problem, das in einem System wie Schule einiges zur Folge haben sollte. Wenn Schule möglichst diskriminierungsfrei laufen soll, dann ist ein System, das das Gegenteil bewirkt, zumindest nicht ohne einen Prolog, der das problematisiert und die regelmäßig wiederkehrende Reflektion des Einflusses dieser Vorurteile auf das schulische Geschehen nicht denkbar. Es drängt sich die Frage auf, inwiefern das machbar ist. Im Rahmen von „kritischen Denken“ ist es aber vielleicht genau diese Kompetenz, die Kinder und Jugendliche in einer von generativen Systemen geprägten Welt brauchen werden.

4. Das Qualitätsplateau

Es zeichnet sich ab, dass das Plateau an erreichbarer Qualitätsentwicklung was LLMs angeht erreicht ist. Die Systeme können Rückgriff auf aktuelle Daten, die online verfügbar sind, nehmen, aber hier endet die Entwicklung. Was können diese Systeme gut? Im Sinne des stochastischen Papageis können sie gut Antworten auf Fragen präsentieren, die schon häufig gestellt wurden. Sie geben gewissermaßen eine Baseline unseres kulturellen Bewusstseins wieder. Was sie nicht gut können sind drängende gesellschaftliche Fragen zu bewerten, oder gar strittige. Das sind aber die Fragen, um die es in Schule, die einen Bezug zur Lebenswelt haben will, gehen sollte. Es lassen sich prima Aufsätze zur Frage nach der Sinnhaftigkeit von Schuluniformen erstellen, aber keine zur stigmatisierenden Wirkung von Bezahlkarten für Geflüchtete oder Bürgergeldbezieher*innen.

5. Das Erfahrungsdilemma

„Tante“ alias Jürgen Geuther hat in „“AI” as support systems (for diagnostics)“ einen weiteren Zusammenhang aufgezeigt, der auch in Schule von grundlegender Bedeutung für das Nutzen von generativen Systemen ist. Die Denkfigur geht folgendermaßen:

  1. generative Systeme sind besser im diagnostizieren, als unerfahrene Ärzt*innen
  2. Erfahrene Ärztinnen sind besser im diagnostizieren als generative Systeme
  3. Wenn unerfahrene Ärzt*innen sich ausschließlich auf generative Systeme zur Diagnose verlassen, machen sie keine Erfahrungen und bleiben entsprechend unerfahren. Daraus würde
  4. Eine Abnahme der Diagnosequalität insgesamt folgen

Übertragen auf Schule geht es darum, den Lernprozess so zu gestalten, dass die zentralen Transferleistungen nicht von generativen Systemen wahrgenommen werden, weil sonst die Schüler*innen gewissermaßen unerfahren bleiben.

6. Erwartbare Enshittification

Die wirtschafliche Situation der Industrie sieht düster aus. Alleine die Nvidia Chips zum Training haben schätzungsweise 50 Milliarden $ gekostet, demgegenüber stehen etwa 3 Milliarden $ Einnahmen. Das 17-fache also. Das sind aber nur die Chips:

Gleichzeitig ist eine Investitionsmüdigkeit beim Venture Capital festzustellen. Mit anderen Worten, der Druck Geld zu verdienen erhöht sich massiv.

Mit der Nachricht, dass ChatGPT in der 3.5 Version ab sofort ohne Anmeldung zugänglich sein wird, liegt die Vermutung nahe, dass OpenAi sich im Moment in der Anfangsphase der Enshittification befindet. Es wird möglichst viel Nutzen zu den Usern verschoben, um Lockin Effekte zu generieren. Haben wir uns dann daran gewöhnt, generative Systeme zur Problemlösung zu nutzen, wird langsam an der Preisspirale gedreht werden. Inwiefern sich das auf die Kooperationen mit Fobizz und Fiete.ai oder ähnlichen Edtech-Unternehmen und deren Preisgestaltung auswirken wird, ist schwierig abzuschätzen. Erwartbar ist dennoch, dass die Preise steigen werden.

Überlegungen zur didaktischen Werthaltigkeit von generativen Systemen

Insgesamt stehen also dem didaktischen Wert Kosten gegenüber, die nicht überschaubar sind. Das macht es schwierig einen Nutzen zu rechtfertigen. Aber nicht nur das. Unklare Kosten stehen bislang einem unklaren Nutzen gegenüber.

Im Grunde geht es uns dabei nicht viel anders, wie bei anderen Themen im Rahmen der Digitalität. Der Leitmedienwechsel vom Buch hin zur vernetzten Kommunikation mit Computern, die inzwischen in die Hosentasche passen, ist in vollem Gang. Und zwischen Etherpads und Cloudspeichern funkt uns jetzt auch noch etwas dazwischen, das landläufig als „künstliche Intelligenz“ bezeichnet wird.

Gute Nachricht: Es geht allen so. Die Einen fordern ein Verbot oder eine Regulierung und die Anderen wollen am liebsten schon Morgen alle Jobs durch LLMs ersetzen (Witzigerweise fangen viele auch mit Ihrem eigenen Job an, indem sie ihre Texte von LLMs verfassen lassen – ob das hier auch der Fall ist?). Es ist die Zeit großer Prophezeiungen und deren vorauseilender Moderation.

Aus diesem gut/schlecht Modus kommt man heraus, indem man sich mit dem Gegenstand vertraut macht. Ich plädiere an dieser Stelle dafür, selbst Erfahrungen zu machen. Probieren Sie alles aus, was Sie finden können und finden Sie heraus, wie sich das auf Ihren Unterricht und auf Ihre Unterrichtsgestaltung auswirken könnte.

Wir wissen noch nicht, was diese Werkzeuge tatsächlich mit uns machen werden.

Finden wir es heraus! Zum Beispiel hier


*Kathrin Passig analysiert und zerlegt kunstvoll die Verwendung des Begriffs „Künstliche Intelligenz“ in ihrem Vortrag: „Die Vergangenheit der Zukunft: 70 Jahre künstliche Intelligenz“ . Sie beendet ihn mit Handlungsempfehlungen von Emily Tucker, an deren Institut die Begriffe „AI“, „artificial Intelligence“ und „machine learning“ nicht mehr verwendet werden. Diese Handlungsempfehlungen lauten:

  1. So genau wie möglich sagen, was passiert
  2. Wenn etwas undurchschaubar ist, die Gründe dafür präzise zu benennen
  3. Firmen und Verfahren konkret benennen
  4. Nichts so formulieren, als mache eine Maschine was ganz von alleine
  5. Un-magische Wörter finden
  6. Auch bei abstrakten Überlegungen konkrete Technik benennen
  7. Nicht alles „KI“ nennen, was neu ist
  8. Nicht alles „KI“ nennen, was sehr teuer ist

Material zu Sprachmodellen und Bildgeneratoren im Unterricht:

https://tu-dresden.de/ing/informatik/smt/ddi/schulinformatik/eduinf-education_in_informatics/lehr-lern-material/kuenstliche-intelligenz


5 Antworten zu “LLMs und Bildgeneratoren* in der Schule – #KIBedenken”

  1. Danke für den Text, dem ich größtenteils zustimmen mag. Für mich ist ein großes Dilemma, dass die großen „Player“ Rechtsverletzungen und Ressourcenverbrauch in gewaltigem Ausmaß betreiben und zwar inzwischen viele darauf hinweisen, letztlich aber immer das Fazit „wir müssen uns alle damit beschäftigen“ steht. Damit wird dann das Vorgehen von uns allen legitimiert oder nicht?

  2. […] Der nächste Beitrag stammt von Gratian Ritter. Gratian ist Schulentwickler auf Schulträgerebene und unterrichtet einige Stunden an einem Gymnasium. In seinem Artikel äußert er sich unter anderem zum Ressourcenverbrauch, zur Problematik der Vorurteile und zur erwartbaren Enshitification. Dem didaktischen Wert stünden Kosten gegenüber, die nicht überschaubar sind, so fasst es Gratian zusammen. Dennoch plädiert er dafür: “Aus diesem gut/schlecht Modus kommt man heraus, indem man sich mit dem Gegenstand vertraut macht. Ich plädiere an dieser Stelle dafür selbst Erfahrungen zu machen. Probieren sie alles aus, was Sie finden können und finden sie heraus, wie sich das auf Ihren Unterricht und auf Ihre Unterrichtsgestaltung auswirken könnte.”Vielen Dank für deinen Beitrag. Gratians Gedanken findet ihr hier. […]

  3. […] Was folgt daraus? Für mich folgt daraus, dass wir, wenn wir über „KI“ reden ,den Rahmen deutlich setzen müssen. Bei aller Begeisterung, und bei aller Neugier: Wir müssen die problematischen Dimensionen auch immer wieder beleuchten und in den Diskurs deutlicher aufnehmen (Ich habe hier mal einen Aufschlag dazu gemacht). […]

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert