Der SEagent

Schulentwicklung – Bildung – Organisation

„KI“ als logisch-semantische Cloud – Logisch-semantische Souveränität

Meme mit Data und Lore aus Star Trek, die in einem Korridor der Enterprise stehen. Lore sagt gerade etwas und Data hört zu. Text: Data links, Lore rechts

Mein größtes Misstrauen gegen „KI“ entstammt einem einfachen Zusammenhang. Jede „KI“ funktioniert vom Prinzip wie eine ausgelagerte Datenverarbeitung. Ich schicke eine Anfrage raus (ja, prompt heißt genau das), die wird auf einem anderen Computersystem mit Hilfe eines logisch-semantischen Modells verarbeitet und das Ergebnis wird mir zurückgeschickt. Das ist im Prinzip nichts anderes, wie wenn ich eine Cloud verwende. Mit dem Unterschied, das zur Verarbeitung der Anfrage nicht ein verhätnismäßig simples Datei-System verwendet wird, sondern ein Modell. Trotzdem stellen sich die gleichen Fragen hinsichtlich Souveränität auch bei „AI“. Wir sind uns inzwischen sicher, dass wir unsere Daten, wenn sie schon in „der Cloud“ sein müssen, dann wenigstens in einer Cloud unter unserer Kontrolle behalten sollten: Im Idealfall in einer selbstgehosteten Nextcloud, o.Ä. also. Aber selbst wenn ich bereit bin, in Kauf zu nehmen, dass der Server in den USA oder sonstwo steht, dann gehe ich davon aus, dass der Inhalt meiner Cloud sich nicht verändert, ohne dass ich diese Veränderung selbst auslöse. Und das kann ich relativ leicht kontrollieren, da der Inhalt der Cloud ja statisch sein sollte.
Bei „AI“ ist das etwas anders. Das Modell ist Teil der Blackbox und durch mich nicht kontrollierbar, es sei denn ich hoste das Model selbst. Was die Ausnahme sein dürfte. Wenn aber die Betreiber am nicht selbst gehosteten Model etwas ändern, dann ist das für mich nicht unmittelbar nachvollziehbar. Verlassen wir uns also zu sehr auf „KI“ besteht die Gefahr, dass nach und nach das semantisch-logische Modell verändert wird. Eine Veränderung liegt außerhalb unserer Kontrolle.

Philosoph*innen streiten sich seit Jahrtausenden, um die Nuancen von Begriffen und entwickeln komplexe Begriffszusammenhänge, die eigenen Sprachen gleichen, um bestimmte Zusammenhänge präzise beschreiben zu können. Die typische philosophische Frage ist die definitorische: „Aber was verstehen wir unter Y“. Die Definition der Bedeutung von Begriffen ist nicht beliebig und sie ist zutiefst politisch. Im strafrechtlichen Bereich ist das offensichtlich. Die Frage ob die Bedeutung des Begriffs „linksextreme Gewalt“ das Festkleben im Straßenverkehr mit einschließt, oder nicht, entscheidet über die Frage von Gefängnis oder Freiheit. In den USA sehen wir, wie gerade die Bedeutung des Begriffs „Terrorismus“ erweitert wird, nämlich um persönliche Nachrichten, die Präsident Trump kritisieren. Das sind drastische Beispiele, aber im Falle von „KI“ ist die zu erwartende Manipulation nicht von geringerer Konsequenz. Wir müssen mit einer Umdeutung der Geschichte durch die Player im Silicon Valley rechnen. Vielleicht kommt da nicht direkt „Hitler war ein Linker“ bei raus, aber Nuancen, die ich hier nicht ausformulieren möchte, die sich aber in dumpfen rechten Vorurteilen ggü. marginalisierten Gruppen niederschlagen.

Wenn wir „KI“ nutzen, öffnen wir einen Kanal für die logisch-semantischen Modelle der Betreiber dieser Modelle zu unserem Denken. Sicherlich fallen wir nicht jeder Formulierung sofort zum Opfer, aber steter Tropfen hölt den Stein und Nudging ist langfristig erfolgreich. Das Erleben wir bei der Verschiebung des Overton-Windows (Normalisierung von Sprache, die vorher unsagbar war, durch kalkulierten Tabubruch). Wir laufen damit Gefahr, die logisch-semantische Souveränität des Individuums zu verlieren.

(Star Trek tldr: Statt dem integren Lt. Com. Data spricht dann plötzlich sein böser Zwilling Lore auf uns ein, und wir bemerken den Unterschied nicht, wenn wir nicht zufällig schon wissen, wonach wir gefragt haben.)


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert