Ahnungslos begeistert oder jemandem auf den Leim gegangen?

Warum unreflektierte Technikgläubigkeit kein guter Ratgeber für Schulen ist

Je weniger Ahnung jemand von Technik hat, desto größer ist die Begeisterungsfähigkeit. Diese Beobachtung machte bereits der Computerpionier Joseph Weizenbaum, als er 1966 den ersten ChatBot Eliza publizierte. Begeisterung ohne Fach- und Sachkenntnis zeigt auch die Fraktion der Grünen im Landtag von Baden-Württemberg mit ihrem Fraktionsvorsitzenden Andreas Schwarz bei der unreflektierten Forderung nach KI-Einsatz an Schulen. Von Ralf Lankau

Jospeh Weizenbaum hatte 1966 den ersten Sprachbot „Eliza“ veröffentlicht, mit der man sich „unterhalten“ konnte. Für ein Experiment hat er dieser Software (!) die Rolle eines Psychotherapeuten zugewiesen. Das Ergebnis war erschreckend:

„Ich konnte bestürzt feststellen, wie schnell und wie intensiv Personen, die sich mit DOCTOR unterhielten, eine emotionale Beziehung zum Computer herstellten und wie sie ihm eindeutig menschliche Eigenschaften zuschrieben. (..) Eine Anzahl praktizierender Psychiater glaubte im Ernst das Doctor-Computerprogramm könne zu einer fast völlig automatischen Form der Psychotherapie ausgebaut werden. (…) Diese Reaktionen auf ELIZA haben mir deutlicher als alles andere bis dahin erlebte gezeigt, welche enorm übertriebenen Eigenschaften selbst ein gebildetes Publikum einer Technologie zuschreiben kann oder sogar will, von der es nichts versteht.“ (Weizenbaum, 1976, 17f)

Der ganze Beitrag als PDF (8 Seiten): Grüne Fraktion BaWü:  KI-Tutoren als Lehrer

KI-Nachhilfe aus dem Landtag

Heutige Sprachsysteme (ChatBots) sind um ein Vielfaches leistungsfähiger als 1966, aber das Prinzip ist identisch: Der Mensch ist bereit, Objekte oder technische Systeme zu vermenschlichen und ihnen im Gegenzug menschliche Eigenschaften und Aufgaben zuzuweisen wie die Rolle eines Psychotherapeuten oder einer Lehrkraft. Im Mai 2024 veröffentlichte der Fraktionsvorsitzende der Grünen im Landtag von Baden-Württemberg, Andreas Schwarz, seine Vorstellungen über den Einsatz von KI in den Schulen in Baden-Württemberg. Er sei überzeugt, dass ein KI-basiertes Tool auf dem Handy ein guter personalisierter multimedialer Nachhilfelehrer sein könne.

„Ich stelle mir das so vor: Schülerinnen und Schüler nehmen ihr Handy, halten das über die Aufgabe, etwa ein Gleichungssystem – und der KI-Tutor gibt Hinweise: Wo steht man momentan? Wie kann ein Lösungsweg aussehen? Wo findet man weitere Informationen?“ (zit. n.. dpa/StZ, 27.5.2024)

Das sei mit ChatBots wie dem von Open AI bereits möglich. Man könne sich mit dem Bot (eine Software!) unterhalten und bekäme „passgenau“ Hilfe. Schwarz ist begeistert vom virtuellen Nachhilfelehrer, der „zum eigenen Lernstand in Englisch, Mathe oder Deutsch Aufgaben stellen und helfen kann, wenn bei den Hausaufgaben nichts mehr geht. Und das jederzeit, weil man das Handy überall mit hinnehmen kann“ (zit. n. Krauß, 2024). Der Datenschutzbeauftragte hätte auch keine Bedenken, solange keine personenbezogenen Daten übertragen würden.

Wer spricht? Werbung für KI-Tools

Wäre Schwarz IT-Vertreter oder KI-Lobbyist, wäre seine Argumentation verständlich, weil es für die Anbieter um Absatzmärkte geht. Man kann solche Lobpreisungen der KI nachlesen im Text von Marc Andreessen und seinem Partner Ben Horowitz „Why AI will save the world“. Nur sind das Investoren, die Startups finanzieren. Zum automatisierten Beschulen per KI schreiben sie:

„Jedes Kind wird einen KI-Tutor haben, der unendlich geduldig, unendlich mitfühlend, unendlich sachkundig und unendlich hilfreich ist. Der KI-Tutor wird jedem Kind bei jedem Schritt seiner Entwicklung zur Seite stehen und ihm helfen, sein Potenzial mit der maschinellen Version der unendlichen Liebe zu maximieren.“ (Andreessen 2023)

Aber nicht nur Kinder in der Schule, alle Menschen würden jederzeit KI-Assistenten (Coach/Mentor/Trainer/Berater/Therapeuten …) bei sich haben, die unendlich geduldig, unendlich mitfühlend, unendlich sachkundig und unendlich hilfreich seien. Dank allgegenwärtiger Assistenzsysteme würden sich Wirtschaftswachstum und Produktivitätszuwachs dramatisch beschleunigen, wissenschaftliche Durchbrüche, neue Technologien und Medikamente schneller entwickelt, die kreativen Künste in ein goldenes Zeitalter eintreten, Kinder ihr ganzes Potenzial „mit der maschinellen Version der unendlichen Liebe“ maximieren und selbst Kriege würden durch bessere strategische und taktische Entscheidungen kürzer und weniger blutig (ebda).

Das ist der übliche Silicon Valley-Märchenton der Weltverbesserung und Weltenrettung durch Algorithmen und Software, mit dem die kommerziellen Interessen kaschiert werden sollen.

Kybernetik und Artificial Intelligence (AI)

Dabei sind weder KI-Systeme noch SprachBots neu. Die Grundlagen kybernetischer Systeme wurden auf den Macy Conferences (1949 – 1953) gelegt. Ziel der Tagungen war es, eine Universalwissenschaft zu entwickeln, mit der man gleichermaßen die Funktionsweise des menschlichen Gehirns und die Steuerung technischer wie elektronischer Systeme (insbesondere Computer) beschreiben könne. Norbert Wiener publizierte 1948 die mathematische Verallgemeinerung dieser „Steuerungskunst“ als Buch: „Cybernetics or Control and Communication in the Animal and the Machine“ (1948).

Die Grund­idee, die sich bis heute durch die Modelle und Anwendungen der automatisierten Datenverarbeitung (erst 1956 umbenannt in Artificial Intelligence, AI dt. KI) zieht, ist die Annahme, man könne auch Organismen und Sozialgemeinschaften als Maschine oder technisches System beschreiben und mit entsprechenden (mathematischen) Modellen berechnen. Denn für Mathematiker und Kybernetiker ist auch der Mensch eine steuerbare Maschine (oder es wird zumindest so getan, damit man mit den Modellen arbeiten kann).

„Dem allgemeinen Maschinenbegriff aus der Mathematik zufolge ist praktisch jedes System eine Maschine. Dann ist die Frage nicht: Sind wir Maschinen? Sondern: Was für eine Maschine sind wir?“ (Kognitionswissenschaftler Joscha Bach; zit. n. Brühl, 2024).

Aus diesem Maschinenverständnis von Menschen leitete sich z.B. das „programmierte Lernen“ in den 1950er Jahren in den USA ab oder das „Summit Learning“ von Facebook 2018. In Großbritannien gibt es erste Highschools und Colleges, die statt Lehrkräften KI-Tools einsetzen. Allerdings geht es dabei nicht um Verstehen von Sachverhalten und Zusammenhängen oder den Diskurs darüber, sondern um Prüfungsvorbereitung, also Repetitionswissen oder neudeutsch: Bulimielernen.

„Eine Highschool in London ersetzt in einem Pilotprojekt den klassischen Unterricht durch Lehrkräfte für 20 Schülerinnen und Schüler durch Künstliche Intelligenz. Mithilfe von Tools wie ChatGPT sollen sich die Jugendlichen eigenständig nach einem individuellen Lehrplan auf ihre Abschlussprüfung vorbereiten.“(heise.de, 2.8.2024)

Denn – und das ist die Crux aller Digital- und KI-Systeme: Eine auch noch so komplexe KI „versteht“ nichts von dem, was sie da berechnet. Sie hat weder ein Bewusstsein noch Verstand, kennt keine reale Welt, sondern nur Daten bzw. Datensätze, die noch vorgegebene Regeln und Anweisungen (den Algorithmen) verarbeitet werden. KI ist automatisierte Datenverarbeitung und die Simulation von Intelligenz nach mathematischen Modellen (Mustererkennung, Statistik, Wahrscheinlichkeitsrechnung), keine Intelligenz.

Automatisierte Prozessteuerung

Die Grundfunktion kybernetischer Systeme ist automatisierte Prozessteuerung. Was KI-Systeme nicht können: Lehrkräfte ersetzen. Die tägliche Unterrichtspraxis und sie begleitende Studien belegen unisono die Bedeutung von Präsenzunterricht und dem Sozialraum Schule , nachdrücklich bestätigt durch Studien aus zwei Corona-Jahren mit pandemienbedingt digital gestütztem Fernunterricht. Der Heidelberger Pädagogikprofessor Karl-Heinz Dammer konstatiert in seinem Gutachten knapp: „Die Lehrkraft als den Unterricht strukturierende und leitende Person lässt sich durch kein Medium ersetzen“ (Dammer 2022, S. 5). Die zugehörigen Studien sind anderweitig referiert (Lankau 2023). Hier geht es um frei entscheidende Aspekte:

  1. die Irrelevanz der von generativer KI erzeugten Ergebnisse für Lernprozesse,
  2. die fatalen Folgen für Leistungsbereitschaft, Motivation und Lernprozesse sowie
  3. die Abhängigkeit von intransparenten technischen Systemen als Entmündigungsprozess.

Irrelevanz der von generativer KI erzeugten Ergebnisse

Modelle der generativen KI arbeiten mit sogenannten Large Language Models (LLM). Sie werden mit Abermillionen von Texten trainiert, ohne Qualitätskontrolle und ohne Rücksicht auf Urheber- und Persönlichkeitsrechte. Alle im Netz erreichbaren Daten im Netz wurden mit einer Art „Datenstaubsauger“ gesichert und ausgewertet. Trotz der Unmengen an verarbeiteten Daten reicht das Material für die LLMs nicht. Daher scannen die Modelle mittlerweile von KI generierte Texte mit dem Ergebnis, dass die Qualität stetig sinkt. Es kommt ja nichts Neues dazu, die immer gleichen Textfragmente werden nur neu zusammengesetzt (generiert). Daher wird jetzt über Small Language Models diskutiert, bei denen nur nach Qualität selektierte Daten übernommen und klassifiziert werden. Das ist aber das Prinzip der Expertensysteme aus den 1980er Jahren, ein Déjà-vu .

Ein weiteres, systemimmanentes Manko ist Machine Learning. KI-Systeme sind so programmiert, dass sich die Algorithmen nach bestimmten Regeln selbst modifizieren können. Das heißt, dass nicht einmal die Entwickler wissen (können), was die Modelle konkret tun. Im Ergebnis hat man intransparente Systeme, die ihre Algorithmen automatisiert, aber unkontrollierbar, verändern und bekommt Ergebnisse, bei denen man weder die Datenbasis noch die Algorithmen noch die Kriterien der Textgenerierung kennt. Das ist maximale Intransparenz. Jede Aussage und jede Information muss separat geprüft werden. Warum benutzt man in der Schule dann nicht gleich validiertes Material und zuverlässige Quellen für das Lehren und Lernen?

Folgen für Leistungsbereitschaft, Motivation und Lernen

Die konkrete Gefahr für Motivation und Leistungsbereitschaft von Schülerinnen und Schülern durch den Einsatz von KI-Systemen benennt der Pädagoge Gottfried Böhme:

KI ruiniert das Motivationsgefüge des herkömmlichen Unterrichts

„Künstliche Intelligenz bricht der Schule, wie sie heute existiert, das Rückgrat. Es hat in der Geschichte der Bildungseinrichtungen noch nie eine Erfindung gegeben, die so infam die gesamte Motivationsstruktur des Lernsystems infrage gestellt hat wie diese Atombomben-KI – um mich hier deutlich zu outen. Wir ziehen gerade eine Generation von Jugendlichen heran, die eine Zeitlang ihren Lehrern noch vorgaukeln kann, dass das, was ihnen ChatGPT oder ein anderes Programm geschenkt hat, ihre Leistung sei, und bald nicht mehr wissen, warum sich Lernen überhaupt noch lohnen soll.“ (Böhme 2023, S. 9)

Denn es ist eine so triviale wie elementare Erkenntnis, dass man etwas selbst tun muss, um etwas zu können, ob Laufen, Sprechen, Schreiben, musizieren etc. Man lernt es nur durch eigenes Tun. Vor dem Fernseher oder Videochannel wird man weder Olympionike noch Musiker, Maler, Schriftsteller etc. Wieso glaubt irgendwer (oder behautet es zumindest), es genüge, einen Prompt für einen Aufsatz zu formulieren, um zu lernen, wie man einen Aufsatz schreibt? Man lernt das Prompten, aber das kann eine KI bald selbst besser und schneller, wenn nur genügend Trainingsdaten vorliegen.

Abhängigkeit von Tech-Systemen als Entmündigungsprozess

ChatBots gewöhnen junge Menschen daran, sich technischen Systemen und deren Berechnungen als vermeintlich gültige Hilfsmittel anzuvertrauen. Bequemlichkeit und Faulheit sind bekannte menschliche Eigenschaften, beim Lernen aber leider nicht hilfreich. Das vermeintlich einfache Erzeugen von Texten, Bildern oder Präsentationen per Sprachanweisung (Prompt) verhindert die eigene Auseinandersetzung mit einem Thema und untergräbt den schöpferischen, kreativen Akt der Ideenfindung, der inhaltlichen und gestalterischen Konzeption. Die Erziehung (Verführung) zur Bequemlichkeit durch den Einsatz von Bots verdrängt das Spiel der Phantasie und Vorstellungskraft, die am Anfang jeder Arbeit, ob Aufsatz, Komposition oder Zeichnung stehen sollte.

Auf einer Internationalen Konferenz an der Univ. Frankfurt 2017 hatte ich zu eLearning formuliert: „All you can learn with a maschine to do your Job also a machine can learn to do your job.“ (Lankau 2017). Als Thesen hatte ich zur Diskussion gestellt:

  1. Digitization is a journey into the past.
  2.  Digitization as a doctrine of salvation.
  3.  Digitization is technology of counter intelligence

Das heißt:

  1. Eine Reise in die Vergangenheit ist die aktuelle Diskussion, weil das Scheitern des kybernetischen Modells für Sozialsysteme bereits Ende der 1960er bekannt war. Die Folge: der erste KI-Winter. Die Erkenntnis: Der Mensch ist keine und ist nicht steuerbar wie eine Maschine. Die Reduktion des Menschen in mathematischen/kybernetischen Modellen auf ein maschinenähnliches System zeigt nur, dass auch in der Wissenschaft mit falschen Parametern und Modellen gearbeitet wird, wenn das Modell zwar unterkomplex ist, aber nützlich scheint.
  2. Digitalisierung als Heilslehre klingt ja sowohl im Text von Andressen/Horowitz wie bei Schwarz an, wenn einer Technik, die gar nicht „versteht“, für was sie entwickelt wurde, Lösungskompetenz zugewiesen wird und zur Lehrkraft geadelt wird, weil sie Inhalte formalisiert anbieten und, als Binär-System, auf Richtig/Falsch-Entscheidungen prüfen kann. Das ist das gleiche Missverständnis wie bei einer Uhr. Nur weil sie präzise läuft, weiß eine Uhr nicht, wie spät es ist, geschweige denn, was Zeit ist.
  3. Digitalisierung, wie sie aus dem Silicon Valley kommt und jetzt als generative KI die Märkte aufwirbelt, ist eine Technologie der Gegenaufklärung, weil das System technisch eine Black Box ist und die Nutzer keinerlei Einfluss auf die Inhalte und Funktionsmechanismen haben, aber die Ergebnisse als gültig übernehmen sollen. Kis geben ja keine Linklisten zum Nachlesen aus wie Suchmaschinen, sondern vermeintlich Ergebnisse.

Dabei gilt das Matthäus-Prinzip: Wer hat, dem wird gegeben. Das heißt: Wer Vor- und Fachwissen sowie Urteilsfähigkeit besitzt, kann sich Routinearbeiten mit KI-Tools vereinfachen. Intelligenz sitzt ja, wenn überhaupt, vor dem Bilschirm, während Software Intelligenz nur simuliern kann. Wer das notwendige Wissen nicht hat – wie Schüler, Auszubildende, Studierende – muss daher glauben, was KI-Systeme generieren. Das ist bequem, aber ein Rückfall in die voraufklärerische Zeit. Als Resümee sollten wir, Joseph Weizenbaum zitierend, daher wieder auf das Wesentliche fokussieren, …

„… dass erstens der Mensch keine Maschine ist und zweitens, daß es bestimmte Aufgaben gibt, zu deren Lösung keine Computer eingesetzt werden sollten, ungeachtet der Frage, ob sie zu deren Lösung eingesetzt werden können.“ (Weizenbaum 1976, S. 10)

Zu diesen Aufgaben gehört das Unterrichten als Verantwortung für die Entwicklung der nachfolgenden Generation, die nicht an Algorithmen und kybernetische Steuerungssysteme delegiert werden darf, sofern Bildungseinrichtungen human bleiben sollen und es um mehr geht als Bulimie-Lernen für Prüfungen. Andernfalls werden aus Bildungseinrichtungen Zurichte-Anstalten, wie man sie aus autoritären Staaten kennt. Dabei gilt beim Einsatz von IT und KI in Bildungseinrichtungen immer: Nicht das technisch Machbare kann und darf das Regulativ der Entscheidungen über und Einsatz von Technik in sozialen Kontexten sein, sondern das zu Verantwortende. Die Alternative ist daher eine zweite Aufklärung statt KI-Euphorie:

„Ganz konkret ist, frei nach Immanuel Kant, das Austreten aus der selbst verschuldeten Unmündigkeit des Nachplapperns technikdeterministischer Erzählungen angesagt“ (Grunwald, 2019)

Die Frage an die Verfasser der Stuttgarter Meldung ist daher: Was ist das für eine Bildungspolitik, was ist das für ein Verständnis von Unterricht und Lernprozessen, wenn sowohl die Inhalte (KI) wie die Werkzeuge (KI-Tools) von Tech-Unternehmen vorgegeben werden?

In der Arbeitswelt gibt es dafür bereits einen Begriff: Algorithmisches Management (AM). Es bedeutet: Systeme künstlicher Intelligenz geben den Menschen genaue Arbeitsanweisungen und diese führen nur noch aus, was das System vorgibt. Das aber ist nicht mal mehr eine Karikatur von Schule und Unterricht.

Der ganze Beitrag als PDF (8 Seiten): Grüne Fraktion BaWü:  KI-Tutoren als Lehrer


Literatur und Quellen

Armbruster, Alexander (2019): Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin Sabine Bendiek, FAZ v. 01.04.2019

Brühl, Jannis (2014) Es gibt Dinge, die sind wichtiger als unser Ego.Interview mit Joscha Bach, in: SZ vom 29.1.2024, S.15

Dammer, Karl-Heinz (2022) Gutachten zur Digitalstrategie der KMK des Landes NRW (2022)

Deutscher Ethikrat (2023) Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ des Deutschen Ethikrats vom 20. März 2023, hier Kap. 3.4.2 Der Mensch als Maschine – die Maschine als Mensch?, S. 107f.

Grunwald, Armin (2019) Künstliche Intelligenz: Gretchenfrage 4.0,in: SZ, 26. Dezember 2019, S. 9; https://www.sueddeutsche.de/kultur/kuenstliche-intelligenz-gretchenfrage-4-0-1.4736017 (28.07.2024)

Krauß, Bärbel (2024) Grüne wünschen sich eigenen KI-Nachhilfelehrer für jeden Schüler, in: Stuttgarter Zeitung vom 25.8.2024

Lankau, Ralf (2024) Algorithmus und Avatar im Klassenzimmer. Hintergründe, Ziele und Perspektiven von Informationstechnologie und künstlicher Intelligenz in Schulen. Monatsschrift Kinderheilkunde (2024). Springer-Link: https://link.springer.com/article/10.1007/s00112-024-02005-8; https://doi.org/10.1007/s00112-024-02005-8

Lankau, Ralf (2023) Die ich rief, die Geister, werd ich nun nicht los … Lehrkunst, Digitalisierung und Virtualität oder: Über die Rückgewinnung der Autonomie über das eigene Denken und Handeln, in: Pädagogische Rundschau (PR 2023, 77. Jahrgang, S. 751-768). DOI https://doi.org/10.3726/PR062023.0067

Lankau, Ralf (2017) Think different or: How to teach without a tablet; Symposium:Economization. Commodification. Digitalization. The Emergence of a Global Education Industry, February, 15 th ­17 th 2017 at Goethe­University, Frankfurt am Main

Weizenbaum, Joseph (1976) Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt.

Wiener, Norbert (1948): Cybernetics. or Control and Communication of the Animal and the Machine, dt . Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine (1. deutsche Auflage, Düsseldorf, 1963,

Wiener, Norbert (2022) Mensch und Menschmaschine. Kybernetik und Gesellschaft. [1950]