ChatGPT in der Bildung: Ein Füllhorn gewaltiger Möglichkeiten? Eine Büchse der Pandora? Die Entscheidung fällt leicht, wie Buchautor Ingo Leipner meint. Ein Gastbeitrag.
Von Ingo Leipner, in: „Mannheimer Morgen“, Magazin, 19.04.2025
Wer war Pandora? In der griechischen Mythologie öffnet die unglückselige Frau eine Büchse, wodurch alles Elend der Welt herausströmt und die Menschheit befällt. Doch viele Menschen erleben ChatGPT eher als Füllhorn, das seit der Antike ein mythisches Symbol für Überfluss und Reichtum ist. Denn: Das Sprachmodell bietet unendlich viele Möglichkeiten, dem Nutzer zu Diensten zu sein. Gerade in Schule und Hochschule.
„Etwas zu verbieten, wozu jeder Schüler und jede Schülerin außerhalb der Schule jederzeit Zugang hat, wird Schule eher schwächen als stärken“, sagte Peter Meidinger dem Sender BR24. Er war bis 2023 Präsident des Deutschen Lehrerverbandes. Das klingt nach Kapitulation, oder Meininger weist schlicht auf die Macht des Faktischen hin. Wer an Verbote der KI in der Schule denkt, könnte genauso gegen Windmühlen reiten …
Was sollte also statt Verboten passieren? Das Gegenteil, wie ein Fachartikel auf lehrer-online.de empfiehlt („ChatGPT: 16 Wege zur Nutzung im Unterricht“). Da lautet der 9. Tipp: „Lassen Sie ChatGPT Texte zusammenfassen, um gerade Gelesenes zu verinnerlichen“. Dazu sollen Schüler durch „Prompts“ (Eingaben) das Kapitel eines Werkes „resumieren lassen“.
Was für ein Selbstbetrug des Autors! Er wählte tatsächlich das Wort „verinnerlichen“, um einen Prozess anzudeuten, den ChatGPT gerade verhindert. Eine erste Paradoxie. Oder mit den Worten eines erfahrenen Deutsch-Lehrers: „Wenn die Textzusammenfassung nicht geübt wird, geht ein wichtiger Baustein im Textverstehen unter, nämlich die Zusammenfassung als Beleg für das eigene Verständnis eines Textes.“ Das gilt besonders für große Werke der Literatur, etwa Friedrich Schillers „Lied von der Glocke“. Da heißt es: „Das ist’s ja, was den Menschen zieret / Und dazu ward ihm der Verstand / Daß er im innern Herzen spüret / Was er erschafft mit seiner Hand.“
Wer Schiller nur als ChatGPT-Produkt kennt, wird niemals zur Weisheit dieser Worte vorstoßen, weil sie in ihrer komplexen Schönheit tief im Original verborgen sind. Niemals wird er erfahren, wie sehr sie eine brennende Aktualität auszeichnet. Niemals wird er das Erfolgserlebnis haben, sich durch die anspruchsvolle Sprache durchzubeißen, was Mühe und Durchhaltekraft erfordert. Der Grund: Eine KI-Zusammenfassung liefert eine blutleere Abstraktion, die sich leicht auswendig lernen lässt – und die Grundlage für den nächsten Multiple-Choice -Test liefern könnte. Wer nichts mehr im „innern Herzen spüret“, verliert jede intrinische Motivation zum Lernen. Es ist lediglich Mittel zum Zweck, um den Notenschnitt zu „optimieren“. Schon diese Wortwahl zeigt, wie die Ökonomisierung aller Lebensbereiche fortgeschritten ist. ChatGPT ist dafür lediglich ein weiteres, aber mächtiges Tool.
Dabei tritt eine zweite Paradoxie zu Tage. Den „16 ChatGPT-Tipps“ stellt der Autor eine Warnung zur möglichen „Abhängigkeit“ voraus: „Wenn Schülerinnen und Schüler ChatGPT zu oft verwenden, können sie abhängig von der Technologie werden und sich nicht mehr bemühen, ihre eigenen Fähigkeiten und Fertigkeiten zu entwickeln.“ Das lässt sich auch als Auto-Immunisierungsstrategie lesen. Wer nämlich diese Warnung ernst meint, müsste den Rest des Textes einstampfen. Er könnte Lehrern 16 Tipps für einen lebendigen Unterricht ohne KI geben.
Lebendiger Unterricht? Darüber haben schon seit Jahrhunderten große Pädagogen nachgedacht, berühmt ist Heinrich Pestalozzis (1746-1826) Forderung, „Kopf, Herz und Hand“ im Unterricht anzusprechen. Und der bekannte Erziehungswissenschaftler Herbert Gudjons bringt diese Frage 2014 auch auf den Punkt: „Wir müssen nach didaktischen Ansätzen suchen, die Eigentätigkeit und Unmittelbarkeit fördern, weniger aber auf Sekundärerfahrungen und Konsumieren von Resultaten gerichtet sind.“ Stichwort: „handlungsorientierter Unterricht.“ Denn ChatGPT liefert auf Knopfdruck lediglich Resultate, die leicht zu konsumieren sind. Ein Phänomen, das schon Goudjons klar umrissen hat, ohne KI-Unterricht zu kennen. Denn die Debatte um Handlungsorientierung läuft bereits seit Pestalozzi.
Ein Beispiel für „handlungsorientierten Unterricht“ könnte das szenische Spiel sein: Die Schüler leben sich in die schwierige Ideen-Welt der „Glocke“-Dichtung ein, um durch Tonfall, Gestik und Mimik Schillers Gedanken zum Ausdruck zu bringen. Das bedeutet jede Menge Spaß und kurbelt die intrinische Motivation an, weil das Theaterspiel die Schüler im „innern Herzen“ berühren kann. Das schafft auch eine „Rap“-Nummer, sowie ein Improvisationstheater oder Hörspiel.
Ob szenisches Spiel auch eine Alternative an Hochschulen wäre? Schwer vorstellbar, zumal ChatGPT längt im Alltag der Studierenden angekommen ist. Das Sprachmodell erklärt nach einem passenden „Prompt“, wie es bei einer Bachelor-Arbeit unter die Arme greifen kann.
Hat ein Studierender Probleme, komplexe Theorien gut darzustellen? Dann weiß ChatGPT Rat: „Falls du Schwierigkeiten hast, eine wirtschaftliche Theorie verständlich zu formulieren, kann ich den Sachverhalt in verschiedenen Schwierigkeitsstufen erläutern und in klarer, wissenschaftlicher Sprache umformulieren.“ Damit entfallen für den Prüfling wesentliche Denkschritte, die ein akademisches Studium auszeichen sollten. Er kann ChatGPT mit einem unausgereiften Textfragment füttern, mehrfach „Prompts“ zur Überarbeitung seiner wissenschaftlichen Arbeit eingeben – ohne tatsächlich wissenschaftlich gearbeitet zu haben. Ein Traum für Dünnbrettbohrer. Ein Sieg der Beqemlichkeit, die auf lange Sicht akademische Kompetenzen ersticken könnte.
Und so geht es weiter und weiter … ChatGPT übernimmt das Ruder, und der Studierende kann sich auf dem Sonnendeck rekeln und über Resultate freuen, die im Tageslicht funkeln, aber nicht mehr seine Handschrift tragen. So ist ChatGPT immer zur Stelle, wenn „ein Abschnitt zu umgangssprachlich, vage oder unpräzise formuliert ist“. Es nennt auch ein Beispiel: „Die Wirtschaft ist schlecht gelaufen, also gab es mehr Arbeitslose.“ Stattdessen schreibt ChatGPT: „Die schwache wirtschaftliche Entwicklung führte zu einem Anstieg der Arbeitslosenquote, da die Nachfrage nach Arbeitskräften zurückging.“ So entstehen an der Oberfläche eindrucksvolle Resultate, aber ein tieferer Lernprozess findet nicht statt. Studierende lassen sich bequem ans Ziel tragen, statt selbst steinige Wege zu gehen.
Ähnliche Probleme hat die Duale Hochschule Baden-Württemberg (DHBW) am Standort Mannheim erkannt. Dort entwickelte eine Kommission Empfehlungen, wie Studierende ChatGPT bei schriftlichen Arbeiten einsetzen sollen. Ein erster Versuch der Regulierung. Dazu zählt eine „Hilfsmittelangabe“, die einer KI-Nutzung genau auf den Grund geht, etwa bei einer Bachelor-Arbeit. Wer sich an diese Regeln halten will, muss versichern, „durchgehend eigenständig“ und „maßgeblich steuernd“ mit „KI-gestützten Werkzeugen“ gearbeitet zu haben. Es wird selbstverständlich Wert auf wissenschaftliche Quellen gelegt, KI-Tools sind genau zu dokumentieren, und ihre Verwendung ist im Detail anzugeben. Wer die Unschärfe von ChatGPT bei Quellen kennt, merkt schnell, wie schwer eine weitere Forderung zu erfüllen ist: KI-Inhalte seien durch „Primärquellen“ zu belegen, schreibt die Kommission.
So wundert es nicht, dass die Empfehlungen der DHBW festhalten: KI-Tools würden gegen den Grundsatz einer Prüfungsleistung verstoßen, die „persönlich und selbstständig“ zu erbringen ist („Eigenständigkeit“). Daher darf ein Studierender eine solche Leistung „nicht vollständig der KI übertragen“. Auch das Prinzip der „Selbstständigkeit“ kann verletzt sein, weil „vorgetäuschte Leistungen nicht Gegenstand einer Bewertung sein dürfen.“
Deshalb wird ein detaillierter KI-Nachweis gefordert, um die Prüfungskriterien der „Eigenständigkeit“ und „Selbstständigkeit“ zu retten. Das führt zur dritten Paradoxie: Die scharfe Regulierung soll die KI-Nutzung im Studium integrieren – und gleichzeitig baut sie so hohe Hürden auf, dass es effizienter sein könnte, auf KI beim Schreiben zu verzichten. Absicht?
Fazit: Die „16 ChatGPT-Tipps“ und die DHBW-Empfehlungen zeigen, dass die Büchse der Pandora bereits weit geöffnet ist. Dagegen erscheint das Füllhorn immer mehr als Illusion: Wer nur in Resultaten denkt und die Prozesse vernachlässigt, scheitert an der Aufgabe, bei Bedarf dicke Bretter zu bohren. Er könnte sich der Täuschung hingeben, eine Bachelor-Arbeit entstehe auf Knopfdruck.
Es gibt aber einen Lichtblick: die „handlungsorientierte Pädagogik“. Sie könnte die Dominanz der Bildschirme brechen und jungen Leuten neue Zugänge zur realen Welt öffnen. Eine große Chance, um wieder im „innern Herzen“ für ein Thema zu brennen. Lehrende, Schüler und Studierende würden verstehen, worauf es beim Lernen und Schreiben wirklich ankommt: reale Erlebnisse, soziale Interaktion und persönliche Beziehungen. Das lässt sich auch an Hochschulen erleben, ganz ohne ChatGPT.