Und wieder ruft der (Ro)Bot, grüßt das Murmeltier

Tech-Experten und Wissenschaftler fordern ein Moratorium für KI

Im November 2022 hat das US-Unternehmen OpenAI den Textgenerator ChatGPT frei zugänglich ins Netz gestellt. Seither wurde ein regelrechter Hype um diese und vergleichbare Anwendungen inszeniert. Im März 2023 veröffentlichten mehr als 1000 Experten und Wissenschaftler aus der Tech- und KI-Forschung einen Offenen Brief, der ein Moratorium und den sofortigen Stopp der öffentlichen Experimente mit KI-Bots wie ChatGPT, Dall-E-2 und ähnlichen Bots fordert. Von Ralf Lankau

Der Text als PDF (10 Seiten: Lankau (2023) KI-Moratorium

Seit ein paar Monaten scheint es in der Netzwelt und bei ihren Apologeten und Propagandisten, aber auch in den Medienkanälen nur noch ein Thema zu geben: (Ro)Bots wie ChatGPT oder Bard, Dall-E 2, Stable Diffusion und ähnliche Programme, die automatisiert Texte, Bilder, Präsentationen oder Videos anhand von Sprach- oder Texteingaben (sogenannten „Prompts“) generieren. Generative KI bedeutet, kurz gefasst, dass IT-Systeme mit vorhandenen Daten (Texte, Audiodateien, Bildern etc.) trainiert werden, darin Muster erkennen und mit Hilfe vom Mustererkennung, Wahrscheinlichkeitsrechnung und Statistik (das ist die Basis von KI) digitale Artefakte generieren, das heißt aus vorhandenen Bausteinen Neues zusammenstellen. Die Ergebnisse sind ähnlich zu dem, was Menschen erzeugen. Zum Teil sind die automatisierten Ausgaben der Programme nur schwer oder gar nicht von dem zu unterscheiden, was Menschen machen, wie z.B. die Diskussionen zu automatisiert generierten Prüfungsleistungen in (Hoch)­Schulen zeigen.

Das gelingt, weil menschliche Zeichensysteme wie z.B. Verbal- oder Programmiersprachen, Kompositionstechniken der Musik oder der visuellen Gestaltung Regelsysteme sind, die sich auf den Ebenen von Syntax (Regelsystem für den Sprachaufbau), Grammatik (systematische Analyse der Struktur des Zeichensystems und Regeln für die Kombinatorik der Elemente zu korrekten Sätzen, Aussagen oder Kompositionen) und Semantik (Bedeutungslehre der Zeichen) analysieren lassen. Die Regelhaftigkeit medialer Systeme ist die notwendige Voraussetzung, um sie digital abzubilden. Regeln lassen sich mathematisch formulieren und hierarchisieren. Mit Hilfe solcher Regelsysteme lassen sich Texte, Code oder audiovisuelle Kompositionen berechnen, die mit hoher Wahrscheinlichkeit „echt“ wirken. Technische Details sind vielfach beschrieben. (1) Hier geht es um das Prinzip. Statt selbst etwas zu schreiben oder zu gestalten, gibt man nur noch Anweisungen. Ein Programm liefert vermeintlich gültige Ergebnisse. Begeistert wird über Leistungsfähigkeit und das Leistungsspektrum dieser Anwendungen berichtet (was der Bot alles kann), über technische Parameter (Terrabyte an Trainingsdaten, eine Billion und mehr Parameter etc.) und behauptet, dass jetzt endlich der Durchbruch der sogenannten „Künstlichen Intelligenz“ gelingen könne.

Endlich, weil es bereits der dritte Versuch ist, mathematischen Modelle als Intelligenz zu etablieren. (2) Auf den Hype folgt regelmäßig die Ernüchterung (die sogenannten KI-Winter). Endlich vor allem, weil die IT-Monopole des Silicon Valley dringend etwas Neues brauchen, dass man den Nutzerinnen und Nutzern verkaufen, mit dem man sie noch fester an sich binden kann. Der Offene Brief kritisiert daher nicht die Prinzipien und Anwendungen der KI, sondern die vorzeitige Kommerzialisierung ohne existierende Regelwerke für den Einsatz und die notwendige Begrenzung von KI-Anwendungen. Die Veröffentlichung von ChatGPT im November 2022 folgte ja der Logik des Wettbewerbs. Microsoft versucht, durch die Integration von ChatGPT in seine Suchmaschine „Bing“ Google Marktanteile bei Werbeplätzen abzunehmen.

Die Suche nach dem New Big Thing heißt: Das erste Smartphone kam 2007 auf den Markt, der mittlerweile selbst mit Zweit- und Drittgeräten gesättigt ist. Es gibt Millionen von Apps, für jede nur denkbare Aufgabe ein paar hundert oder tausend Lösungen. Auch das Geschäft mit sozial nur genannten Medien, das Nutzerdaten sammelt, um Werbung zu schalten und vor allem die Betreiber der Plattformen reich macht, stagniert. Es fehlen neue Ideen. Jetzt sollen diese Bots die User wieder an die Bildschirme bringen. Und es funktioniert. Wer hat noch nicht mit ChatGPT gechattet, sich Texte oder Gedichte schreiben lassen, Bilder mit Dall-E oder Stable Diffusion generiert?

Die KI-Leitsätze von Asilomar

Ausgerechnet jetzt gibt es aber Einspruch, zudem von Menschen, die diese Techniken entwickeln und ihre Potentiale als zukunftsweisend propagieren. Diese Kritiker sind keine Ludditen (Maschinenstürmer), sondern überzeugte Entwickler und Nutzer moderner Technologien. Viele sind assoziiert mit dem Future of Life-Institute, das sich laut Homepage zur Aufgabe macht, „transformative Technologien weg von extremen, groß angelegten Risiken und hin zum Nutzen des Lebens zu lenken.“ Drei Technologien hätten „weitreichende Folgen für alles Leben auf der Erde“: Künstliche Intelligenz, Biotechnologie und die Kerntechnik. Diese Techniken und ihre Anwendungen werden durch den Offenen Brief nicht generell in Frage gestellt, sondern nur der „unsachgemäße Umgang“ als Kehrseite der Medaille thematisiert:

„Bei richtiger Handhabung könnten diese Technologien die Welt in einer Weise verändern, die das Leben wesentlich verbessert, sowohl für die heute lebenden Menschen als auch für alle, die noch geboren werden müssen. Sie könnten eingesetzt werden, um Krankheiten zu behandeln und auszurotten, demokratische Prozesse zu stärken und den Klimawandel abzumildern oder sogar aufzuhalten.

Bei unsachgemäßem Umgang könnten sie das Gegenteil bewirken. Sie könnten zu katastrophalen Ereignissen führen, die die Menschheit in die Knie zwingen und uns möglicherweise sogar an den Rand des Aussterbens treiben.“ (AI Principles, https://futureoflife.org/about-us/)

Die Kritiker berufen sich mit ihrem Brief auf die 2018 formulierten KI-Leitsätze von Asilomar, bei denen in 27 Punkten Richtlinien formuliert wurden.(3) Diese Grundsätze formulieren eine Ideologie des Technikdeterminismus und Utilitarismus, die vom Glauben an Fortschritt und Machbarkeit geprägt sind. Malte Rehbein (2018) und die Vereinigung Deutscher Wissenschaft haben in einer Stellungnahme zu ethischen, politischen und rechtlichen Fragen der Erforschung, Entwicklung und Anwendung von KI die Grundsätze als nicht weitreichend genug kritisiert.

„Unsere Prüfung der Prinzipienkatalogen hat ergeben, dass diese der Logik einer erfolgreichen Gefahrenabwehr nicht gerecht werden. Würde die Einhegung der K.I. lediglich der Expertise der Asilomar-Prinzipien folgen, würde aus unserer Sicht, ein Risiko in existentieller Größenordnung in Kauf genommen, welches zu anderen Gefährdungen der Menschheit gleichrangig zu sehen ist und für die die Notwendigkeit und Logik unbedingter präventiver Gefahrenabwehr bereits akzeptiert ist.“ (VDW 2018, S. 2)

Die gegensätzlichen Positionen (Asilomar Grundsätze zu KI vs. Stellungnahme der VDW) charakterisieren prototypisch gegensätzliche Sichtweisen und Wissenschaftskulturen. Im Silicon Valley herrscht typischerweise eine positivistische Philosophie des Solutionism (vom englisch „Solution“ für Lösung ).Versprochen wird „Weltverbesserung“ durch Big Data und IT. Alle gegenwärtigen und sogar die Probleme zukünftiger Generationen ließen sich mit KI lösen. Die Studiengruppe der VDW fordert hingegen eine „breite, zielgerichtete, gesellschaftliche und wissenschaftliche Diskussion“ in der Tradition der Technikfolgeabschätzung (TA), bei der nicht nur Befürworter und deren Verbände und Unternehmen zu Wort kommen, sondern die notwendige Multiperspektivität und eine qualifizierte, mehrheitliche, nicht zuletzt demokratisch legitimierte Zustimmung, Vorsorge und letztlich auch die notwendige Kontrolle sicher zu stellen sei:

„Als problematisch wird von der VDW-Studiengruppe vor allem angesehen, dass die Prinzipien auf Basis einer (impliziten) exklusiven Utopie-Prämisse entstanden sind, die davon ausgeht, dass grundsätzlich eine grenzenlose Technologieentwicklung bzw. -anwendung möglich ist, die nur in Einzelfällen einer Regulierung bedarf. (…)
Es bedarf effektiver staatlicher (und multilateraler) Strukturen und Sanktionsmechanismen, um sicherzustellen, dass K.I. jederzeit kontrollierbar ist. Dies gilt für alle Phasen von F+E und Anwendung. Vor allem Markteinführungen dürfen erst nach Abschluss hinreichender Sicherheitsbewertungen erfolgen. Hierbei sind beispielsweise umfangreiche Prüfungen in lebensnahen Szenarien notwendig. Technische Expertise ist dabei unterstützend erforderlich, darf aber ebenso wenig wie wirtschaftliche Interessen maßgeblichen Einfluss in Regulierungsfragen haben. Auch bedarf es einer technisch informierten, umfassenden, weltweit funktionierenden, demokratischen Kontrolle von Forschung und Entwicklung in diesem Bereich.“ (VDW 2018, 26ff)

Interdisziplinäre Diskussion

Was Deutschland (und Europa) derzeit fehlt ist der ergebnisoffene, interdisziplinäre Diskurs anstelle des fortschrittsgläubigen Technikdeterminismus und Utilitarismus. KI kann demokratische Gesellschaften und Strukturen untergraben und manipulieren, wie der Einfluss von digitalen Medien als Propagandainstrument beim Brexit oder den US-Wahlkämpfen (Stichwort Cambridge Analytics) gezeigt hat oder aktuell der Einsatz von TikTok als Propagandainstrument im russischen Angriffskrieg auf die Ukraine belegt.

In demokratischen Staaten entscheiden (noch?) die gesetzgebenden Institutionen darüber, welche Techniken eingesetzt und wie deren Einsatz beschränkt werden muss. Investoren wie Peter Thiel fordern dagegen gewohnt marktradikal und libertär die Abschaffung der staatlichen Einrichtungen und Demokratie. „I no longer believe that freedom and democracy are compatible“(4). Stattdessen sollen IT-Unternehmen die Gesellschaft steuern (die Daten dafür haben sie, mehr als jede rechtsstaatliche Institution sammeln darf). Die Reduktion von Freiheit auf unternehmerische Freiheit war schon 2009 Thiels Credo und korrespondiert mit Aussagen von Larry Page, der fordert, IT-Unternehmen müssten über dem Gesetz stehen dürfen:

„Es gibt eine Menge Dinge, die wir gern machen würden, aber leider nicht tun können, weil sie illegal sind. Weil es Gesetze gibt, die sie verbieten. Wir sollten ein paar Orte haben, wo wir sicher sind. Wo wir neue Dinge ausprobieren und herausfinden können, welche Auswirkungen sie auf die Gesellschaft haben.“ (Larry Page, zit. n. Keese 2014, S. 219 f.)

Der Vorschlag, Rechenzentren als schwimmende Städte in internationale Gewässern auszulagern, wo nur noch internationales Seerecht statt nationalstaatlicher Gesetze gelten, wurde bislang nicht realisiert. Dafür experimentieren Microsoft und OpenAI derzeit mit ChatGPT und anderen Bots in einem offenen Feldversuch, welche Auswirkungen durch KI sich beobachten lassen. Die Bevölkerungen werden zu Beta-Testern, ohne Rücksicht auf die Folgen für Individuen wie Gemeinschaft. Daher der Ruf nach einem Moratorium und die Diskussionen über Regeln und Grenzen für solche Anwendungen.

Diskussionsbedarf und Gegenstimmen

Einige Stimmen gibt es bereits. Der Deutsche Ethikrat hat sich aktuell für die strikte Begrenzungen bei der Verwendung von Künstlicher Intelligenz u.a. in Medizin (Kap.5) und Bildung (Kap. 6) ausgesprochen. KI dürfe den Menschen nicht ersetzen, der Einsatz von KI müsse menschliche Entfaltung erweitern, nicht vermindern. Softwaresysteme verfügten weder über Vernunft noch würden sie selbst handeln und könnten daher auch keine Verantwortung übernehmen, so Alena Buyx, Vorsitzende des Deutschen Ethikrates. (Ethikrat 2023).

Armin Grunwald, Professor für Technikphilosophie und Technikethik am Karlsruher Institut für Technologie (KIT) und Leiter des Büros für Technikfolgen-Abschätzung des Deutschen Bundestags, sprach schon 2019 von der „Gretchenfrage“, die zu stellen sei, und fordert zur reflektierten Gegenwehr gegen Machtbestrebungen auf:

»Wir müssen ernsthaft die Frage stellen: Wer sind die Macher der KI, wer verbreitet die Erzählungen und wer will hier eigentlich seine Werte und Interessen hinter einem vermeintlichen Technikdeterminismus verstecken? Denn auch in der Welt mit KI dient Technikdeterminismus einer Ideologie der Mächtigen. Er verschleiert, dass jede KI gemacht wird, von Menschen in Unternehmen und Geheimdiensten, nach deren Interessen, Werten und Weltanschauungen« (Grunwald 2019)

Italien sperrt als erstes europäisches Land ChatGPT im Netz und lässt selbst für Erwachsene nur noch eine eingeschränkte Nutzung zu. Der Grund: Verstöße gegen den Daten- und Jugendschutz. Es gäbe keine angemessenen Filter oder Sperren für Kinder unter 13 Jahren, die selbst nach den Geschäftsbedingungen des Anbieters die Software nicht nutzen dürfen. Auch würde Nutzerinnen und Nutzern nicht mitgeteilt, welche Informationen über sie gespeichert würden. Das seien eklatante Verstöße gegen die Europäische Datenschutzgrundverordnung (EU-DSGVO), die mit einer Strafe von bis zu 20 Millionen Euro oder bis zu vier Prozent des Jahresumsatzes geahndet werden könne. Die italienischen Behörden haben eine Frist von 20 Tagen zur Behebung der Missstände gesetzt.(5) Die Datenschutzverordnung gilt seit Mai 2018 in allen Ländern der EU, auch in Deutschland.

Selbst der ehemalige amerikanische Präsident, Barack Obama, der für seine Wahlkämpfe um das Amt des US-Präsidenten in den Jahren 2008 und 2012 sehr erfolgreich Facebook nutzte, referierte im April 2022 (nach vier Jahren Regierung Trump, in denen das destruktive Potential von Fake-News und populistischen Medien zum Sturm auf das Parlament in Washington geführt hatte), vor Studierenden in Stanford über ausgeblendete Folgen der Netztechnologien. Desinformation durch Social Media-Kanäle sei eine Bedrohung für die Demokratie. Der Staat sei aufgefordert, IT-Konzerne in die Pflicht zu nehmen und zum Wohl und Schutz der Bevölkerung zu regulieren, übrigens auch zum Nutzen der Unternehmen selbst.

„Während sich die Unternehmen anfangs immer beschweren, dass die Vorschriften die Innovation abwürgen und die Industrie zerstören, ist es in Wahrheit so, dass ein gutes regulatorisches Umfeld in der Regel die Innovation fördert, weil es die Messlatte für Sicherheit und Qualität höher legt.“(Obama, 2022)

Der Gouverneur von Utah, Spencer Cox, hat zwei Gesetze unterzeichnet, die die Social-Media-Aktivitäten von Kindern und Jugendlichen stark einschränken. Die beiden Gesetze (Senate Bill 152 und House Bill 311) definieren u.a. ein Nutzungsverbot zwischen 22.30 Uhr und 6.30 Uhr, verlangen Altersnachweise, verbieten Werbung an Minderjährige und die Verwendung von Designelementen oder Funktion, die bei Minderjährigen eine Abhängigkeit von (Social)Media-Plattformen verursachen. Die Sperrung von Konten von Minderjährigen in Suchergebnissen wird ebenso Pflicht wie das Verbot von Direktnachrichten von Externen an Kinder, zwei Funktionen, die zur Kontaktaufnahme mit Kindern missbraucht werden.

„Wir sind nicht länger bereit, zuzulassen, dass Social-Media-Unternehmen die psychische Gesundheit unserer Jugend schädigen. (…) Utah ist führend, wenn es darum geht, Social-Media-Unternehmen zur Verantwortung zu ziehen – und wir werden in nächster Zeit nicht nachlassen. (…) Helfen Sie uns, unsere Kinder vor den Gefahren der sozialen Medien zu schützen.“ (Utah 2023) (https://socialmedia.utah.gov/; dt. siehe Lankau 2023)

Deutschland im Vernunft-Winter (6)

In Deutschland hingegen hat sich in der Ampelkoalition die kleinste Fraktion mit ihrer vernunftfreien Parole des „Digital first. Bedenken second“ durchgesetzt. Auf 177 Seiten des Koalitionsvertrags vom Dezember 2021 steht fast 270 Mal der Begriff „digital“ in allen nur denkbaren Varianten, ohne auch nur zwischen Infrastruktur, Diensten und Folgen für den Einzelnen wie die Gemeinschaft zu differenzieren. Es ist die gleiche Naivität und Unbedarftheit, die unter dem Begriff der „Technologieoffenheit“ Deutschlands Ansehen in Brüssel beschädigt, um einer sehr kleinen Gruppe von sehr wohlhabenden Autofahrern das Fahren mit Verbrennungsmotoren und E-Fuels zu ermöglichen. Klientelpolitik schlägt Verantwortung für Gemeinschaft und Gemeinwohl. Das konsequente Ausblenden der technischen wie wirtschaftlichen Zusammenhänge beim Auf- und Ausbaus der IT-Infrastruktur und Netzwerke ist offenbar die Konstante einer Technikbegeisterung, die sich von einer „Bundesagentur für Sprunginnovationen“ (7) bis zu bloggenden Lehrern aufzeigen lässt, die mal schnell vom „Ende vom Lernen wie wir es kennen“ (8) phantasieren und publizieren, „warum und wie Lehrkräfte das Tool [ChatGPT; RL] schon jetzt für den Unterricht und für ihre Vorbereitungen nutzen können“.

Es wird ignoriert, dass eine Applikation mit intransparenter, sich permanent ändernder Datenbasis und ebenso intransparenten Algorithmen für die Auswahl und Zusammenstellung der automatisierten Antworten als Lehr- und Lernmedium ungeeignet ist. Schülerinnen und Schüler haben ein Recht darauf, in der Schule Fakten und Zusammenhänge zu lernen, die sich nicht zufällig nach Datenbestand und derzeitigen Parametern von Algorithmen ändern und bei denen sich Inhalte nach den jeweiligen Interessen der Anbieter ein- und ausblenden und beliebig in Rankings verschieben lassen. Solche Bots eignen sich im Unterricht allenfalls als Anschauungsmaterial für das Generieren von nur nach Wahrscheinlichkeitsparametern berechneten, eben: generischen Inhalten. Neben falschen Antworten halluzinieren (erfinden) aktuelle Bots Fakten und Daten, wenn sie keine Antwort geben können statt die Antwort zu verweigern. (Menge-Sonnentag 2022; Weiß 2023 u.a.) Das sind Logik- und Programmierfehler, wobei die Entwickler dieser komplexen Systeme oft selbst nicht mehr wissen, was die Programme tun. Es ist das bekannte Phänomen des Zauberlehrlings, der etwas anstößt und nicht mehr stoppen kann, einer der Gründe für die Forderung nach einem Moratorium.

ChatGPT & Co. sind Beispiele dafür, welche Form von Applikationen sich weder für die Recherche noch für das Lehren und Lernen eignen. In Bildungseinrichtungen wird ja erst die Basis für valides Wissen gelegt.Wer (noch) nichts weiß, kann nicht wissen, ob etwas richtig oder was falsch ist. Das ist so selbstverständlich wie trivial. Lassen Sie sich probeweise einen Text von einem sehr guten Übersetzungsprogramm wie Deep-L in ein Sprache übersetzen, die Sie nicht beherrschen. Wie wollen Sie das Ergebnis überprüfen? Es gilt das Matthäus-Prinzip: Wer (Vorwissen) hat, dem wird (ein hilfreiches Werkzeug) gegeben. Aber nur Wissende können das Ergebnis fachlich beurteilen und ggf. korrigieren. Alle anderen müssen: glauben.

Zu vermitteln ist daher in Bildungseinrichtungen der Umgang mit seriösen Informationsbeständen in analogen wie digitalen (Fach)Bibliotheken, das Arbeiten mit relevanten Fachinformationsdiensten und mit Medien von Bildungsservern, Fachverlagen und Berufsverbänden. Nicht das technische Format der Materialien und Medien ist entscheidend, sondern die Seriosität der Anbieter. Für Schulen kommt ohnehin nur von Fachleuten erstelltes und von den Kultusministerien der Länder für den Unterricht freigegebenes Material in Frage.

„Probleme kann man niemals mit derselben Denkweise lösen, mit der sie entstanden sind“ soll Albert Einstein gesagt haben. Es bedeutet, dass man die Frage, wie mit IT und KI umgegangen werden soll, nicht (nur) Informatikern, Ingenieuren und Technikern überlassen darf, die diese Systeme und Infrastruktur entwickelt haben. (9) Gefragt sind interdisziplinäre ethische, gesellschaftliche und politische Diskussion, wer Techniken wie KI und Bots für was einsetzen darf, wer die Grenzen des Zulässigen definiert, wer die Einhaltung der Regeln kontrolliert und ggf. sanktioniert. Das sind in demokratischen Staaten die verfassungsgemäßen Organe, an die sich auch international agierende IT-Unternehmen halten müssen. Andernfalls bestimmen sehr wenige, sehr reiche Männer mit ihren Partikularinteressen und ihrem autokratischen, zum Teil irrationalen Verhalten, wie gesellschaftsverändernde Technologien das Zusammenleben bestimmen (sollen).

Hier sei daher in aller Deutlichkeit formuliert: Wir müssen aufhören, von Digitalisierung, digitaler Transformation und Digitalität zu sprechen als sei (Digital)Technik etwas, die man notwendig nutzen, an das man sich anpassen und deren Logik man sich unterordnen müsse. Diese Form des Fatalismus, exemplarisch vermittelt unter dem Stichwort „Kultur der Digitalität“ (Stalder 2016) blendet vorsätzlich und wissentlich aus, dass hinter den Entwicklungen von „smarten“ (d.h. datenbasierten) Technologien Menschen und Unternehmen mit konkreten wirtschaftlichen Interessen stehen.

„Ganz konkret ist, frei nach Immanuel Kant, das Austreten aus der selbst verschuldeten Unmündigkeit des Nachplapperns technikdeterministischer Erzählungen angesagt“ (Grunwald 2019).

Die Aufgabe demokratischer Staaten, ihrer Institutionen und der Bürgerinnen und Bürgern ist es, die rechtlichen, kulturellen, sozialen und technischen Rahmenbedingungen für eine (digitale) Souveränität zu erarbeiten. Das Erfreuliche: Es gibt Alternativen. Für das Web hat das der „Vater des Web“ und Professor am MIT in Massachusetts, Tim Berners-Lee, bereits 2019 mit seinem „Contract for the Web“ (10) formuliert, der alle Beteiligten in die Pflicht nimmt:

„Das Web wurde entwickelt, um Menschen zusammenzubringen und Wissen frei verfügbar zu machen. Jeder Mensch hat die Aufgabe, sicherzustellen, dass das Web der Menschheit dient. Indem sie sich den folgenden Grundsätzen verpflichten, können Regierungen, Unternehmen und Bürger weltweit dazu beitragen, das offene Web als öffentliches Gut und Grundrecht für jeden Menschen zu schützen. (https://contractfortheweb.org/de/252-2/)

Für KI und Bots sind solche Prämissen erst zu formulieren. Das fordert das Moratorium, dabei helfen Stellungnahmen des Ethikrats und der VDW, ergänzt um weitere Positionen aus Politik, Kultur und Wissenschaft. Das ist anstrengend und erfordert einen intensiven, interdisziplinären Diskurs. Aber genau das ist notwendig und konstituierend für den Einsatz von Technologien in Demokratien

Der Text als PDF (10 Seiten: Lankau (2023) KI-Moratorium


Anmerkungen

  1. Z.B. Helmut Linde (2023) Künstliche Intelligenz: So funktioniert ChatGPT, Golem, veröffentlicht am 6.2.23; Thomas van Bosch (2023) From Eliza to ChatGPT: the stormy development of language models;  (1.4.2023)
  2. Kybernetik (Norbert Wiener) und Artificial Intellgence (John McCarthy und Dartmour-Conference, 1956), Expertensysteme in den 1980er Jahren, KI-Systeme und Bots heute.
  3. AI Principles, https://futureoflife.org/open-letter/ai-principles/; deutsch: https://futureoflife.org/open-letter/ai-principles-german/ (31.3.23)
  4. Thiel, Peter (2009) The Education of a Libertarian, April 13, 2009; (1.4.23)
  5. Tagesschau (2023) Künstliche Intelligenz: Italien sperrt ChatGPT; (31.3.23)
  6. KI-Winter werden die Phasen genannt, in denen Kybernetik und KI nicht promotet, Professuren nicht mehr besetzt, Inhalte nicht oder unter anderen Titeln gelehrt werden.
  7. Siehe: https://www.sprind.org/de/  Lesen Sie den „Leitfragen Sprunginnovationen“ und beantworten Sie mit dem Onlineformular für Förderanträge  die Fragen 1-17, darunter die Frage 3: „Wie würde eine Welt aussehen, in der Ihre potentielle Sprunginnovation erfolgreich umgesetzt wurde? Inwiefern verändert sich z.B. unser Leben oder das bestehende Marktgefüge?“ Wichtig: Nur vollständig ausgefüllte Formulare werden bearbeitet!
    Das ist keine Persiflage. Es ist das Resultat, wenn eine Bundesagentur den Silicon-Valley-TedTalk-StartUp-Slang kopiert. Zugleich entlarvt die Frage in nur einem Satz die „bessere Welt“-Propaganda als kommerziell und marktgetrieben
  8. Dt. Schulportal: https://deutsches-schulportal.de/kolumnen/chatgpt-das-ende-vom-lernen-wie-wir-es-kennen/ (1.4.23)
  9. Die Corona-Pandemie hat exemplarisch gezeigt, wie einseitig auch die wissenschaftlich fundierte Beratung durch Experten ist, wenn nur z.B. Virologe und Epidemiologen befragt werden und die Expertise über die Bedeutung von Kontaktverboten, Schulschließungen durch Pädiater, Psychologen, Soziologen u.a. ausbleibt.
  10. Contract for the Web: https://contractfortheweb.org/

Literatur und Quellen

Ethikrat (2023) Veröffentlichung der Stellungnahme ‚‚Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ mit PDF-Downloads der Empfehlung, Illustration, Statements und PM, 20. März 2023, https://www.ethikrat.org/pressekonferenzen/veroeffentlichung-der-stellungnahme-mensch-und-maschine/ (20.03.2023)

Future of life-Institute (2023) Pause Giant AI Experiments: An Open Letter; https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Grunwald, Armin (2019) Gretchenfrage 4.0, in: SZ vom 26.12.2019, S. 9

Keese, Christoph (2014) Silicon Valley. Was aus dem mächtigsten Tal der Welt auf uns zukommt, München: Penguin

Menge-Sonnentag, Rainald (2022) Kommentar: ChatGPT – keine Intelligenz, keine Panik!, Heise online: „Sprachmodelle neigen zum Halluzinieren: Was sie nicht wissen, erfinden sie. Meta musste Galactica schon nach kurzer Zeit wieder zurückziehen, da das mit 48 Millionen Abhandlungen und Forschungsdokumenten trainierte Modell überzeugende, scheinbar wissenschaftliche Texte erzeugt hatte, die jedoch frei erfunden waren.“, l (2.4.23)

Obama, Barack (2022) Disinformation Is a Threat to Our Democracy. Tech platforms need to recognize that their decisions have an impact on every aspect of society; Vortrag am 21.4.2022, Stanford University; (24.4.2022)

Rehbein, Malte (2018) Die „Asilomar AI Principles“ zu Künstlicher Intelligenz, in: Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung e.V., Heft 1/2018, S. 24-26;  (31.3.2023)

Seising, Rudolf (2021) Es denkt nicht. Die vergessene Geschichte der KI, Frankfurt: Büchergilde

Stalder, Felix (2016) Kultur der Digitalität, Berlin: Suhrkamp

Utah 2023: Utah Protecting Minors Online; dt. und Kommentar siehe Lankau 2023 – Die Botschaft des Gouverneurs,  (2.4.23)

Vereinigung Deutscher Wissenschaftler (VDW 2018) Stellungnahme zu den Asilomar-Prinzipien zu künstlicher Intelligenz. Studiengruppe Technikfolgenabschätzung der Digitalisierung (PDF);  (30.3.2023)

Weiß, Eva Maria (2023) Google Suche: Mehr Funktionen, Informationen zu verifizieren. Google möchte Nutzern mehr Möglichkeiten an die Hand geben, Fakten von Fiktion zu unterscheiden. Ein Seitenhieb auf die KI-Halluzinationen? Heise (2.4.23)

Wiener, Norbert (1948) Cybernetics or Control and Communication in the animal and the machine (dt.: Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine, 1963)