Autonomie des Menschen vs. autonome Systeme

Einspruch gegen digitale Heilslehren – für einen humanen Einsatz von KI

Thesenpapier zur VDW-Jahrestagung „Die Ambivalenz des Digitalen“ am 10./11. Oktober 2019 in Berlin

Die Diskussionen über die Bedeutung und Folgen der Digitalisierung sind kaum noch überschaubar. Einig sind sich die meisten, dass Digitalisierung und die sogenannte „Künstlicher Intelligenz“ (sKI) sowohl „alternativlos“ wie entscheidend für die Zukunft seien. Wer bei diesen Techniken nicht an der Spitze stünde, würde wirtschaftlich abgehängt und letztlich zum Verlierer. Die erst Frage ist aber: Wer steht denn an der Spitze und ist es erstrebenswert, sich dazu zu gesellen? Die zweite Frage ist, was sich konkret an technischen Systemen hinter Schlagworten wie Big Data, Künstlicher Intelligenz und autonomen Systemen verbirgt. Nicht zuletzt steht in Frage, welche Konsequenzen diese Systeme für den Einzelnen haben (können und/oder werden).

Begriffsklärung: Was heißt digital und digitalisieren?

Um etwas zu verstehen, muss man die Begriffe korrekt benutzen. Das englische „digit“ ist die Zahl oder Ziffer. Als Adjektiv bedeutet „digital“, „in Ziffern dargestellt oder auf Digitaltechnik oder -verfahren beruhend“. Als Verb bedeutet „etwas zu digitalisieren“, ein analoges in ein digitales Signal umzuwandeln und/oder Informationen in maschinenlesbare Daten umzuwandeln. Rechner (Computer sind Rechenmaschinen ) verarbeiten ja keine Informationen, sondern immer nur Daten. Es sind im Wortsinn Datenverarbeitungssysteme. Auch die sog. „Künstliche Intelligenz“ (sKI) ist eine z.T. zwar hochkomplexe und mittlerweile extrem leistungsstarke automatisierte Datenverarbeitung, aber es bleiben Rechenoperationen. Die Microsoft-Deutschland-Chefin Sabine Bendiek präzisierte im FAZ-Interview: „Eine KI kann viele Dinge ganz toll, aber letztlich rechnet sie auf Basis von großen Datenmengen.“ (Armbruster 2019)

Das relativiert den Begriff der „Intelligenz“ von technischen Systemen, der vor allem im öffentlichen Sprachgebrauch schnell überhöht wird und besser mit „technischer Komplexität“ übersetzt werden sollte. Denn wie komplex und schnell eine Maschine oder ein Netzwerk aus Computern auch immer rechnen mag, es bleiben mathematische Operationen. Rechner (Computer) können extrem schnell und komplex – rechnen . Nicht mehr, nicht weniger. Die Grundlage jeder automatisierten Datenverarbeitung wiederum sind Algorithmen. Algorithmen sind mathematische Beschreibungen von Aufgaben und/oder Funktionen (was soll ein Programm tun). Es sind eindeutige Handlungsvorschriften zur Lösung (technischer, mathematischer) Probleme oder einer Klasse von Problemen.

Auch die komplexesten Algorithmen bestehen aus endlich vielen, exakt definierten Einzelschritten (Rechenoperationen). Alle Rechenschritte sind regelbasiert. „Maschinelles Lernen“ bedeutet im Wesentlichen, dass ein komplexes mathematisches (algorithmisches) System die vorhandenen Regeln für eine Aufgabe um weitere, ebenso exakt definierte, Regeln erweitern kann, sofern es dafür programmiert ist. Wer also über Digitalisierung und die sog. „Künstliche Intelligenz“ spricht, sollte immer darauf verweisen, dass es um das Sammeln und Auswerten von (Nutzer-)Daten geht, um diese maschinenlesbar zu machen und anschließend automatisiert mit Hilfe von komplexen Rechenoperationen (Big Data Analysis oder neu, weil Big Data doch sehr nach Big Brother klingt, Data Sciences) auszuwerten.

Die notwendigen Folgefragen sind: Welche Daten werden von wem und wozu gesammelt und verarbeitet? Wozu werden immer mehr Nutzerdaten gesammelt, nach welchen Kriterien und für welchen Zweck, mit welchem Ziel? Wer verfolgt welche Interessen damit – und korrespondiert das mit den Interessen der Nutzerinnen und Nutzer, die ja im Netz als Zwangs-Datenspender eingespannt sind? Damit stellt sich letztlich die Gretchenfrage für IT-Anbieter: „Wie hältst Du es mit den Daten?“ Das wiederum führt zur Beantwortung der ersten Frage: Wer steht an der Spitze der Datensammelei und ist es überhaupt erstrebenswert, zu diesen Datensammlern an der Spitze zu gehören?

Der dritte Weg

Zwei Systeme stehen zur Wahl. Der Erste ist das US-amerikanische System des digitalen Überwachungskapitalismus (Zuboff, 2018) aus dem Silicon Valley. Es steuert die Nutzer mit Techniken und Methoden der Werbepsychologie (persuasive technologies*), um die Umsätze der Big Five der IT (Alphabet/Google, Apple, Amazon, Facebook, Microsoft) zu optimieren. (An die staatlichen und militärischen Überwachungsinstrumente seien hier nur ergänzend erinnert.) Die Parameter der kommerziellen Daten-Ökonomie aus dem Valley sind: neoliberal, marktradikal und a-sozial. Das Ziel ist die Maximierung der Bildschirmzeiten der User, um möglichst viel Werbung schalten und Produkte verkaufen zu können. Dabei werden gezielt Suchtpotentiale adressiert, gesundheitliche Folgen und soziale Isolation ebenso in Kauf genommen wie die zunehmende Verrohung im Netz. Es sind Märkte, die radikal zur Gewinnmaximierung bespielt werden. So verweigert etwa die YouTube-Chefin Susan Wojcicki selbst auf dringende Bitten von Mitarbeitern der Video-Plattform und sogar von deren Anwälten das Kennzeichnen oder Löschen von Hassvideos und Verschwörungstheorien mit dem Hinweis, dass dadurch Reichweite und Ertrag gemindert würden. (Steinlechner 2019)

Der zweite Weg, das staatstotalitäre chinesische Überwachungsnetz, ist keine Alternative. Alle Bürger werden komplett überwacht, der Staat hat Zugriff auf alle digitalen Geräte, auch die privaten und die Kommunikation im staatlich kontrollierten Netz. China hat darüber hinaus ein Sozialpunktesystems (Citizen Scoring) eingeführt, das erwünschtes Verhalten belohnt, unerwünschtes Handeln sanktioniert. Überwacht und bewertet werden alle Aktionen am Rechner und Smartphone, aber auch im Straßenverkehr und im öffentlichen Raum. Abhängig vom Punktestand bekommt man besser oder schlechter bezahlte Arbeit, gute, schlechte oder gar keine Schul- und Studienplätze für die Kinder. Auch wird besondere medizinische Betreuung je nach Punktestand gewährt oder verweigert usw.

Für Deutschland und Europa sind beide Optionen – sowohl der neoliberale und marktradikale Valley-Kapitalismus wie der chinesische Staatstotalitarismus (oder der anderer Länder) – keine Option. Sie müssen deshalb einen dritten Weg gehen. Der bleibt nicht stehen bei zusätzlichen Datenschutzverordnungen und vermeintliche Sicherungsoptionen, wie es die IT-Wirtschaft propagiert, sondern stellt die Datensammelwut generell in Frage. Man weiß: Vorhandene Daten werden benutzt – auch für zunächst nicht gedachte Aspekte. Was in der automatisierten Produktion (Industrie 4.0) von Vorteil sein kann – Qualitätsmanagementsysteme und Kennzahlenfixierung zur Effizienzsteigerung und Kostenreduktion – ist für soziale Systeme ungeeignet. Shoshana Zuboff hat bereits 1988 in ihrem Buch „The Age of Smart Machines“, lange vor dem Web und der Plattform-Ökonomie der Digitalmonopole, die drei Zuboffschen Gesetzte formuliert:

  1. Was automatisiert werden kann, wird automatisiert.
  2. Was in digitalisierte Information verwandelt werden kann, wird in digitalisierte Information verwandelt.
  3. Jede Technologie, die für Überwachung und Kontrolle genutzt werden kann, wird, sofern dem keine Einschränkungen und Verbote entgegenstehen, für Überwachung und Kontrolle genutzt, unabhängig von ihrer ursprünglichen Zweckbestimmung.

Die Einschränkung „sofern dem keine Einschränkungen und Verbote entgegenstehen“ sind nach den Enthüllungen von Edward Snowden im Jahr 2013 revidiert. Der letzte Satz lautet heute: Jede Technologie, die für Überwachung und Kontrolle genutzt werden kann, wird für Überwachung und Kontrolle genutzt, unabhängig von geltendem Recht. Daraus folgt zwingend, dass das Ziel nicht sein kann, immer noch mehr Daten zu speichern und in intransparenten Datensilos der IT-Monopole zu sammeln, um das Verhalten der Menschen zu manipulieren, sondern dass es dringend geboten ist, andere Parameter einzuführen. Datenreduktion und -minimierung müssen das Ziel sein, nicht Datenmaximierung, wenn wir weiter mit digitalen Netzwerkstrukturen arbeiten – und eine freie Gesellschaft bleiben wollen. Empirie, Statistik und Mustererkennung können und dürfen nur der Ausgangspunkt für den Diskurs sein, nicht zu Automatismen für Entscheidungen werden, die z.B. über Bildungs- und Erwerbsbiographien oder die Zuteilung von Wohnungen bestimmen.

Zugleich müssen die Algorithmen transparent und die Rechen- als Entscheidungswege transparent werden. (Gigerenzer 2018) Das Argument, hier müssten Geschäftsgeheimnisse geschützt werden, sticht nicht, wenn Anwendungen über das Verhalten oder Lebenswege von Menschen bestimmen, diese ändern oder sogar (bei automatisierter Schul- oder Berufswahl) verhindern können. Wer darüber hinaus realisiert, dass es keine fehlerfreien digitalen Systeme gibt, wird schon aus selbstverständlicher Skepsis gegenüber intransparenten technischen Systemen die Offenlegung der Berechnungen fordern. Sarah Spiekermann, Professorin an der Wirtschaftsuniversität Wien, schreibt dazu in der FAZ: „Jeder, der mit KI und Daten gearbeitet hat, weiß, dass die Daten nicht vollständig, dass sie oft falsch, dass sie selektiv sind und dass sie über Kontexte hinweg verbunden und verfremdet werden. Künstliche Intelligenzen machen die absurdesten Klassifikationsfehler. Wenn man mit diesen Fehlern weiterrechnet, entsteht noch mehr Unsinn.“ (Spiekermann (2018) Statt von sog. KI sollte man daher besser von komplexen, möglicherweise fehlerhaften Berechnungsautomatismen sprechen. Für den Physiker Max Tegmark ist das entscheidende Kriterium zur Beurteilung einer sog. „KI“ ohnehin deren konkreter Anwendungszweck: „Welche Aufgaben kann sie bewältigen und kann sie das nach quantifizierbaren Maßstäben besser oder schlechter als der Mensch? Ob sie dabei tatsächlich „denkt“, etwas empfindet oder sogar noch ganz andere Erwägungen anstellt, ist aus diesem Blickwinkel zweitrangig“ (Armbruster 2018) Skepsis gegenüber dem Sammeln von immer mehr Daten und Skepsis gegenüber der angeblichen „Intelligenz“ der sog. KI sind notwendige Voraussetzungen, um diese Technologien der automatisierten Datenverarbeitung in ihrem möglichen Nutzen für die Menschen und menschliche Gemeinschaften einzuschätzen.

Gleichwohl sind die zu erwartenden Folgen der „Digitalisierung aller Lebens­bereiche“ gar nicht zu überschätzen. Alles wird verdatet, in Big-Data-Rechennetzen gesammelt und mit Methoden des Data Analytics ausgewertet, um mit Hilfe dieser Daten und Muster das Verhalten der Menschen zu steuern. Der Einzelne wird zum Datensatz In Frage steht: Bleibt der Mensch als Individuum, autonome Persönlichkeit und Subjekt das Ideal freier Gesellschaften oder wird er zum Datenlieferanten eines zu perfektionierenden Datenverarbeitungssystems, wie es die Daten-Ökonomie verlangt?

„Menschen sind lediglich Instrumente, um das Internet der Dinge zu schaffen, das sich letztlich vom Planeten Erde aus auf die gesamte Galaxie und sogar das gesamte Universum ausbreiten könnte. Dieses kosmische Datenverarbeitungssystem wäre dann wie Gott. Es wird überall sein und alles kontrollieren, und die Menschen sind dazu verdammt, darin aufzugehen.“ (Harari, 2017, 515)

Ein „kosmisches Datenverarbeitungssystem wie Gott“: Deutschland und Europa haben die Wahl. Sie können demokratische und soziale Gesellschaften bleiben und den dritten Weg gehen, die digitale Technologien nach gründlicher Technikfolgeab­schätzung gezielt da einsetzen, wo ein Nutzen zu erwarten und nicht nur unter ökonomischen Aspekten zu belegen ist. Wobei darauf zu achten ist, dass diese Datenverarbeitungssysteme transparent und nur innerhalb des erlaubten rechtlichen Rahmens eingesetzt werden. Oder Deutschland und Europa ordnen sich den Bedingungen der Daten-Ökonomie und der Heilslehre des Data-Ismus unter, wobei es dann letztlich egal wäre, ob es das US-System oder das chinesische ist, die beide mit den identischen Technologien und ebenso identischen Ziel arbeiten, die eigene Bevölkerung zu überwachen und in ihrem Verhalten zu steuern – auch wenn es einmal um Konsummaximierung, das andere Mal um Gehorsam gegenüber dem Staat geht. Die Autonomie und Selbstbestimmung des Individuums wird in beiden Fällen negiert.

Thesen und Forderungen

  1. Daten-Ökonomie und digitaler Überwachungskapitalismus (Zuboff 2018) aus dem Silicon Valley basieren auf immer mehr personenbezogen Daten jedes Einzelnen. Mobile Geräte und Kameras oder Sensoren im privaten wie im öffentlichen Raum (Internet of Things, IoT) ermöglichen es, den Menschen mit seinem Verhalten nahezu vollständig aufzuzeichnen und auszuwerten. Er wird zum unfreiwilligen Datenspender für Big Data und die Datenanalyse der IT-Monopole.
  2. Der permanente Rückkanal für personenbezogene Daten etabliert immer umfangreichere Mess- und Kontrollstrukturen in allen Lebensbereichen. Daraus entstehen immer exaktere Bewegungs-, Verhaltens- und Persönlichkeitsprofile. Diese Profile ermöglichen es, das Nutzerverhalten zu prognostizieren und Nutzer – mit persuasiven Technologien* der Werbe-Psychologie – in ihrem Verhalten zu beeinflussen.
  3. Freie, demokratische und soziale Gesellschaften bleiben nur dann freie, demokratische und soziale Gemeinschaften, wenn sie andere IT- und Netzkonzepte entwickeln anstatt neoliberale und marktradikale Strukturen zu übernehmen. Auch Infrastruktur- und Kommunikationssysteme unterliegen in Rechtsstaaten dem geltenden Recht, dass sich für Netzanwendungen erst entwickeln muss. Mit dem Netzwerkdurchsetzungsgesetz, der europaweit gültigen Datenschutzgrundverordnung (DSGVO) und dem europäischen Urheberrecht sind erste Grundpfeiler eingeschlagen, um das vermeintlich „rechtsfreie“ Internet und Web zu zivilisieren.
  4. Statt permanenter Datenmaximierung nach der Logik der IT-Konzerne müssen Datenschutz, Datenvermeidung und Datenreduktion zu den obersten Geboten der neuen Datenwirtschaft werden. Eine zentrale Rechtsgrundlage muss die verpflichtende und vollständige Transparenz der eingesetzten Algorithmen werden. (Gigerenzer 2018) Dazu zählen als weitere Prämissen Datensparsamkeit, Dezentralisierung der technischen Infrastruktur (statt Zentralisierung in Server-Farmen), freier Zugriff der Nutzer auf ihre und generelle Löschpflicht für alle nicht mehr benötigten Daten.
  5. Personenbezogene Daten dürfen nur mit ausdrücklichen Genehmigung der Nutzer genutzt und kommerzialisiert werden. Die Nutzer müssen an den mit diesen Daten generierten Umsätzen beteiligt werden. Daten schutzbefohlener Minderjähriger (Kinder, Jugendliche) dürfen weder für die Profilierung noch zur Kommerzialisierung genutzt werden. Gleiches gilt für Gesundheitsdaten, die ausschließlich für wissenschaftliche Zwecke in klar definierten Umgebungen und für konkrete Forschungsfragen genutzt werden dürfen.
  6. Digitaltechnik in Schulen wird nur lokal (Intranet, Edge Computing) zur Unterstützung der Lehrenden beim Unterrichten in den Präsenzlehrphasen und für Lernende bei Gruppenarbeiten bzw. in Selbstlernphasen eingesetzt. Dabei werden weder Schülerdaten gesammelt noch werden Lern- oder Persönlichkeitsprofile erstellt. Keine Daten gehen ins Netz.
  7. Wenn wir das Web weiter nutzen wollen, müssen wir IT neu denken. Aus dem Versprechen eines freien Netzes und hierarchiefreier Kommunikation ist ein Überwachungs- und Konsuminstrument zum Nutzen weniger IT-Konzerne und staatlicher Überwachungsorgane geworden. Das kommerzielle Netz wird von Fake News, Spam und Gewalt dominiert. Die Utopie eines unreguliertes Netzes in eigener Verantwortung der Nutzer hat sich als nicht tragfähig erwiesen. Arbeiten wir an einer tragfähigen Alternative auf rechts­staatlicher Basis.
  8. Eine freie und reflektierende Gesellschaft weiß, dass Daten immer nur der Ausgangspunkt und die Grundlage für Diskussionen und Entscheidungen sein können, alleine aber nicht aussagekräftig sind. Daher muss die Daten- wie die Digitalgläubigkeit aufgebrochen, der interpersonale Diskurs und die Kontoverse wieder in ihr Entscheidungsrecht eingesetzt werden. Denn wer datengläubig Maschinen entscheiden lässt, was Menschen tun oder lernen oder wünschen sollen, zerstört die Autonomie des Menschen und seine Handlungsfreiheit zugunsten eines algorithmisch berechneten Regimes autoritärer technischer Systeme.
  9. Technologische Systeme zur automatisierten (algorithmisch berechneten) Verhaltensmanipulation verstoßen gegen die Würde des Menschen, seine Grundrechte und Selbstbestimmung. Sie sind in demokratischen und humanen Rechtsstaaten untersagt.

Literatur und Quellen

  • Armbruster, Alexander (2019) Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin Sabine Bendiek, FAZ v. 01.04.2019; https://www.faz.net/aktuell/wirtschaft/diginomics/microsoft-deutschland-chefin-sabine-bendiek-im-interview-16117321.html (6.4.2019)
  • Armbruster, Alexander (2018) Was kann das Computergehirn? Manuela Lenzen erklärt die Wege Künstlicher Intelligenz, FAZ vom 6.4.2018, S. 10
  • Fogg, B.J. (2003) Persuasive Technology: Using Computers to Change What We Think and Do. San Francisco: Morgan Kaufmann.
  • Gigerenzer, Gerd; Rebitschek, Felix G.; Wagner, Gert G. (2018) Eine vermessene Gesellschaft braucht Transparenz, in: Wirtschaftsdienst 2018/12, S. 860-868; DOI: 10.1007/s10273-018-2378-4
  • Harari, Yuval Noah (2017) Homo Deus, München: C.H. Beck
  • Lankau, Ralf (2017) Kein Mensch lernt digital. Weinheim: Beltz
  • Spiekermann, Sarah (2018) Big Data Illusion, FAZ v. 25.4.2018, S. 13; . http://www.faz.net/aktuell/feuilleton/debatten/was-die-konzerne-mit-unsere-daten-machen-15558098.html (06.04.2019)
  • Steinlechner, Peter (2019) Probleminhalte: Management von Youtube soll Hassvideos ignoriert haben, Golem, 3.4.2019, https://www.golem.de/news/probleminhalte-management-von-youtube-soll-hassvideos-ignoriert-haben-1904-140438.html (7.4.2019)
  • Zuboff, Shoshana (2018) Das Zeitalter des Überwachungskapitalismus, Frankfurt: Campus
* Persuasive Technologies („überzeugende“ Technologien) verändern mit Hilfe von Computertechnologie die Einstellungen und das Verhalten von Personen. Werden persuasive Technologien zu Werbezwecken genutzt, spricht man von „persuasive advertising“.

Der Beitrag als PDF:
Autonomie des Menschen vs. autonome Systeme (2019)