Totalitäre Bildung

Von Ingo Leipner

Totale Transparenz, totale Kontrolle über Lernfortschritte – davon träumen Enthusiasten digitaler Bildung. Sie finden im Werkzeug „Learning Analytics“ das perfekte Tool, um ihre Träume zu verwirklichen. Oder sind es eher Alpträume?

Prof. Dr. Dirk Ifenthaler arbeitet an der Mannheimer Universität; eines seiner Forschungsgebiete ist „Learning Analytics“. Für diesen Begriff liefert er eine ansprechende Definition:1„Learning Analytics verwendet dynamisch generierte Daten von Lernenden und Lernumgebungen, um diese in Echtzeit zu analysieren und zu visualisieren, mit dem Ziel der Modellierung und Optimierung von Lehr- Lernprozessen und Lernumgebungen.“

Das hört sich abstrakt und wissenschaftlich an, doch die Konsequenzen sind fatal: Die Lernenden werden so intensiv seziert, dass ein Bild aus dem Computertomographen wie eine kindliche Kleckserei wirkt … Übertrieben? Nein, wie diese wesentlichen Aspekte zu „Learnings Analytics“ zeigen, basierend auf dem Artikel von Ifenthaler: „Learning Analytics“ erfasst, wie lange bestimmte Daten genutzt werden, und wie lange sich einer Lernender in der Lernumgebung aufhält. Auf welchen Pfaden ist er unterwegs, was schreibt er in Beiträgen für Diskussionen, wie ist sein Lernfortschritt – und das auch im Vergleich zu seiner Gruppe! Darauf sollen Interventionen und Prognosen aufbauen. Denn: Alle Daten werden in Bezug gesetzt zu lernpsychologischen Erkenntnissen, „um Lernprozesse und Verhaltensweisen der Nutzer zu verstehen und zu unterstützen. Was für Daten bieten sich an? Sie können einen quantitativen Charakter haben (Nutzungshäufigkeit und -dauer sowie Nutzerpfade), oder sie liegen in qualitativer Form vor, etwa schriftliche Inhalte (Diskussionsbeiträge, Fragen etc.).

Doch damit nicht genug, Ifenthalter zitiert Kollegen, die noch weitergehende Ziele formulieren:

  • „Lernerfolg vorhersagen“
  • „Relevante nächste Lernschritte und Lernmaterialien empfehlen“
  • „Reflektion und Bewusstsein über den Lernprozess fördern“
  • „Soziales Lernen fördern“
  • „Unerwünschtes Lernverhalten und -schwierigkeiten aufspüren“
  • „Aktuellen Gefühlszustand der Lernenden ausfindig machen“

Der Datenhunger wird immer gewaltiger, die Verheißung lautet: „Individuelle dynamische Curricula und Echtzeit-Feedback [werden] möglich. Durch die umfassende Analyse des Lernkontexts können die Bedarfe der Lernenden frühzeitig erkannt und individuell auf sie reagiert werden.“ Aber geben wir nicht gerne eine paar Rechte auf, wenn das Leben dafür kalkulierbarer und bequemer wird? Wie verführerisch diese Logik ist, erläutert Ifenthaler an einem weiteren Beispiel, der Purdue University, USA. Dort wurde das „Course Signals System“ eingerichtet, das u. a. mit demografischen Daten, akademischen Leistungen der Vergangenheit und Informationen aus der Lernplattform arbeitet. Ein Ampelsystem warnt Studierende und Lehrer vor einem drohenden Misserfolg (rot: hohes Risiko; gelb: eventuelles Risiko; grün: hohe Wahrscheinlichkeit zu bestehen). Ifenthaler: „Die empirische Begleitforschung an der Purdue University zeigt, dass mittels dieser einfachen Anwendung signifikant weniger Studierende das Studium abgebrochen haben und bessere akademische Leistungen erzielen.“

Wer will einer solchen Bewertung widersprechen? Wir versuchen es … Dazu stellen wir uns vor, was in einem Menschen vorgeht, der diesem Ampelsystem ausgesetzt ist: Scheinbar objektive Informationen nisten sich im Bewusstsein ein, das eigene Urteil tritt in den Hintergrund. Entscheidungen lassen sich leichter treffen, im Vertrauen auf die exakte Mathematik, die in der Ampel steckt. Die Auseinandersetzung mit eigenen Stärken und Schwächen wird ausgelagert, die Verantwortung für das eigene Leben relativiert der Algorithmus. Auf der Strecke bleibt die Freiheit des einzelnen Menschen, der jetzt endgültig zu dem Schluss kommt: Computer können viel besser entscheiden, als es dem Einzelnen mit seiner begrenzten Rationalität möglich ist. Eine freiwillige Selbstentmündigung! Klar, denn die Menschen haben keine Chance mehr – angesichts eines perfekten Systems: Der stochastische Algorithmus arbeitet ohne Emotionen. Seine Ergebnisse sind mathematisch fundiert, sie lassen sich rational nicht mehr anzweifeln. Wer trotz guter Prognose „versagt“, hat seine Chancen nicht genutzt.

Diese Einschätzung entspricht derselben neoliberalen Denkhaltung, die Scheitern ausschließlich als persönliches Fehlverhalten deutet. Weil die Objektivität von „Learning Analytics“ im Raum steht, wird das Verdammungsurteil noch härter ausfallen. Einen weiteren kritischen Punkt: Als Benchmark droht der stochastische Erfolgsmensch, eine standardisierte Blaupause, an der sich künftig Bildungsbiografien zu orientieren haben. Da bleibt kein Platz für Zufälle, persönliche Begegnungen oder überraschende Erkenntnisse. Alles, was das Leben in seiner Vielfalt ausmacht, gerät ins Räderwerk von „Learning Analytics“. Die Stochastik ist der natürliche Feind kreativer Spontaneität. Dazu gehört auch die Chance des Scheiterns, das Recht, Umwege zu gehen; sowie die Möglichkeit, aus eigenen Erfahrungen sein Leben zu gestalten. Das alles ist bedroht, die menschliche Freiheit wird im Räderwerk der Algorithmen zerrieben.

Fazit: Die Datenmaschine „Learning Analytics“ weist eine erhebliche Sprengkraft auf. Sie besteht in den vielfältigen Wechselbeziehungen, die zwischen Computer und Mensch entstehen. Wer immer die Software programmiert, greift direkt in unser Leben ein. So werden wir weich gebettet und eingelullt, wenn uns Algorithmen Entscheidungen abnehmen. Eine “Big Brother“-Maschine übernimmt das Kommando, wenn wir nicht wachsam bleiben. Leider werden solche Fragen im öffentlichen Diskurs viel zu wenig aufgeworfen – ein Phänomen, das sich gerade in der Debatte um „digitale Bildung“ beobachten lässt. Chancen werden überbetont, ja bis zur Heilslehre verklärt, Schattenseiten aber geschickt ausgeblendet. Marketing statt Diskussion, Hype statt ruhigem Nachdenken. Doch wir müssen lernen, auf einen technischen Fortschritt zu verzichten, der in Wirklichkeit einen Rückschritt bedeuten kann. Ein unbequemer Gedanke, aber notwendig, um die menschliche Autonomie zu retten.

Text als pdf-Dokument, info3, Januar 2021