Angesichts der zunehmenden Verschränkung menschlichen Handelns mit Technologien, der fortschreitenden Vermessung der Welt und Erfassung des Alltäglichen mittels Daten dringen Algorithmen als sinnstiftende Werkzeuge verstärkt in unsere alltägliche Lebenswirklichkeit ein (Stalder 2016: 2). Unter dem Mythos von Effizienz und Neutralität bedingen sie das gegenwärtige Wahrnehmen und Erfahren, indem sie Informationen, abseits menschlicher Wahrnehmung, sortieren und klassifizieren. Insbesondere maschinell lernende Algorithmen benutzen gesammelte Daten, um nach dem Prinzip der Prognose zukünftiges Verhalten zu kalkulieren (Cardon 2017: 147).
Im Zuge fortschreitender Automatisierung übernehmen Algorithmen unter dem Stichwort algorithmic decision making (Vieth/Wagner 2017: 7) zunehmend menschliche Entscheidungen und wirken beispielsweise bei Gerichtsprozessen oder der Vergabe von Krediten mit. Indem maschinelle Lernsysteme auf Grundlage von Vergangenem zukünftiges Verhalten prognostizieren, konservieren sie normative Ungleichverhältnisse und schreiben soziale, gesellschaftliche und wirtschaftliche Teilhabechancen fest (ebd.). An dieser Stelle muss eine ästhetische Bildung mit und über Algorithmen im Hinblick auf soziale Gerechtigkeit anknüpfen und die sozialen Ungleichverhältnisse sowie algorithmisch induzierten Weltwerdungsprozesse in den Blick nehmen.
A1 Aufwärmen: Was ist KI? [ca. 10 Min]
Diskutiert in der Gruppe die folgenden Fragen:
A2 Theoretischer Input [18-23 Min]
Jetzt ist es an der Zeit, tiefer in die Materie einzutauchen…
Seht euch den folgenden Clip an: Computer Scientist Explains Machine Learning in 5 Levels of Difficulty .
A3 Hands on: Katzen und Hunde sortieren [50 Min]
Jetzt seid ihr an der Reihe, eine KI zu trainieren und zu testen! Wird die KI lernen können, eine Katze von einem Hund zu unterscheiden?
Die Kursleitung beendet die Trainings- und Testphase und geht weiter, um über die gemeinsamen Lernerfahrungen der Gruppen zu reflektieren („Wir haben gerade eine Menge gemacht! Jetzt ist es wichtig, dass wir über unsere Experimente nachdenken und unsere Ergebnisse und Schlussfolgerungen zusammenfassen!“).
A4 Von Katzen bis zur Politik: Maschinelles Lernen in der Gesellschaft [70 Min]
Es ist Zeit für das Meta-Bild: Stellt euch vor, welche Folgen andere KI-Klassifikatoren haben könnten, die nicht auf Katzen, sondern auf Bilder von Menschen trainiert werden, und wie sie eingesetzt werden könnten. Wo werden solche maschinellen Lernsysteme eingesetzt? Begeben wir uns auf eine Forschungsreise.
Es gibt verschiedene Optionen/Mediendienste, die einen Einblick in die sozialen Folgen des Trainings und des Einsatzes von KI auf eine bestimmte Art und Weise geben. Wählt eine der folgenden Optionen aus, um mehr zu erfahren.
Kommt anschließend mit der ganzen Gruppe zusammen, um den jeweiligen Input vor dem Hintergrund eurer eigenen Erfahrungen mit dem Cat Classifier zu reflektieren und euch dabei von den unten vorgeschlagenen Fragen leiten zu lassen.
Option 1:
„Nun haben wir einen Eindruck davon gewonnen, welches sensible Wissen unsere Gesichter über uns preisgeben können, welche Spuren wir im Netz hinterlassen und wie dieses Wissen unsere Chancen auf gesellschaftliche Teilhabe beeinflusst.“
Die Kursleitung moderiert eine Diskussion über die möglichen Auswirkungen. Die folgenden Fragen können dabei helfen, die bestehenden Machtstrukturen der vorgestellten algorithmischen Werkzeuge zu kontextualisieren.
Wie habt ihr euch bei dem Spiel How normal am I? gefühlt? Was war für euch überraschend, was nicht? Wie kommen die Bewertungen zustande? Wer beurteilt eure Schönheit oder euer Alter? Was ist Voreingenommenheit und wie werden Annahmen sowie normative Ideale über Schönheit oder Geschlecht in maschinelle Lernsysteme eingebaut? Kann KI objektiv sein? In welchen Situationen können diese maschinellen Lernsysteme schädlich sein? Könnt ihr euch Situationen vorstellen, in denen solche Systeme eher nützlich als schädlich sein können?
Option 2:
Die Kursleitung moderiert eine Diskussion über den Inhalt der Videos. Die folgenden Fragen können dabei helfen, die bestehenden Machtstrukturen, die in Gesichtserkennungssoftware eingebaut sind, zu kontextualisieren.
Welche Themen werden in dem Video angesprochen? Was hat euch überrascht? Gab es etwas, das Ihr nicht verstanden habt? Warum werden einige Gruppen von Menschen nicht erkannt/gesehen? Was sind die Folgen, wenn diese Gruppen nicht erkannt/gesehen werden? Was ist algorithmische Voreingenommenheit und wie werden bestehende Ideen und Annahmen in maschinelle Lernsysteme eingebettet? Kann KI objektiv sein?
A5: Didaktische Reserve: KI und Sichtbarkeit (optional) [22 min]
Um das Thema zu vertiefen, gibt es hier einige zusätzliche Angebote, um mehr über KI und ihre sozialen Auswirkungen zu erfahren.
Wenn noch Zeit ist, kann die Lehrperson anbieten, das Kunstprojekt The Human Detector von Iyo Bisseck anzusehen. [2 Min]
Was können die Vor- und Nachteile von Sichtbarkeit sein? Welche Situationen gibt es, in denen ihr lieber unsichtbar als sichtbar sein würdet? Wer profitiert von den ungleichen Bedingungen der Sichtbarkeit?
A0: An die Workshop-Leitung
An die Workshop-Leitung: Herzlich willkommen! Wenn Sie sich dafür interessieren, wie Algorithmen Informationen jenseits der menschlichen Wahrnehmung sortieren und klassifizieren und zunehmend Entscheidungen über die Teilhabe der Menschen und ihre Chancen in der Gesellschaft treffen, beginnen Sie bitte mit den folgenden Schritten.
Wenn Sie möchten, können Sie langsam mit der Aufgabe a) beginnen und sich mit dem Thema vertraut machen. Bitte führen Sie mindestens die Aufgaben b) bis c) durch. Diese bilden die Grundlage für den Workshop.
a) Googeln Sie drei der folgenden Begriffe: Maschinelles Lernen, Diskriminierung, BIPoC, Algorithmus, sozio-technisches System, KI, neuronales Netzwerk, überwachtes maschinelles Lernen, unüberwachtes maschinelles Lernen, AMS-Algorithmus, Gesichtserkennung, Joy Buolamwini. Wenn Sie eine größere Herausforderung brauchen, experimentieren Sie mit anderen Suchmaschinen. Überlegen Sie, welche Informationen Ihnen angezeigt werden und warum (z.B. Wikipedia hat viele Hyperlinks, sodass diese Webseite als eines der ersten Suchergebnisse auftaucht). [mind. 10 Min]
b) Zeichnen Sie eine Mindmap oder machen Sie eine Liste Ihrer persönlichen Wertvorstellungen und Erfahrungen in Bezug auf Situationen, die mit Machtbeziehungen und Technologie zusammenhängen. Zum Beispiel: Warum werden Ihnen bei der Nutzung von Technologien bestimmte Informationen (nicht) gezeigt? Haben Ihnen Technologien jemals den Zugang zu etwas verwehrt? Was könnte der Grund dafür sein? Stellen Sie sich vor, Sie wollen ein System zur Identitätsprüfung passieren und es erkennt nicht, dass Sie ein Mensch sind – welche Folgen hätte dies? Denken Sie auch über die Machtdynamiken/-beziehungen nach, die zwischen Ihnen und Ihren Schüler*innen bestehen, den Hintergrund und die demografische Situation Ihrer Schüler*innen und darüber, wie dies ihre Antworten, Meinungen, Ideen und Diskussionen beeinflussen könnte.
c) Reflektieren Sie kritisch Ihre eigenen Privilegien, Ihre Stellung in der Gesellschaft und wie Ihre Position mit bestimmten Vorteilen/Nachteilen für Sie und andere zusammenhängt. Es ist wichtig, sich der asymmetrischen Machtverhältnisse bewusst zu sein und zu erkennen, wie diese die verschiedenen Realitäten, die wir in dieser Welt erleben, und das situierte Wissen, das wir entwickeln und wiedergeben, formen. Dies bildet die Grundlage für einen intersektionalen Ansatz im Unterricht.
d) Machen Sie sich mit der maschinellen Lernsoftware Cat Classifier Probieren Sie es selbst aus und trainieren Sie Ihre eigene Katzenklappe als Beispiel für Ihre Schüler*innen. Reflektieren Sie den Trainingsprozess. An welchen Stellen des Prozesses sind unbewusste Vorurteile und Annahmen in das System eingeflossen?
Zu A1
Mögliches Intro: „Viele von uns lernen KI-Technologien zuerst durch Science-Fiction-Erzählungen kennen (z.B. A Space Odyssey, I Robot, Ex Machina, The Matrix, Westworld). Sie erzählen eine Geschichte über eine bewusste, starke AGI (künstliche allgemeine Intelligenz), die ihre menschlichen Schöpfer*innen herausfordert. Infolgedessen lenken diese Science-Fiction-Erzählungen davon ab, dass wir erkennen, wo KI bereits heute in der Gesellschaft eingesetzt wird und welche sozialen Folgen dies hat… Ziel dieser Lektion ist es, zu verdeutlichen, dass KI nicht etwas weit Entferntes in der Zukunft ist, sondern schon heute existiert. Die meisten Menschen haben bereits Apps und Tools, die maschinelles Lernen unterstützen, in ihrer Tasche. Zunächst einmal ist es wichtig, über Folgendes nachzudenken: Welches war das letzte KI-Tool, das ihr benutzt habt? Wisst ihr es noch? Wie genau ist die KI in dem von euch genannten Gerät integriert? Kann jemand eine Vermutung anstellen und beschreiben?“
Mögliche Beispiele für KI, die im Alltag zum Einsatz kommt:
Die Beispiele zeigen, dass sich KI bereits heute auf vielfältige Weise manifestiert. KI ist extrem leistungsfähig, weil sie eine Reihe verschiedener Technologien umfasst, die in fast jeden digitalen Bereich integriert werden können – in der Regel mit dem Ziel der Effizienz und Produktivität.
Zu A2
Theoretischer Hintergrund: Dieser Teil soll den Schüler*innen einen Überblick über die technischen Details des maschinellen Lernens geben. Er kann so detailliert sein, wie es die Zeit erlaubt.
Die Workshop-Leitung erklärt das Ziel dieses Workshops: „Wir wollen verstehen, was KI eigentlich ist, wie sie funktioniert und warum sie einen großen Einfluss auf die Gesellschaft hat… Aber zuerst: Was ist KI?“
Die Workshop-Leitung sieht sich mit der Klasse das Video Computer Scientist Explains Machine Learning in 5 Levels of Difficulty an. Da das maschinelle Lernen in dem Video in verschiedenen Schwierigkeitsgraden erklärt wird, kann die Lehrkraft gemeinsam mit der Klasse (und deren spezifischen Vorkenntnissen) entscheiden, wie tief sie in jedes Thema einsteigen möchte. (Hinweis: Wenn es Schüler*innen mit begrenzten Englischkenntnissen gibt, können Sie die Untertitel auf Englisch oder Deutsch einstellen).
Die Schüler*innen können anhand eines der zuvor genannten Beispiele erklären, wie maschinelles Lernen funktioniert. Dabei müssen keine spezifischen technischen Details genannt werden, es geht eher um das allgemeine Verständnis. Mögliche Antwort: „Maschinelle Lernsysteme finden Muster in Daten und leiten daraus Vorhersagen ab. Viele der Vorhersagen beruhen auf Mathematik, insbesondere auf Statistik. Wenn jemand gerne Serien sieht, die als romantische Komödien klassifiziert sind, werden die Netflix-Algorithmen wahrscheinlich mehr romantische Komödien vorschlagen. Wenn ein*e Mitbewohner*in mit einer Vorliebe für gruselige Horrorserien sein*ihr Konto teilt, wird dies höchstwahrscheinlich die zukünftigen Empfehlungen verändern und beeinflussen.“
Mögliche Themen, die besprochen werden können:
Zu A3
In diesem Teil geht es um praktische Erfahrungen mit der KI-Anwendung Cat Classifier, die im Algorithmic Literacy Lab* entwickelt wurde. Sie verwendet ml5.js, eine moralische Computing- und Open-Source-Softwarebibliothek, die sofortigen Zugang zum Erstellen und Erforschen von maschinellem Lernen im Browser bietet, um ein breiteres öffentliches Verständnis von maschinellem Lernen zu fördern.
Vor dem Workshop:
Während des Workshops:
Trainieren: „Trainiert die Katzenklappe: Wie bringen wir der Katzenklappe bei, zwischen Katzen und Hunden zu unterscheiden? Wir müssen den maschinellen Lernalgorithmus mit beschrifteten Bildern trainieren.“ Die Schritt-für-Schritt-Anleitung finden Sie auch in der webbasierten Anwendung Cat Classifier. „Jedes Mal, wenn ihr den Button drückt, erzeugt ihr ein neues Bild für die Trainingsdaten, aus denen das KI-Programm lernen kann! Habt ihr genug Trainingsdaten erzeugt? Dann könnt ihr jetzt die Katzenklappe trainieren. Ihr müsst nur auf den Trainieren-Button drücken.“ (Es werden im Datensatz mindestens 40-50 Trainingsbilder benötigt).
Testen: Nachdem das Training abgeschlossen ist, testet jede Gruppe, ob ihre Katzenklappe (ihre Anwendung) funktioniert, indem sie ein Testbild vor die Kamera hält und auf den Button Test klickt. „Testet die Katzenklappe: Kommen die Katzen rein und bleiben die Hunde draußen?“ Was erkennt der Computer nun? Eine Katze oder einen Hund? Wird sich die Katzenklappe öffnen? Die Workshop-Leitung bittet um einen Überblick über die Ergebnisse der verschiedenen Gruppen (z.B. indem alle Gruppen, die erfolgreich waren, die Hand heben). (Die Workshop-Leitung geht innerhalb der Gruppen umher, um zu prüfen, ob sie Zweifel oder Fragen haben oder eine Anleitung zum Verständnis der Schnittstelle für maschinelles Lernen benötigen).
Mögliche Antworten:
Zu A4
In diesem Teil geht es darum, die mit dem Cat Classifier gemachten Erfahrungen auf Menschen zu übertragen und über die sozialen Folgen im Sinne der sozialen Gerechtigkeit nachzudenken („Okay, Katzen mögen ja ganz unterhaltsam sein, aber diese Art von Werkzeugen kann auch auf eine andere Art und Weise verwendet werden, die sehr schädlich sein kann“). Es gibt mehrere Möglichkeiten, den Teilnehmenden die sozio-technischen Auswirkungen zu veranschaulichen, die maschinelle Lernsysteme verursachen. Sie können wählen, ob Sie den Teilnehmenden (1) ein experimentelles Spiel oder ein (2) Informationsvideo auf Englisch oder Deutsch zeigen.
Option 1: Sie nutzen das Online-Spiel Wie normal bin ich?. Das Spiel hinterfragt die sozialen Normen hinter maschinellen Lernsystemen, die das Privileg weißer cis-Männer verstärken. Die Teilnehmenden erleben, wie ein programmiertes maschinelles Lernsystem ihr Gesicht beurteilt. Diese Erfahrung der Beurteilung kann für die Schüler*innen unangenehm sein, da sie normative Schönheitsstandards reproduziert, eine Schönheits- und Gewichtsbewertung abgibt und das Alter der Teilnehmer*innen errät. Das Spiel sollte nur dann für den Workshop ausgewählt werden, wenn die Workshop-Leitung die Gruppe gut kennt und ein sicherer Raum zur Verfügung gestellt werden kann. Benötigt wird eine Computerkamera. Es werden keine persönlichen Daten erhoben.
Nach dem Spiel können die Teilnehmenden das Spiel vor dem Hintergrund der folgenden Fragen reflektieren:
Um die Gespräche über das Spiel zu beginnen, kann die Lehrkraft die Think-Pair-Share-Methode anwenden. Sie gibt den Schüler*innen die Möglichkeit, in einem geschützten Raum über ihre Erfahrungen mit dem Spiel zu sprechen. Das bedeutet, dass die Schüler*innen zunächst für sich selbst denken und sich Notizen machen. Danach können sie ihre Gedanken mit ihren Sitznachbar*innen teilen und schließlich mit der ganzen Gruppe darüber sprechen.
Option 2: Hier kann das deutschsprachige Informationsvideo Wie Maschinen diskriminieren – Facial Recognition and the Matrix of Domination oder das englischsprachige Video How I am fighting bias in algorithms gezeigt werden. Folgende Fragen unterstützen die Schüler*innen bei der Reflektion der Videos: Was ist Voreingenommenheit und wie werden Ideen und Annahmen in maschinelle Lernsysteme eingeschrieben? Kann KI objektiv sein? Auf welche Weise spiegeln Technologien die Gesellschaft wider? Welche politische Funktion haben die Algorithmen des maschinellen Lernens?
Mögliche Antworten:
Technologien sind immer (menschen-)gemacht und damit ein Spiegelbild der ihnen eingeschriebenen menschlichen Perspektive. Daraus lassen sich gesellschaftliche Machtverhältnisse ableiten. Wer hat die Macht, die kollektive Wahrnehmung und Erfahrung zu benennen, zu kategorisieren und zu gestalten? Wer wird von den Programmierenden gesehen und auf welche Weise?
Um die Diskussion über das Video zu beginnen, kann die Lehrkraft die Think-Pair-Share-Methode anwenden. Sie gibt den Schüler*innen die Möglichkeit, in einem geschützten Raum über ihre Erfahrungen mit dem Spiel zu sprechen.
Zu A5
Falls noch Zeit ist, können die Teilnehmenden das Kunstprojekt The Human Detector von Iyo Bisseck ansehen und diskutieren, Länge: 2 Min.
Iyo Bisseck arbeitete mit einer Gesichtserkennungssoftware, die Schwierigkeiten hatte, sie und damit ihre Menschlichkeit zu erkennen. In ihrem interaktiven Kunstprojekt dreht Iyo den Spieß um: Das Ziel ist es, nicht von der Maschine entdeckt zu werden. Dem liegt ein differenziertes, machtsensibles Verständnis von Sichtbarkeit zugrunde, das nicht auf einer gegensätzlichen Aufwertung von Sichtbarkeit und Abwertung von Unsichtbarkeit beruht. Vielmehr erfordert es Strategien der kalkulierten Sichtbarkeit und der strategischen Unsichtbarkeit. Als Schwarze Person hat Iyo Bisseck nun einen inhärenten Vorteil gegenüber der weißen Dominanzgesellschaft. Das Kunstprojekt kann ein Mittel sein, um Diskriminierung, aber auch Widerstand, Empowerment und Spielfreude entlang der folgenden Fragen zu diskutieren: Was sind mögliche Vor- und Nachteile von Sichtbarkeit in verschiedenen Kontexten? Und für wen (vor dem Hintergrund sozialer Ungleichheiten)? Was sind mögliche Situationen, in denen man lieber unsichtbar sein möchte? Mögliche Antworten: Je sichtbarer Menschen sind, desto mehr Angriffspunkte bieten sie für die Zugangskontrolle (z.B. personalisiertes Marketing, politische Meinungsbildung, Emotions-/Bewegungserfassung). Gleichzeitig ist Sichtbarkeit grundlegend für die Bejahung der eigenen Existenz (z.B. politische Rechte). Nicht alle Menschen sind gleichermaßen sichtbar. Vor dem Hintergrund der Kolonialität werden BIPoC (Black, Indigenous, People of Colour) und ihr kulturelles Erbe noch heute unsichtbar gemacht (siehe A4). Gleichzeitig sind die BIPoC für die Polizei (Racial Profiling) und in den Kriminalitätsstatistiken übermäßig sichtbar. Dies führt zum Beispiel dazu, dass BIPoC mit größerer Wahrscheinlichkeit von prädiktiven Polizeisystemen verhaftet werden.
Theoretischer Teil:
Praktische Übungen:
Reflexionsteil:
Der Leitfaden konzentriert sich auf alltägliche KI, Algorithmen, maschinelles Lernen und Gerechtigkeit. Er enthält anwendungsbezogene Fragen und Antwortfelder, die ausgefüllt werden müssen.
Eine Übung, die dazu einlädt, alles zu tun, um nicht von der KI erkannt zu werden und dabei unsichtbar zu werden.
In diesem Ted Talk erklärt Buolamwini den Mechanismus der Einschreibung von Voreingenommenheit in maschinelle Lernsoftwares.
Auf dieser anwendungsorientierten, experimentellen Website man erfahren, welche Informationen – Schönheitsstandards, Alter, Geschlecht, BMI, Lebenserwartung, Emotionen – unser Gesichtsbild vermutlich verrät und erleben, wie Menschen anhand der Daten in soziale Klassen eingeordnet werden.
Eine einsteigerfreundliche Erklärung des unbeaufsichtigten maschinellen Lernens.
Eine humorvolle Erklärung von Machine-Learning-Algorithmen.
Eine Open-Source-Oberfläche, die darauf abzielt, maschinelles Lernen für ein breites Publikum zugänglich zu machen.
In diesem Interview mit Stephanie Hankey werden institutionelle Möglichkeiten der Bildung und Mobilisierung der Zivilgesellschaft verhandelt: Was müssen junge Menschen über künstliche Intelligenz wissen, um sie verantwortungsvoll zu nutzen und informierte Entscheidungen zu treffen?
In diesem Kurzfilm zeigt Yazdani, wie menschengemachte Gesichtserkennungssysteme Stereotypen und Rassismus reproduzieren und Herrschaftsverhältnisse aufrechterhalten, automatisieren und manchmal verstärken.