The Cat Classifier – Hands on Machine Learning Workshop

Als bedeutsame kulturelle Werkzeuge formen Algorithmen zunehmend die Bedingungen, unter denen Menschen teilhaben können. Umso entscheidender wird es für die ästhetische Bildung, sich mit algorithmischen Entscheidungen vor dem Hintergrund von Machtungleichheitsverhältnissen auseinanderzusetzen. Das Ziel der Unterrichtseinheit ist es, einen experimentellen, spielerischen Zugang zu maschinellen Lernsystemen zu ermöglichen, ein Verständnis für ihre Funktionsweise zu entwickeln, ihre Beschränkungen und Fragilität zu erfahren sowie ein kritisches Bewusstsein für die Reproduktion von Bias (Voreingenommenheit) herauszubilden. Dazu wurde die simple KI-Anwendung "Cat Classifier" entwickelt, den die Teilnehmenden darin trainieren können, Katzen zu erkennen. Die Untersuchung von Katzen wirkt zunächst naiv, ermöglicht aber eine kritische Auseinandersetzung mit Machtstrukturen in menschengemachten Systemen.

Angesichts der zunehmenden Verschränkung menschlichen Handelns mit Technologien, der fortschreitenden Vermessung der Welt und Erfassung des Alltäglichen mittels Daten dringen Algorithmen als sinnstiftende Werkzeuge verstärkt in unsere alltägliche Lebenswirklichkeit ein (Stalder 2016: 2). Unter dem Mythos von Effizienz und Neutralität bedingen sie das gegenwärtige Wahrnehmen und Erfahren, indem sie Informationen, abseits menschlicher Wahrnehmung, sortieren und klassifizieren. Insbesondere maschinell lernende Algorithmen benutzen gesammelte Daten, um nach dem Prinzip der Prognose zukünftiges Verhalten zu kalkulieren (Cardon 2017: 147).

Im Zuge fortschreitender Automatisierung übernehmen Algorithmen unter dem Stichwort algorithmic decision making (Vieth/Wagner 2017: 7) zunehmend menschliche Entscheidungen und wirken beispielsweise bei Gerichtsprozessen oder der Vergabe von Krediten mit. Indem maschinelle Lernsysteme auf Grundlage von Vergangenem zukünftiges Verhalten prognostizieren, konservieren sie normative Ungleichverhältnisse und schreiben soziale, gesellschaftliche und wirtschaftliche Teilhabechancen fest (ebd.). An dieser Stelle muss eine ästhetische Bildung mit und über Algorithmen im Hinblick auf soziale Gerechtigkeit anknüpfen und die sozialen Ungleichverhältnisse sowie algorithmisch induzierten Weltwerdungsprozesse in den Blick nehmen.

A1 Aufwärmen: Was ist KI? [ca. 10 Min]
Diskutiert in der Gruppe die folgenden Fragen:

  • Welches war das letzte KI-Tool, das ihr benutzt habt? Können ihr euch erinnern? [5 Min]
  • Wie genau ist KI in dem von euch verwendeten Tool integriert? Kann jemand es erraten und beschreiben? [5 Min]

A2 Theoretischer Input [18-23 Min]
Jetzt ist es an der Zeit, tiefer in die Materie einzutauchen…

Seht euch den folgenden Clip an: Computer Scientist Explains Machine Learning in 5 Levels of Difficulty .

  • Macht euch Notizen über das Grundprinzip des maschinellen [10-15 Min]
  • Was sind die Grundprinzipien des maschinellen Lernens? Vielleicht könnt ihr eines der zuvor erwähnten Beispiele verwenden. Es ist nicht notwendig, hier auf spezifische technische Details einzugehen; wichtiger ist es, ein allgemeines Verständnis des maschinellen Lernens zu erlangen. [8 Min]

A3 Hands on: Katzen und Hunde sortieren [50 Min]
Jetzt seid ihr an der Reihe, eine KI zu trainieren und zu testen! Wird die KI lernen können, eine Katze von einem Hund zu unterscheiden?

  • Öffnet den Cat Classifier mit dem Google Chrome Browser. Erlaubt den Kamerazugriff. [5 Min]
  • Nun ist es an der Zeit, den Cat Classifier zu trainieren. Sucht auf eurem Handy nach Bildern von Katzen und Hunden und haltet sie vor die Kamera. Jedes Mal, wenn ihr die Taste drückt, erzeugt ihr ein neues Bild für die Trainingsdaten, aus denen das KI-Programm lernen kann! Gebt ihnen die richtige Bezeichnung, indem ihr auf die entsprechende Taste in der Webapp Cat Classifier (Wichtig: Achtet darauf, dass ihr nur das Bild der Katze oder des Hundes aufnehmt, nicht aber das Telefon selbst, eure Hand oder Umgebung. Was würde sonst passieren, wenn diese zusätzlichen Elemente in den Trainingsdaten vorhanden wären?) [15 Min]
  • Macht das so lange, bis ihr genügend Bilder in eurem Trainingsdatensatz habt. Drückt dann die Taste train, um mit dem Training eures Katzenklassifikators zu beginnen. Wie viele Bilder reichen aus, damit die Anwendung mit dem Training beginnen kann?
  • Testet den Cat Classifier mit einem beliebigen Bild einer Katze oder eines Hundes. Was „sieht“ und erkennt das System? [5 Min]
  • Tauscht euer digitales Gerät mit einer anderen Gruppe aus, um den Katzenklassifikator erneut zu testen. Funktioniert es immer noch? [5 Min]

Die Kursleitung beendet die Trainings- und Testphase und geht weiter, um über die gemeinsamen Lernerfahrungen der Gruppen zu reflektieren („Wir haben gerade eine Menge gemacht! Jetzt ist es wichtig, dass wir über unsere Experimente nachdenken und unsere Ergebnisse und Schlussfolgerungen zusammenfassen!“).

  • Bereitet euer Arbeitsblatt vor. Es handelt sich dabei um eine Methode, um als Team zusammenzuarbeiten. Teilt ein Blatt Papier entsprechend den unten abgebildeten Bereichen des Arbeitsblatts auf. Schreibt eine Zahl in jede der vier äußeren Ecken. Die Zahlen stehen für die vier Fragen. [20 Min]
  • Denken (Denken und Schreiben): Reflektier deine Erfahrungen mit dem Cat Classifier anhand der folgenden Leitfragen und schreib deine Gedanken in jedes Feld. Reden oder Abschreiben ist nicht erlaubt. [5 Min]
  1. Wann hat der Cat Classifier gut funktioniert? Wann nicht?
  2. Was passiert, wenn man ein Bild zeigt, auf dem weder eine Katze noch ein Hund abgebildet ist?
  3. Wenn es nicht funktioniert, was ist ein möglicher Grund dafür? Wie vielfältig ist euer Datensatz? Was fehlt möglicherweise in eurem Datensatz?
  4. Was „sieht“ das maschinelle Lernsystem tatsächlich? Was nicht?
  • Paarbildung (stiller Vergleich): Tauscht eure Antworten/Ideen im Stillen aus, indem ihr das Papier umdreht, sodass ihr die Notizen der anderen Gruppenmitglieder lesen, ergänzen und kommentieren könnt. [5 Min]
  • Teilen (Austausch und Konsensfindung): Diskutiert eure Antworten, findet einen Konsens über gemeinsame Erkenntnisse und schreibt diese in das mittlere Feld des Arbeitsblatts. Schließlich stellt jede Arbeitsgruppe ihre Ergebnisse vor. [10 Min]

A4 Von Katzen bis zur Politik: Maschinelles Lernen in der Gesellschaft [70 Min]
Es ist Zeit für das Meta-Bild: Stellt euch vor, welche Folgen andere KI-Klassifikatoren haben könnten, die nicht auf Katzen, sondern auf Bilder von Menschen trainiert werden, und wie sie eingesetzt werden könnten. Wo werden solche maschinellen Lernsysteme eingesetzt? Begeben wir uns auf eine Forschungsreise.

Es gibt verschiedene Optionen/Mediendienste, die einen Einblick in die sozialen Folgen des Trainings und des Einsatzes von KI auf eine bestimmte Art und Weise geben. Wählt eine der folgenden Optionen aus, um mehr zu erfahren.

Kommt anschließend mit der ganzen Gruppe zusammen, um den jeweiligen Input vor dem Hintergrund eurer eigenen Erfahrungen mit dem Cat Classifier zu reflektieren und euch dabei von den unten vorgeschlagenen Fragen leiten zu lassen.

Option 1:

  • Spielt das Online-Spiel Wie normal bin ich? [10 Min]. Triggerwarnung: Das Spiel beurteilt euch auf der Grundlage eurer Privilegien. Bitte nehmt es nicht zu persönlich.

„Nun haben wir einen Eindruck davon gewonnen, welches sensible Wissen unsere Gesichter über uns preisgeben können, welche Spuren wir im Netz hinterlassen und wie dieses Wissen unsere Chancen auf gesellschaftliche Teilhabe beeinflusst.“

Die Kursleitung moderiert eine Diskussion über die möglichen Auswirkungen. Die folgenden Fragen können dabei helfen, die bestehenden Machtstrukturen der vorgestellten algorithmischen Werkzeuge zu kontextualisieren.

Wie habt ihr euch bei dem Spiel How normal am I? gefühlt? Was war für euch überraschend, was nicht? Wie kommen die Bewertungen zustande? Wer beurteilt eure Schönheit oder euer Alter? Was ist Voreingenommenheit und wie werden Annahmen sowie normative Ideale über Schönheit oder Geschlecht in maschinelle Lernsysteme eingebaut? Kann KI objektiv sein? In welchen Situationen können diese maschinellen Lernsysteme schädlich sein? Könnt ihr euch Situationen vorstellen, in denen solche Systeme eher nützlich als schädlich sein können?

Option 2:

Die Kursleitung moderiert eine Diskussion über den Inhalt der Videos. Die folgenden Fragen können dabei helfen, die bestehenden Machtstrukturen, die in Gesichtserkennungssoftware eingebaut sind, zu kontextualisieren.

Welche Themen werden in dem Video angesprochen? Was hat euch überrascht? Gab es etwas, das Ihr nicht verstanden habt? Warum werden einige Gruppen von Menschen nicht erkannt/gesehen? Was sind die Folgen, wenn diese Gruppen nicht erkannt/gesehen werden? Was ist algorithmische Voreingenommenheit und wie werden bestehende Ideen und Annahmen in maschinelle Lernsysteme eingebettet? Kann KI objektiv sein?

A5: Didaktische Reserve: KI und Sichtbarkeit (optional) [22 min]
Um das Thema zu vertiefen, gibt es hier einige zusätzliche Angebote, um mehr über KI und ihre sozialen Auswirkungen zu erfahren.

Wenn noch Zeit ist, kann die Lehrperson anbieten, das Kunstprojekt The Human Detector von Iyo Bisseck anzusehen. [2 Min]

Was können die Vor- und Nachteile von Sichtbarkeit sein? Welche Situationen gibt es, in denen ihr lieber unsichtbar als sichtbar sein würdet? Wer profitiert von den ungleichen Bedingungen der Sichtbarkeit?

A0: An die Workshop-Leitung
An die Workshop-Leitung: Herzlich willkommen! Wenn Sie sich dafür interessieren, wie Algorithmen Informationen jenseits der menschlichen Wahrnehmung sortieren und klassifizieren und zunehmend Entscheidungen über die Teilhabe der Menschen und ihre Chancen in der Gesellschaft treffen, beginnen Sie bitte mit den folgenden Schritten.

Wenn Sie möchten, können Sie langsam mit der Aufgabe a) beginnen und sich mit dem Thema vertraut machen. Bitte führen Sie mindestens die Aufgaben b) bis c) durch. Diese bilden die Grundlage für den Workshop.

a) Googeln Sie drei der folgenden Begriffe: Maschinelles Lernen, Diskriminierung, BIPoC, Algorithmus, sozio-technisches System, KI, neuronales Netzwerk, überwachtes maschinelles Lernen, unüberwachtes maschinelles Lernen, AMS-Algorithmus, Gesichtserkennung, Joy Buolamwini. Wenn Sie eine größere Herausforderung brauchen, experimentieren Sie mit anderen Suchmaschinen. Überlegen Sie, welche Informationen Ihnen angezeigt werden und warum (z.B. Wikipedia hat viele Hyperlinks, sodass diese Webseite als eines der ersten Suchergebnisse auftaucht). [mind. 10 Min]

b) Zeichnen Sie eine Mindmap oder machen Sie eine Liste Ihrer persönlichen Wertvorstellungen und Erfahrungen in Bezug auf Situationen, die mit Machtbeziehungen und Technologie zusammenhängen. Zum Beispiel: Warum werden Ihnen bei der Nutzung von Technologien bestimmte Informationen (nicht) gezeigt? Haben Ihnen Technologien jemals den Zugang zu etwas verwehrt? Was könnte der Grund dafür sein? Stellen Sie sich vor, Sie wollen ein System zur Identitätsprüfung passieren und es erkennt nicht, dass Sie ein Mensch sind – welche Folgen hätte dies? Denken Sie auch über die Machtdynamiken/-beziehungen nach, die zwischen Ihnen und Ihren Schüler*innen bestehen, den Hintergrund und die demografische Situation Ihrer Schüler*innen und darüber, wie dies ihre Antworten, Meinungen, Ideen und Diskussionen beeinflussen könnte.

c) Reflektieren Sie kritisch Ihre eigenen Privilegien, Ihre Stellung in der Gesellschaft und wie Ihre Position mit bestimmten Vorteilen/Nachteilen für Sie und andere zusammenhängt. Es ist wichtig, sich der asymmetrischen Machtverhältnisse bewusst zu sein und zu erkennen, wie diese die verschiedenen Realitäten, die wir in dieser Welt erleben, und das situierte Wissen, das wir entwickeln und wiedergeben, formen. Dies bildet die Grundlage für einen intersektionalen Ansatz im Unterricht.

d) Machen Sie sich mit der maschinellen Lernsoftware Cat Classifier Probieren Sie es selbst aus und trainieren Sie Ihre eigene Katzenklappe als Beispiel für Ihre Schüler*innen. Reflektieren Sie den Trainingsprozess. An welchen Stellen des Prozesses sind unbewusste Vorurteile und Annahmen in das System eingeflossen?

Zu A1
Mögliches Intro: „Viele von uns lernen KI-Technologien zuerst durch Science-Fiction-Erzählungen kennen (z.B. A Space Odyssey, I Robot, Ex Machina, The Matrix, Westworld). Sie erzählen eine Geschichte über eine bewusste, starke AGI (künstliche allgemeine Intelligenz), die ihre menschlichen Schöpfer*innen herausfordert. Infolgedessen lenken diese Science-Fiction-Erzählungen davon ab, dass wir erkennen, wo KI bereits heute in der Gesellschaft eingesetzt wird und welche sozialen Folgen dies hat… Ziel dieser Lektion ist es, zu verdeutlichen, dass KI nicht etwas weit Entferntes in der Zukunft ist, sondern schon heute existiert. Die meisten Menschen haben bereits Apps und Tools, die maschinelles Lernen unterstützen, in ihrer Tasche. Zunächst einmal ist es wichtig, über Folgendes nachzudenken: Welches war das letzte KI-Tool, das ihr benutzt habt? Wisst ihr es noch? Wie genau ist die KI in dem von euch genannten Gerät integriert? Kann jemand eine Vermutung anstellen und beschreiben?“

Mögliche Beispiele für KI, die im Alltag zum Einsatz kommt:

  • Google Translate, Deepl: Maschinelle Übersetzung ist eine Sprachübersetzung, die von einer Maschine statt von einem Menschen durchgeführt wird.
  • Siri, Alexa, Cortana, Google Home: Konversationssysteme werden von Spracherkennungssystemen unterstützt, die mithilfe von KI erkennen, was erfragt wird.
  • Instagram, Facebook, Google Suchmaschine: Empfehlungssysteme nutzen KI, um Ähnlichkeiten zwischen Dingen (z.B. Produkten, Webseiten, Beiträgen) zu erkennen und dann Empfehlungen auszusprechen, was euch gefallen könnte, basierend auf Dingen, die ihr euch zuvor angesehen oder gekauft habt.
  • Chatbots: Virtuelle Assistenten übernehmen einen Teil der Arbeit von menschlichen Assistent*innen, z. B. die Planung von Besprechungen, die Ermittlung der Antwortzeiten auf E-Mails und das Suchen von Dateien in E-Mail-Postfächern. Chatbots sind ein gängiges Beispiel für virtuelle Assistent*innen.
  • Bild-Tagging: Die Gesichtserkennung kann Personen anhand von digitalen Bildern oder Videomaterial identifizieren.

Die Beispiele zeigen, dass sich KI bereits heute auf vielfältige Weise manifestiert. KI ist extrem leistungsfähig, weil sie eine Reihe verschiedener Technologien umfasst, die in fast jeden digitalen Bereich integriert werden können – in der Regel mit dem Ziel der Effizienz und Produktivität.

Zu A2
Theoretischer Hintergrund: Dieser Teil soll den Schüler*innen einen Überblick über die technischen Details des maschinellen Lernens geben. Er kann so detailliert sein, wie es die Zeit erlaubt.

Die Workshop-Leitung erklärt das Ziel dieses Workshops: „Wir wollen verstehen, was KI eigentlich ist, wie sie funktioniert und warum sie einen großen Einfluss auf die Gesellschaft hat… Aber zuerst: Was ist KI?“

Die Workshop-Leitung sieht sich mit der Klasse das Video Computer Scientist Explains Machine Learning in 5 Levels of Difficulty an. Da das maschinelle Lernen in dem Video in verschiedenen Schwierigkeitsgraden erklärt wird, kann die Lehrkraft gemeinsam mit der Klasse (und deren spezifischen Vorkenntnissen) entscheiden, wie tief sie in jedes Thema einsteigen möchte. (Hinweis: Wenn es Schüler*innen mit begrenzten Englischkenntnissen gibt, können Sie die Untertitel auf Englisch oder Deutsch einstellen).

Die Schüler*innen können anhand eines der zuvor genannten Beispiele erklären, wie maschinelles Lernen funktioniert. Dabei müssen keine spezifischen technischen Details genannt werden, es geht eher um das allgemeine Verständnis. Mögliche Antwort: „Maschinelle Lernsysteme finden Muster in Daten und leiten daraus Vorhersagen ab. Viele der Vorhersagen beruhen auf Mathematik, insbesondere auf Statistik. Wenn jemand gerne Serien sieht, die als romantische Komödien klassifiziert sind, werden die Netflix-Algorithmen wahrscheinlich mehr romantische Komödien vorschlagen. Wenn ein*e Mitbewohner*in mit einer Vorliebe für gruselige Horrorserien sein*ihr Konto teilt, wird dies höchstwahrscheinlich die zukünftigen Empfehlungen verändern und beeinflussen.“

Mögliche Themen, die besprochen werden können:

  • Verschiedene Arten von künstlicher Intelligenz (z.B. maschinelles Lernen/neuronale Netze)
  • Algorithmen und Big Data
  • Überwachtes Lernen/unüberwachtes Lernen, Bezeichnungen

Zu A3
In diesem Teil geht es um praktische Erfahrungen mit der KI-Anwendung Cat Classifier, die im Algorithmic Literacy Lab* entwickelt wurde. Sie verwendet ml5.js, eine moralische Computing- und Open-Source-Softwarebibliothek, die sofortigen Zugang zum Erstellen und Erforschen von maschinellem Lernen im Browser bietet, um ein breiteres öffentliches Verständnis von maschinellem Lernen zu fördern.

Vor dem Workshop:

  • Stellen Sie sicher, dass genügend digitale Geräte für die Schüler*innen vorhanden sind (1 Gerät für 2-4 Personen).
  • Teilen Sie die Hauptgruppe der Schüler*innen in kleinere Gruppen von 2 bis 4 Personen auf (je nachdem, wie viele digitale Geräte zur Verfügung stehen). Jede Gruppe trainiert einen Machine-Learning-Klassifikator, um zwischen Katzen und Hunden (und anderen Dingen) zu unterscheiden. Am Ende kann es sogar einen Wettbewerb geben, um zu sehen, wer sein System am besten trainiert hat.
  • Hier finden Sie den Cat Classifier. Bitte öffnen Sie ihn im Chrome-Browser, um die beste Kompatibilität zu gewährleisten, und erlauben Sie der Anwendung, Ihre die Kamera zu verwenden.
  • Bereiten Sie genügend A2-/A3-Blätter für die Übung mit dem Arbeitsblatt vor (1 Blatt für jede Gruppe von 2-4 Personen).

Während des Workshops:

  • Einleitung: „Jetzt wollen wir den Cat Classifier selbst ausprobieren, indem wir uns folgendes Szenario vorstellen: Ihr habt eine Katze und es kostet euch viel Zeit, die Tür für die Katze zu öffnen, aber ihr wollt auch nicht, dass Hunde reinkommen. Euer Ziel ist es also, ein maschinelles Lernprogramm für eure Katzenklappe zu erstellen, das Katzen erkennt und sie hereinlässt.“

Trainieren: „Trainiert die Katzenklappe: Wie bringen wir der Katzenklappe bei, zwischen Katzen und Hunden zu unterscheiden? Wir müssen den maschinellen Lernalgorithmus mit beschrifteten Bildern trainieren.“ Die Schritt-für-Schritt-Anleitung finden Sie auch in der webbasierten Anwendung Cat Classifier. „Jedes Mal, wenn ihr den Button drückt, erzeugt ihr ein neues Bild für die Trainingsdaten, aus denen das KI-Programm lernen kann! Habt ihr genug Trainingsdaten erzeugt? Dann könnt ihr jetzt die Katzenklappe trainieren. Ihr müsst nur auf den Trainieren-Button drücken.“ (Es werden im Datensatz mindestens 40-50 Trainingsbilder benötigt).

Testen: Nachdem das Training abgeschlossen ist, testet jede Gruppe, ob ihre Katzenklappe (ihre Anwendung) funktioniert, indem sie ein Testbild vor die Kamera hält und auf den Button Test klickt. „Testet die Katzenklappe: Kommen die Katzen rein und bleiben die Hunde draußen?“ Was erkennt der Computer nun? Eine Katze oder einen Hund? Wird sich die Katzenklappe öffnen? Die Workshop-Leitung bittet um einen Überblick über die Ergebnisse der verschiedenen Gruppen (z.B. indem alle Gruppen, die erfolgreich waren, die Hand heben). (Die Workshop-Leitung geht innerhalb der Gruppen umher, um zu prüfen, ob sie Zweifel oder Fragen haben oder eine Anleitung zum Verständnis der Schnittstelle für maschinelles Lernen benötigen).

  • Vergleichen: Die Gruppen tauschen die digitalen Geräte mit ihrem Cat Classifier „Funktioniert eure Katzenklappe auch bei den Katzen und Hunden der anderen Gruppen?“ Die Workshop-Leitung bittet erneut um eine kurze Feedbackrunde (z.B. indem alle Gruppen, die (nicht) erfolgreich sind, die Hand heben).
  • Reflektieren: „Wir haben bereits viele Erfahrungen mit dem Cat Classifier Nun ist es an der Zeit, diese zu reflektieren. Dazu werden wir heute das Arbeitsblatt verwenden. Jede Gruppe bekommt von mir ein Blatt Papier und teilt es in fünf Bereiche ein, so dass jede Frage im äußeren Bereich ihr eigenes Feld hat und in der Mitte ein Feld für die Gruppenergebnisse frei bleibt.“ Die Workshop-Leitung erklärt die Methode des Arbeitsblatts und teilt die Papierbögen aus.
  • Nachdem die Gruppen ihre89 entwickelt haben, versammelt die Workshop-Leitung die gesamte Gruppe wieder und lädt jede Kleingruppe ein, ihre Erfahrungen und Erkenntnisse zu teilen. Ziel dieses Abschnitts ist es, die Grenzen der Technologie, den Bedarf an verschiedenen Trainingsdaten und die Macht der Benennung und Kategorisierung der wahrgenommenen Welt zu verstehen.

Mögliche Antworten:

  • Fehlerquellen: (1) Es gab nicht genügend Beispielbilder. (2) Die Bilder sind nicht vielfältig genug (es gibt viele unterschiedlich aussehende Katzen!). (3) Die Anwendung unterscheidet nicht zwischen den vorgesehenen Kategorien Katze und Hund, sondern wählt zum Beispiel Muster im Hintergrund als zu trennende Merkmale.

Zu A4
In diesem Teil geht es darum, die mit dem Cat Classifier gemachten Erfahrungen auf Menschen zu übertragen und über die sozialen Folgen im Sinne der sozialen Gerechtigkeit nachzudenken („Okay, Katzen mögen ja ganz unterhaltsam sein, aber diese Art von Werkzeugen kann auch auf eine andere Art und Weise verwendet werden, die sehr schädlich sein kann“). Es gibt mehrere Möglichkeiten, den Teilnehmenden die sozio-technischen Auswirkungen zu veranschaulichen, die maschinelle Lernsysteme verursachen. Sie können wählen, ob Sie den Teilnehmenden (1) ein experimentelles Spiel oder ein (2) Informationsvideo auf Englisch oder Deutsch zeigen.

Option 1: Sie nutzen das Online-Spiel Wie normal bin ich?. Das Spiel hinterfragt die sozialen Normen hinter maschinellen Lernsystemen, die das Privileg weißer cis-Männer verstärken. Die Teilnehmenden erleben, wie ein programmiertes maschinelles Lernsystem ihr Gesicht beurteilt. Diese Erfahrung der Beurteilung kann für die Schüler*innen unangenehm sein, da sie normative Schönheitsstandards reproduziert, eine Schönheits- und Gewichtsbewertung abgibt und das Alter der Teilnehmer*innen errät. Das Spiel sollte nur dann für den Workshop ausgewählt werden, wenn die Workshop-Leitung die Gruppe gut kennt und ein sicherer Raum zur Verfügung gestellt werden kann. Benötigt wird eine Computerkamera. Es werden keine persönlichen Daten erhoben.

Nach dem Spiel können die Teilnehmenden das Spiel vor dem Hintergrund der folgenden Fragen reflektieren:

  • Wie habt ihr euch bei dem Spiel gefühlt?
  • Was war für euch überraschend? Was war es nicht?
  • Was ist Voreingenommenheit? Wie werden Ideen und Annahmen über Schönheit oder Geschlecht in maschinelle Lernsysteme eingeschrieben?
  • Kann KI objektiv sein?
  • In welchen Situationen können diese Systeme schädlich sein? Könnt ihr euch Situationen vorstellen, in denen solche Systeme eher nützlich als schädlich sein können?

Um die Gespräche über das Spiel zu beginnen, kann die Lehrkraft die Think-Pair-Share-Methode anwenden. Sie gibt den Schüler*innen die Möglichkeit, in einem geschützten Raum über ihre Erfahrungen mit dem Spiel zu sprechen. Das bedeutet, dass die Schüler*innen zunächst für sich selbst denken und sich Notizen machen. Danach können sie ihre Gedanken mit ihren Sitznachbar*innen teilen und schließlich mit der ganzen Gruppe darüber sprechen.

Option 2: Hier kann das deutschsprachige Informationsvideo Wie Maschinen diskriminieren – Facial Recognition and the Matrix of Domination oder das englischsprachige Video How I am fighting bias in algorithms gezeigt werden. Folgende Fragen unterstützen die Schüler*innen bei der Reflektion der Videos: Was ist Voreingenommenheit und wie werden Ideen und Annahmen in maschinelle Lernsysteme eingeschrieben? Kann KI objektiv sein? Auf welche Weise spiegeln Technologien die Gesellschaft wider? Welche politische Funktion haben die Algorithmen des maschinellen Lernens?

Mögliche Antworten:

  • Es ist unmöglich, alle Teile der Gesellschaft objektiv zu repräsentieren. Das fängt schon bei der Frage an, was eigentlich als wertvoller Teil der Gesellschaft gezählt und als Kategorie zusammengefasst/sichtbar gemacht wird, z.B. Schwarze Menschen, Weiße Menschen, People of Color, … Vor dem Hintergrund der Rassismusideologie bleibt zu hinterfragen, ob Menschen wieder nach äußeren Merkmalen kategorisiert werden können. Nichtsdestotrotz ist es wichtig, dass Technologien für alle Menschen gemacht werden und dass wir über mögliche diskriminierende Mechanismen in der Technik nachdenken.

Technologien sind immer (menschen-)gemacht und damit ein Spiegelbild der ihnen eingeschriebenen menschlichen Perspektive. Daraus lassen sich gesellschaftliche Machtverhältnisse ableiten. Wer hat die Macht, die kollektive Wahrnehmung und Erfahrung zu benennen, zu kategorisieren und zu gestalten? Wer wird von den Programmierenden gesehen und auf welche Weise?

  • Die politische Funktion von Machine-Learning-Algorithmen besteht darin, die Teile der Gesellschaft möglichst effizient zu unterscheiden und zu selektieren, ohne die ungleichen Machtverhältnisse zu kennen.
  • Bei der Vergabe von Krediten oder auch bei gerichtlichen Verurteilungen – beides Bereiche, die zunehmend von KI unterstützt werden – führt dies zu einer enormen Zunahme sozialer Ungerechtigkeit und zu ungleichen Teilhabechancen an der Gesellschaft, sowohl was die politische Gleichberechtigung als auch die Verteilung von Privilegien wie Bildung, Arbeitsmöglichkeiten, Gesundheitsschutz und Selbstverwirklichung betrifft.

Um die Diskussion über das Video zu beginnen, kann die Lehrkraft die Think-Pair-Share-Methode anwenden. Sie gibt den Schüler*innen die Möglichkeit, in einem geschützten Raum über ihre Erfahrungen mit dem Spiel zu sprechen.

Zu A5
Falls noch Zeit ist, können die Teilnehmenden das Kunstprojekt The Human Detector von Iyo Bisseck ansehen und diskutieren, Länge: 2 Min.

Iyo Bisseck arbeitete mit einer Gesichtserkennungssoftware, die Schwierigkeiten hatte, sie und damit ihre Menschlichkeit zu erkennen. In ihrem interaktiven Kunstprojekt dreht Iyo den Spieß um: Das Ziel ist es, nicht von der Maschine entdeckt zu werden. Dem liegt ein differenziertes, machtsensibles Verständnis von Sichtbarkeit zugrunde, das nicht auf einer gegensätzlichen Aufwertung von Sichtbarkeit und Abwertung von Unsichtbarkeit beruht. Vielmehr erfordert es Strategien der kalkulierten Sichtbarkeit und der strategischen Unsichtbarkeit. Als Schwarze Person hat Iyo Bisseck nun einen inhärenten Vorteil gegenüber der weißen Dominanzgesellschaft. Das Kunstprojekt kann ein Mittel sein, um Diskriminierung, aber auch Widerstand, Empowerment und Spielfreude entlang der folgenden Fragen zu diskutieren: Was sind mögliche Vor- und Nachteile von Sichtbarkeit in verschiedenen Kontexten? Und für wen (vor dem Hintergrund sozialer Ungleichheiten)? Was sind mögliche Situationen, in denen man lieber unsichtbar sein möchte? Mögliche Antworten: Je sichtbarer Menschen sind, desto mehr Angriffspunkte bieten sie für die Zugangskontrolle (z.B. personalisiertes Marketing, politische Meinungsbildung, Emotions-/Bewegungserfassung). Gleichzeitig ist Sichtbarkeit grundlegend für die Bejahung der eigenen Existenz (z.B. politische Rechte). Nicht alle Menschen sind gleichermaßen sichtbar. Vor dem Hintergrund der Kolonialität werden BIPoC (Black, Indigenous, People of Colour) und ihr kulturelles Erbe noch heute unsichtbar gemacht (siehe A4). Gleichzeitig sind die BIPoC für die Polizei (Racial Profiling) und in den Kriminalitätsstatistiken übermäßig sichtbar. Dies führt zum Beispiel dazu, dass BIPoC mit größerer Wahrscheinlichkeit von prädiktiven Polizeisystemen verhaftet werden.

Theoretischer Teil:

  • Beamer

Praktische Übungen:

  • Computer (einer pro 4er-Gruppe)
  • Smartphones (eines pro 4er Gruppe)
  • Internet (ml5 Webseite)

Reflexionsteil:

  • A3- oder A2-Papier für das Arbeitsblatt

Literatur

  • Der Leitfaden konzentriert sich auf alltägliche KI, Algorithmen, maschinelles Lernen und Gerechtigkeit. Er enthält anwendungsbezogene Fragen und Antwortfelder, die ausgefüllt werden müssen.

  • Eine Übung, die dazu einlädt, alles zu tun, um nicht von der KI erkannt zu werden und dabei unsichtbar zu werden.

  • In diesem Ted Talk erklärt Buolamwini den Mechanismus der Einschreibung von Voreingenommenheit in maschinelle Lernsoftwares.

  • Auf dieser anwendungsorientierten, experimentellen Website man erfahren, welche Informationen – Schönheitsstandards, Alter, Geschlecht, BMI, Lebenserwartung, Emotionen – unser Gesichtsbild vermutlich verrät und erleben, wie Menschen anhand der Daten in soziale Klassen eingeordnet werden.

  • Eine einsteigerfreundliche Erklärung des unbeaufsichtigten maschinellen Lernens.

  • Eine humorvolle Erklärung von Machine-Learning-Algorithmen.

  • Eine Open-Source-Oberfläche, die darauf abzielt, maschinelles Lernen für ein breites Publikum zugänglich zu machen.

  • In diesem Kurzfilm zeigt Yazdani, wie menschengemachte Gesichtserkennungssysteme Stereotypen und Rassismus reproduzieren und Herrschaftsverhältnisse aufrechterhalten, automatisieren und manchmal verstärken.

  • In diesem Interview mit Stephanie Hankey werden institutionelle Möglichkeiten der Bildung und Mobilisierung der Zivilgesellschaft verhandelt: Was müssen junge Menschen über künstliche Intelligenz wissen, um sie verantwortungsvoll zu nutzen und informierte Entscheidungen zu treffen?

  • Apprich, Clemens; Wendy Hui Kyong Chun; Cramer, Clemens; und Steyerl, Hito(Hg.): Pattern Discrimination. Lüneburg: meson press.
  • Cardon, Dominique (2017): Den Algorithmus dekonstruieren- Vier Typen digitaler Informationsberechnung. In: Robert Seyfert und Jonathan Roberge (Hg.): Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit. Bielefeld: transcript Verlag (Kulturen der Gesellschaft, 26), S. 131–150.
  • Stalder, Felix (2016): Kultur der Digitalität. Berlin: Suhrkamp.
  • Vieth, Kilian; Wagner, Ben: Teilhabe ausgerechnet. Wie algorithmische Prozesse Teilhabechanchen beeinflussen können. Bertelsmann Stiftung.

Max. Teilnehmer

30

Dauer

180 min

Zielgruppen

Schüler*innen, Sek II

Social