Die Vision API von Google Cloud bietet Entwicklern leistungsstarke, vorab trainierte Modelle für das maschinelles Lernen an. Damit kann man Bildern, also z.B. Gesichtern oder Objekten, sogenannte “Labels” zuweisen und diese Bilder vordefinierten Kategorien zuordnen. Google wagt hierbei einen mutigen Schritt, der wohl nicht jedem Entwickler gefallen wird. Die Vision API wird den Bildern in Zukunft keine Geschlechtsbezeichnungen mehr hinzufügen.
Anstatt “Mann” oder “Frau” zur Identifizierung von Bildern zu verwenden, wird Google diese Bilder in Zukunft mit der Bezeichnung “Person” versehen. Dies ist Teil der verstärken Bemühungen des Silicon Valley Giganten, KI-Algorithmen nicht mit menschlichen Vorurteilen zu behaften. Denn das Geschlecht einer Person kann nicht nur anhand ihres Aussehens auf einem Foto bestimmt werden.

In der E-Mail an die Entwickler im Februar 2020, in der die Änderung angekündigt wurde, zitierte Google aus seinen eigenen KI-Richtlinien.
“Da das Geschlecht einer Person nicht anhand des Aussehens abgeleitet werden kann, haben wir beschlossen, diese Kennzeichnungen zu entfernen, um den Grundsätzen der künstlichen Intelligenz bei Google zu entsprechen, insbesondere Grundsatz Nr. 2: Avoid creating or reinforcing unfair bias”.
Voreingenommene Künstliche Intelligenz
Schon 2017 bemerkte der Informatik-Professor Vicente Ordóñez (University of Washington) Unregelmäßigkeiten und Verzerrungen in den KI Bilderkennungs-Tools mit denen er und sein Team arbeiteten. Sein Forschungsteam testete zwei große Sammlungen von “gelabelten” Fotos, die für das “Training” von Bilderkennungs-Software verwendet werden. Die Ergebnisse waren ernüchternd. Zwei prominente Research Image Collections – darunter eine von Microsoft und eine von Facebook – weisen bei der Darstellung von Aktivitäten wie Kochen und Sport eine vorhersehbare geschlechtsspezifische Voreingenommenheit auf. Bilder vom Einkaufen, Kochen und Waschen werden zum Beispiel mit Frauen in Verbindung gebracht, während Coaching und Schießen mit Männern in Verbindung gebracht werden.
“Löffel” ist für “Frau” wie “Tennisschläger” für “Mann”.
Verzerrung in den Datensätzen
Das heißt, Maschinelle Lernsoftware, die mit oben genannten Datensätzen trainiert wird, spiegelt die Verzerrungen nicht nur wider, sondern verstärkt sie auch noch. Wenn ein – von Entwicklern vielfach verwendeter – Foto-Datensatz Frauen generell mit Kochen in Verbindung bringt, schafft eine KI-Software, die durch das Studium dieser Fotos trainiert wird, eine noch stärkere Assoziation. Um diese Ungleichheit auszumerzen, muss die KI-Lernsoftware dazu gezwungen werden, zu reflektieren. Dazu müssen Forscher jedoch zunächst nach Verzerrungen suchen und angeben, was zu korrigieren wäre. Keine leichte und vor allem sehr zeitintensive Aufgabe.
“Dies könnte bestehende soziale Verzerrungen nicht nur verstärken, sondern sogar verschlimmern” – Mark Yatskar, Forscher am Allen-Institut für künstliche Intelligenz
Die KI als sexistisches und rassistisches Monster?
Yatskar, der während seiner Zeit an der Universität von Washington mit Ordóñez und anderen an dem Projekt gearbeitet hat, warnt davor, dass sich die KI in ein sexistisches oder rassistisches Monster verwandeln könnte.
Er beschreibt einen zukünftigen Haushalts-Roboter, der mit geschlechtsspezifischen Vorurteilen trainiert wurde. Wenn er keinen klaren Befehl bekommt, bietet er dem Mann in der Küche ein Bier an und hilft der Frau beim Abwasch.
Bilderkennung als heikles Thema
Die KI-Bilderkennung war und ist immer wieder ein heikles Thema und hat für den einen oder anderen PR-Gau gesorgt. Im Juni 2015 stellte ein Software-Ingenieur z.B. fest, dass die Bilderkennungs-Algorithmen von Google Photos seine schwarzen Freunde als “Gorillas” einstuften.
Da hochentwickelte maschinelle Lernprogramme immer mehr Verbreitung finden, wird es zunehmend wichtiger, den Bias in den Datensätzen zu beseitigen. Nur so kann das Problem der geschlechtsspezifischen Verzerrung in künstlichen neuronalen Netzwerken gelöst werden.