Algorithmen sind in nahezu jeder Lebenslage zum Alltag geworden. Die dadurch automatisierten Bewertungen sind allerdings alles andere als fehlerfrei, sodass es bereits öfters zu diskriminierenden Algorithmen kam. Ein ernst zu nehmendes Problem, für das es jedoch Lösungen gibt.
Diskriminierende Algorithmen sind selbst für die größten Tech-Giganten zu einem massiven Problem geworden. Neben dem diskriminierenden Bewerbungsalgorithmus von Amazon und dem rassistischen Gerichtssystem COMPAS zählen die großen Sprachmodelle von Google zu den bekanntesten Fällen. Timnit Gebru, anerkannte KI-Ethik-Forscherin, hat während ihrer Anstellung bei Google ein Paper über diese Missstände der riesigen Sprachmodelle verfasst, das folgende diskriminierende Faktoren aufdeckte:
- Bedarf an massiven Trainingsdaten aus dem Internet, die auch diskriminierende Inhalte inkludieren
- Dominierende Repräsentanz von reicheren Bevölkerungsgruppen, die regelmäßig Zugang zum Internet haben
- Gefahren der Manipulationen aufgrund der Perfektion von Sprachmodellen wie z. B. die Generierung von Fake News während eines Wahlkampfes.
Die Reaktion von Google folgte prompt. Jedoch nicht in einer Lösungsfindung im Sinne neutraler Sprachmodelle, sondern in der Entlassung von Timnit Gebru.
Doch wie kommt es generell zu solchen diskriminierenden Algorithmen?
Drei Hauptgründe für einen diskriminierenden Algorithmus:
1. Die Qualität des Datensatzes:
Dieser ist oftmals unvollständig oder verzerrt, da beispielsweise Minderheitengruppen weniger vertreten sind oder es sich um veraltete Daten aus einer minder liberalen Zeit handelt. Das führt dazu, dass die KI mit diskriminierenden Daten trainiert wird und infolge auch diskriminierende Entscheidungen trifft.
2. Die Fehlerquelle Mensch
Der Algorithmus wird immer von einem Menschen programmiert, der von Natur aus voreingenommen ist. Auf diese Weise nimmt der Algorithmus automatisch die Sichtweisen und Vorurteile der Programmierer:innen an. Meistens geschieht dies unbewusst, da innerhalb der Entwickler:innen kaum Diversität besteht.
3. Das Pionierstreben
Durch das Pionierstreben von Tech-Unternehmen steht ein „going-live“ meistens an oberster Stelle. Die Folge ist, dass zu wenig Zeit für Testphasen und Peer-Reviews einberechnet wird, sodass es selten zu einer Bereinigung der diskriminierenden Algorithmen kommt.
Lösungswege, um einen diskriminierenden Algorithmus zu verhindern
– Erweiterung Entscheidungsträger:innen:
Personen, welche die zukünftige KI-Lösung einsetzen, sollten von Beginn an in die Entwicklung miteinbezogen werden. Auf diese Weise können sehr früh Analysen durchgeführt werden, um etwaige Vorurteile im Algorithmus aufzudecken.
– Bias-Bewertung:
Während oder nach Abschluss des Entwicklungsprozesses kann anhand von verschiedenen Kennzahlen geprüft werden, ob ein Algorithmus in Bezug auf sensible Attribute wie Geschlecht oder Hautfarbe diskriminierende Entscheidungen trifft. Folgende Kennzahlen sind hierfür üblich:
Disparate Impact Ration (DIR): Ermittelt das Verhältnis der Wahrscheinlichkeit, mit der ein Algorithmus eine Klasse bevorzugen könnte z. B. eine mögliche Bevorzugung von Amerikaner:innen gegenüber Asiat:innen innerhalb eines Bewerbungsprozesses. Sobald der Wert außerhalb des Bereiches 0,8 bis 1,2 liegt, gilt der Algorithmus als verzerrt.
Equalised odds ratio (EO): Mit dieser Kennzahl wird geprüft, ob ein Algorithmus tatsächlich eine ausgeglichene Entscheidung trifft und damit keine Klasse bevorzugt. Dies wäre beispielsweise der Fall, wenn er Bewerbungen gleichermaßen von sowohl Amerikaner:innen als auch Asiat:innen annehmen würde.
Average odds difference (AOD): Bewertet die Differenz, ob innerhalb der Klassen eine gleiche Rate an wahr-positiven und falsch-positiven Ergebnissen auftritt z. B. ob das Attribut Y sowohl bei amerikanischen als auch asiatischen Bewerber:innen als Qualifikation beurteilt wird. Der Wert sollte im Idealfall bei Null sein.
– Transparenz:
User:innen sollten stets die Möglichkeit haben, Einsicht in die Daten zu erhalten, um zum einen die darauf basierenden Entscheidungen zu verstehen. Zum anderen fördert eine Einsichtspflicht die Bemühungen für eine laufende Überprüfung möglicher Daten-Verzerrungen.
– Regulierung:
Um Vertrauen in die Algorithmen zu erhalten, kann eine Basis-Regulierung förderlich sein, die vor allem Artikel 21, das Grundrecht auf Nichtdiskriminierung, einhält. Die Regulierung muss jedoch so frei gestaltet werden, dass sie nicht gleichzeitig ein Hindernis für Innovationen darstellt, wie es zum Teil mit dem Datenschutzgesetz der Fall ist.
Parallel zu der Legislatur und internen Prozessen ist es jedoch auch wichtig, Bewusstsein bei jedem einzelnen Menschen zu schaffen. Denn Fakt ist, dass Daten ihren Ursprung immer zuerst in der realen Welt haben und damit jede Person eine gewisse Mitverantwortung bei ihrer Generierung und Nutzung trägt. Aus diesem Grund ist eine Sensibilisierung für eine ethische Weiterentwicklung und einen ethischen Einsatz auf allen Ebenen essenziell.