Rassistische Tendenzen

28. Juni 2020 20:42; Akt: 28.06.2020 20:45 Print

Das Problem mit der Gesichtserkennung

In den USA wurde ein Dunkelhäutiger fälschlicherweise verhaftet, weil eine künstliche Intelligenz sein Gesicht zu erkennen glaubte.

Bildstrecke im Grossformat »

Zum Thema
Fehler gesehen?

Anfang der Woche wurde in den USA ein Mann fälschlicherweise verhaftet, weil ein Gesichtserkennungs-Tool ihn erkannt zu haben glaubte, berichtet CNN. Der Mann mit Namen Robert Williams war gerade dabei, sein Auto vor seinem Haus zu parken, als er plötzlich von Polizisten umzingelt wurde. Vor den Augen seiner Frau und Kinder wurde er verhaftet und musste daraufhin 30 Stunden in Untersuchungshaft verbringen.

Laut der Polizei war der Dunkelhäutige von einer Software identifiziert worden, die nach einem Mann suchte, der zuvor mehrere Uhren aus einem lokalen Geschäft gestohlen hatte. Die künstliche Intelligenz hatte die Behörden zu Williams geführt. Nach mehreren Stunden der Befragung stellte sich aber heraus, dass es sich bei seiner Verhaftung nur um einen Irrtum handeln konnte, und Williams wurde aus der Untersuchungshaft entlassen. «Ich hätte niemals geglaubt, dass ich meinen Töchtern einmal erklären muss, wieso Daddy verhaftet worden ist», schrieb Williams später in der «Washington Post». «Wie erklärt man zwei kleinen Mädchen, dass ein Computer einen Fehler gemacht hat und die Polizei auf ihn gehört hat?»

Rassistische Tendenzen

Williams hat sich innerhalb nur weniger Tage zu einer Ikone gegen Gesichtserkennungs-Tools entwickelt. Sein Fall hat der sowieso anhaltenden Diskussion um die umstrittene Technologie nochmals Aufschwung gegeben. Bereits Anfang Monat hatte Amazon angekündigt, ein Jahr lang den Verkauf ihrer Gesichtserkennungs-Software «Rekognition» einzustellen. Auch Microsoft hatte angekündigt, ihre Technologie nicht mehr an die Polizei weiterzuverkaufen, und IBM hat einen grundsätzlichen Stopp angeordnet, was Gesichtserkennungs-Tools angeht.

All dies ist im Zuge der Demonstrationen und Aufstände im Namen der «Black Lives Matter»-Bewegung geschehen. Denn Studien zeigen, dass Technologien wie jene, die zur falschen Identifizierung von Williams geführt hat, oft fehlerhaft sind und rassistische Tendenzen zeigen. So kommt es laut dem MIT bei dunkelhäutigen und asiatischen Gesichtern häufiger zu Fehl-Identifikationen oder gar Nicht-Erkennung der Gesichter. Laut der Studie fällt es solchen Softwares am schwersten, dunkelhäutige Frauen korrekt zu identifizieren, dicht gefolgt von afroamerikanischen Männern.

Gesicht nicht erkannt

Der Grund dafür ist in den Wissenschaftlern, die die Tools programmiert haben, zu finden, erklärt MIT-Wissenschafterin Joy Buolamwini gegenüber «The Guardian». Solche Gesichtserkennungs-Software werde häufig von weißen Entwicklern geschrieben, sagt sie. Außerdem lerne die künstliche Intelligenz, Gesichter zu erkennen, indem sie Tausende und Millionen von Gesichtern vorgespielt bekommt, die sie mit der Zeit zu erkennen lernt. Häufig handelt es sich dabei aber um einen Datensatz, der aus vorwiegend weißen Gesichtern besteht. Daher falle es der Software anschließend schwerer, dunkelhäutige Gesichter zu erkennen.

Die Software werde von weißen Wissenschaftlern unbewusst darauf trainiert, Gesichtszüge und -Merkmale zu erkennen, die vor allem in weißen Gesichtern dominant sind. Die Merkmale dunkelhäutiger Gesichter verwirren die künstlichen Intelligenzen daher häufiger.

Buolamwini musste dies am eigenen Leib erfahren. Als sie während eines Experiments versuchte, mit einem Roboter zu interagieren, der ihr Gesicht hätte erkennen sollen, gelang dies nicht. Die Software konnte nicht einmal ausmachen, dass überhaupt ein Gesicht vor ihr stand. Erst, als die Wissenschaftlerin eine Maske anzog, die ein weißes Gesicht zeigte, erkannte sie die Software.

«Wie biologische Waffen»

Der Fall von Robert Williams illustriert die Problematik der Gesichtserkennungs-Technologie gut. Denn nur ein Blick der Polizisten auf das Fahndungsfoto verglichen mit Williams zeigte ihnen, dass es sich um zwei verschiedene Menschen handelte. «Ich hielt das Foto des Räubers neben mein Gesicht und sagte den Polizisten: Ich hoffe sehr, dass ihr nicht glaubt, dass alle Schwarzen gleich aussehen. Daraufhin schauten sie sich gegenseitig an und sagten: Dem Computer muss ein Fehler unterlaufen sein.» Zu diesem Zeitpunkt befand sich Williams bereits 18 Stunden lang in Haft.

Um solche Fälle künftig zu verhindern, hat die demokratische Partei in den USA am Donnerstag einen Gesetzesentwurf eingereicht, der es Gesetzeshütern verbieten soll, Gesichtserkennungs-Tools zur Verurteilung von mutmaßlichen Tätern zu benutzen. Außerdem soll es für die Behörden viel schwieriger werden, solche Software für Fahndungszwecke einzusetzen.

«Gesichtserkennungs-Tools sind nicht nur eine Gefahr für unsere Privatsphäre, sondern stellen auch eine physische Bedrohung für dunkelhäutige Amerikaner dar», sagte Senator Ed Markey zu «The Verge». Dem stimmt auch Evan Greer, stellvertretender Direktor der der NGO «Fight for the Future», zu: «Gesichtserkennungs-Tools sind wie nukleare oder biologische Waffen. Sie stellen eine Gefahr für die Zukunft der menschlichen Gesellschaft dar, deren Potenzial vom Schaden, den sie anrichten können, aufgehoben wird.»

(L'essentiel/Dominique Zeier)

Fragen und Antworten rund um die Kommentar-Funktion
«Warum dauert es manchmal so lange, bis mein Kommentar sichtbar wird?»

Unsere Leser kommentieren fleißig – Tag für Tag gehen Hunderte Meinungen zu allen möglichen Themen ein. Da die Verantwortung für alle Inhalte auf der Website bei der Redaktion liegt, werden die Beiträge vorab gesichtet. Das dauert manchmal eben einige Zeit.

«Warum wurde mein Kommentar gelöscht?»

Womöglich wurde der Beitrag in einer Fremdsprache verfasst. Wir geben nur Kommentare in den Landessprachen Luxemburgisch, Deutsch und Französisch frei. Beiträge, die Beleidigungen, Verleumdungen oder Diffamierungen enthalten, werden sofort gelöscht. Auch Kommentare, die aufgrund mangelnder Orthografie quasi unlesbar oder in Versalien geschrieben sind, werden das Licht der Öffentlichkeit nie erblicken.

«Habe ich ein Recht darauf, dass meine Kommentare freigeschaltet werden?»

«L'essentiel» ist nicht dazu verpflichtet, eingehende Kommentare zu veröffentlichen. Ebenso haben die kommentierenden Leser keinen Anspruch darauf, dass ihre verfassten Beiträge auf der Seite erscheinen.

Haben Sie allgemeine Fragen zur Kommentarfunktion?

Schreiben Sie an feedback@lessentiel.lu
Hinweis: Wir beantworten keine Fragen, die sich auf einzelne Kommentare beziehen.