Voreingenommen

04. April 2019 12:18; Akt: 04.04.2019 12:19 Print

«Künstliche Intelligenzen dürfen uns nicht schaden»

Ob im Gefängnis, bei der Stellenvergabe oder als Nanny – künstliche Intelligenzen erleichtern uns den Alltag. Ihr Einsatz aber bringt auch Probleme.

Zum Thema
Fehler gesehen?

Wenn Netflix einen falschen Film vorschlägt, ist das noch lange kein Weltuntergang. Auch nicht, wenn die Lieblingsschuhe nicht bei den empfohlenen Produkten auf Amazon auftauchen. Wenn es sich aber um einen Algorithmus handelt, der über die Dauer eines Gefängnisaufenthaltes bestimmen soll, kann ein Fehler fatale Folgen haben.

Ein solcher passiert dann, wenn die verantwortliche künstliche Intelligenz (KI) falsche Rückschlüsse aus den Daten zieht und jemanden ins Gefängnis schickt, nur weil die Statistik gegen ihn spricht. Die Risiken fehlerhafter Algorithmen zeigt auch der Fall Amazon: Die damalige KI-gestützte Rekrutierungsmaschine hat Kandidaten für die Stellen als Softwarentwickler nicht genderneutral bewertet – der Bot hat kategorisch Männer bevorzugt und Frauen abgelehnt.

Auch KIs haben Vorurteile

Ein weiteres Beispiel stammt aus der Familienumgebung: Mit Alexa, Siri und Cortana wird in Befehlssprache gesprochen. Kinder, die solche Sprachassistenten noch nicht von Menschen unterscheiden können, adoptieren dieses herrische und teilweise sexistische Verhalten.

Diese Fälle haben einen gemeinsamen Nenner: künstliche Intelligenzen, mit denen etwas nicht stimmt. Denn wie Forscher herausgefunden haben, können auch künstliche Intelligenzen voreingenommen und mit Vorurteilen behaftet sein. Die Folge: Sie machen Fehler, verhalten sich diskriminierend oder unangebracht und können gar falsches Verhalten hervorrufen.

Vorurteile aufspüren und eliminieren

Dem möchte die Initiative Equal AI entgegenwirken. Ins Leben gerufen wurde sie von Robert LoCascio, dem Gründer des KI-Entwicklers LivePerson. Die Initiative hat zum Ziel, Vorurteile und Voreingenommenheiten in KIs ausfindig zu machen und zu eliminieren. «Dazu stellen wir ein Regelwerk zusammen, um herauszufinden, ob und wo eine Beeinflussung stattfindet», sagt Miriam Vogel, Leiterin von Equal AI. Sie war stellvertretende Direktorin für Justiz und Regulierung im Weißen Haus unter dem ehemaligen US-Präsidenten Barack Obama. Dort hat sie sich unter anderem für die Förderung des gleichen Entgelts für Frauen eingesetzt.

Mit dem Regelwerk , das in den nächsten Monaten publiziert wird, sollen KIs und Algorithmen auf etwaige Vorurteile geprüft werden. «Dabei ist es wichtig, das menschliche Element nicht zu vergessen», erklärt Vogel. Denn Vorurteile von Programmierern können unbewusst in die KIs und Algorithmen einfließen. LoCascio ergänzt: «Deshalb entwickeln wir auch ein Regelwerk, dass Vorurteile bei Personen testet.»

Vielseitigkeit statt Ungleichheit

Ein weiterer wichtiger Punkt der Equal AI Initiative ist Diversität. «Wenn wir nicht genug Diversität in den Teams haben, die solche KIs und Algorithmen programmieren, dann vergessen die Programmierer, auch die Ansichten dieser Minderheiten mit einzubeziehen», sagt Vogel. Darum sollen sowohl Männer als auch Frauen mit unterschiedlichen ethnischen Hintergründen zusammenarbeiten. Hierin unterstützt Equal AI Organisationen wie etwa AI4All, die auch Mädchen für Computerwissenschaften sensibilisieren und begeistern wollen.

Was aber, wenn man nichts dagegen unternehmen würde? Würden die KIs von morgen rassistisches, ideologisches oder sexistisches Verhalten an den Tag legen? «Wir müssen sicherstellen, dass KIs uns nicht schaden, sondern helfen. Das ist das Ziel der Equal AI», sagt LoCascio. Es ist wichtig, dass möglichst viele Menschen für dieses Thema sensibilisiert werden. Das weiß auch Vogel: «Nur zusammen können wir dieses Problem lösen.»

(L'essentiel/vhu)

Fragen und Antworten rund um die Kommentar-Funktion
«Warum dauert es manchmal so lange, bis mein Kommentar sichtbar wird?»

Unsere Leser kommentieren fleißig – Tag für Tag gehen Hunderte Meinungen zu allen möglichen Themen ein. Da die Verantwortung für alle Inhalte auf der Website bei der Redaktion liegt, werden die Beiträge vorab gesichtet. Das dauert manchmal eben einige Zeit.

«Warum wurde mein Kommentar gelöscht?»

Womöglich wurde der Beitrag in einer Fremdsprache verfasst. Wir geben nur Kommentare in den Landessprachen Luxemburgisch, Deutsch und Französisch frei. Beiträge, die Beleidigungen, Verleumdungen oder Diffamierungen enthalten, werden sofort gelöscht. Auch Kommentare, die aufgrund mangelnder Orthografie quasi unlesbar oder in Versalien geschrieben sind, werden das Licht der Öffentlichkeit nie erblicken.

«Habe ich ein Recht darauf, dass meine Kommentare freigeschaltet werden?»

«L'essentiel» ist nicht dazu verpflichtet, eingehende Kommentare zu veröffentlichen. Ebenso haben die kommentierenden Leser keinen Anspruch darauf, dass ihre verfassten Beiträge auf der Seite erscheinen.

Haben Sie allgemeine Fragen zur Kommentarfunktion?

Schreiben Sie an feedback@lessentiel.lu
Hinweis: Wir beantworten keine Fragen, die sich auf einzelne Kommentare beziehen.