Was gerade passiert
Der Aufstieg der künstlichen Intelligenz hat zur Entstehung generativer KI-Tools geführt, wie ChatGPT, die automatisierte Vorhersagen auf Basis großer Datenmengen liefern. Aber mit der zunehmenden Verwendung von KI sagen Experten, dass die boomende Technologie rassistische Vorurteile und diskriminierende Praktiken verstärkt.
"Diese Tools sind darauf trainiert, Vorhersagen auf Basis von historischen Daten zu treffen, was passiert oder passiert ist. Automatisierte Vorhersagen spiegeln also die bestehende Diskriminierung in dem Kontext wider, in dem sie verwendet werden", sagte Olga Akselrod, leitende Mitarbeiterin im Racial Justice Program der American Civil Liberties Union, gegenüber Yahoo News.
In einer Studie der Universität Cambridge aus dem Jahr 2020 stellten Forscher fest, dass KI ungleiche Chancen für marginalisierte Gruppen schafft. Aber die KI wächst trotz dieser Ungerechtigkeiten weiter. Derzeit nutzen 35% der Unternehmen KI und 42% prüfen eine zukünftige Einführung der Technologie, laut Tech Jury.
"Vorhersagende Technologien, wie künstliche Intelligenz, werden in nahezu jedem Aspekt unseres Alltags eingesetzt, sowohl von Regierungs- als auch von Privatunternehmen, und haben Auswirkungen auf wirklich wichtige Entscheidungen, wie zum Beispiel, wer einen Job bekommt, wer einen Kredit bekommt, wer ins Gefängnis geht und viele andere Entscheidungen", sagte Akselrod.
Warum es eine Debatte gibt Laut Experten fehlt es KI-Tools an Transparenz und sie könnten Diskrepanzen auf beispiellosem Niveau verursachen.
"Vorhersagende Tools stellen eine große Bedrohung für den Schutz der Bürgerrechte dar, weil sie in einem unglaublichen Ausmaß verwendet werden, das in keiner Weise mit den individuellen Entscheidungen der Vergangenheit oder sogar systemischen Entscheidungen vergleichbar ist, die nicht mit der Geschwindigkeit und Häufigkeit getroffen wurden, mit der heute Entscheidungen getroffen werden, unter Verwendung von vorhersagenden Tools", sagte Akselrod.
Da rassische und wirtschaftliche Ungleichheiten in der Gesellschaft bereits existieren, sagt Akselrod, werden KI-Tools nur zu dieser Last hinzufügen.
"Je nachdem, wie KI-Systeme eingerichtet sind, können sie die Redlining von Hypothekenanträgen erleichtern, Menschen dabei helfen, gegen Personen zu diskriminieren, die sie nicht mögen, oder dabei helfen, Listen von Personen auf Basis unfairer Kriterien zu erstellen", schrieben Darrell West und John Allen in einem Bericht, der von der Brookings Institution veröffentlicht wurde.
Laut einer kürzlich durchgeführten Umfrage von Pew Research glauben jedoch mehr als 50% der Amerikaner, dass rassistische Vorurteile in der Arbeitswelt abnehmen werden, wenn Arbeitgeber KI im Einstellungsprozess verwenden, und dass KI letztendlich dazu beitragen wird, gegen Diskriminierung zu kämpfen.
Broderick Turner, Direktor des Technology, Race and Prejudice Lab an der Harvard Business School, sagt, KI sei nicht rassistisch, denn sie sei nur ein Werkzeug. "Allerdings kann sie, abhängig von den Daten und Regeln, auf denen sie trainiert wird - beides von Menschen geschaffen - auf rassistische Weise verwendet werden", sagte Turner bei einem Vortrag an der Harvard University.
Was als nächstes kommt Im Juli kündigte Präsident Biden Pläne an, mit sieben KI-Entwicklungsunternehmen zusammenzuarbeiten, um Richtlinien zu erstellen, die ein sicheres und vertrauenswürdiges KI-System schaffen würden.
"Um das Versprechen der KI durch die Bewältigung der Risiken zu realisieren, werden neue Gesetze, Vorschriften und Aufsichtsmaßnahmen erforderlich sein", sagte Biden am 21. Juli. "In den kommenden Wochen werde ich weitere Exekutivmaßnahmen ergreifen und Amerika dabei helfen, den Weg zu verantwortungsvoller Innovation zu führen." Er forderte auch den Kongress auf, KI-Gesetze zu verabschieden.
Aber Akselrod sagt, die Regierung hinkt hinterher. "Diese moderneren Tools der Diskriminierung sind noch nicht mit der Regulierungsgesetzgebung und der Regierungsdurchsetzung konfrontiert worden, die zum Schutz der Bürgerrechte und der Bürgerfreiheiten notwendig sind", sagte sie.
Perspektiven KI 'lernt durch Beispiel'
"KI ist einfach eine Software, die durch Beispiel lernt. Also, wenn Sie ihr Beispiele geben, die bestimmte Arten von Vorurteilen oder diskriminierende Einstellungen enthalten oder widerspiegeln... dann werden Sie Ausgaben bekommen, die dem ähneln." — Reid Blackman, Autor von "Ethical Machines", auf CNN
'KI hat ein Rassenproblem'
"KI hat ein Rassenproblem. Was es uns sagt, ist, dass die KI-Forschung, -Entwicklung und -Produktion wirklich von Menschen getrieben wird, die blind für die Auswirkungen sind, die Rasse und Rassismus nicht nur auf technologische Prozesse, sondern auch auf unser allgemeines Leben haben." — Mutale Nkonde, ehemalige Journalistin und Expertin für Technologiepolitik, die die gemeinnützige Organisation AI for the People leitet, gegenüber CBC News
KI schafft neue Hindernisse für marginalisierte Gruppen
"Künstliche Intelligenz, unsichtbar aber allgegenwärtig, betrifft weite Teile der amerikanischen Gesellschaft und wird viele weitere betreffen. Biden muss sicherstellen, dass bei der Entwicklung von KI die Rassengerechtigkeit Priorität hat." — ReNika Moore, Direktorin des Racial Justice Program, ACLU
Lösungen stehen im Vordergrund der Experten
"Die Lösung besteht nicht nur darin, die Technik inklusiver zu machen, sondern auch die Algorithmen auszurotten, die bestimmte Bevölkerungsgruppen von Natur aus als 'andere' klassifizieren. Es besteht ein Bedarf an Rechenschaftspflicht und Transparenz in der KI, sowie an Vielfalt bei der Entwicklung von KI-Systemen. Auch eine regulatorische Aufsicht ist ein kritischer Teil dieser Lösung. Ohne diese Änderungen könnten die gegenwärtigen rassischen Ungleichheiten in unserer digitalen Infrastruktur immer stärker verankert werden." — Meredith Broussard, Professorin für Datenjournalismus an der New York University, gegenüber Yahoo News
KI-Systeme können Geschlechts- und Rassenbias haben
"Wir gehen oft davon aus, dass Maschinen neutral sind, aber das sind sie nicht. Meine Forschung hat einen großen Geschlechts- und Rassenbias in KI-Systemen aufgedeckt, die von Tech-Giganten wie IBM, Microsoft und Amazon verkauft werden. Bei der Aufgabe, das Geschlecht eines Gesichts zu erraten, schnitten alle Unternehmen deutlich besser bei männlichen als bei weiblichen Gesichtern ab. Die von mir evaluierten Unternehmen hatten Fehlerraten von höchstens 1% bei hellhäutigen Männern. Bei dunkelhäutigen Frauen stiegen die Fehler auf 35%." — Joy Buolamwini, Gründerin der Algorithmic Justice League, Time
Die Gefahren der KI sollten verhindert werden, bevor sie der Öffentlichkeit zugänglich gemacht wird
"Grundsätzlich müssen wir einen robusten Rahmen für Menschen- und Bürgerrechte haben, um diese Technologien zu evaluieren. Und ich denke, sie sollten nicht in den Markt gelassen werden, um Schaden anzurichten, und dann finden wir nachträglich heraus, dass sie gefährlich sind, und wir müssen die Arbeit leisten, um sie zurückzurufen." — Safiya Noble, Professorin für Geschlechterstudien und afroamerikanische Studien an der UCLA, gegenüber NPR