KI wird im Zentrum zukünftiger Finanzkrisen stehen – und die Regulierungsbehörden werden nicht mithalten können. Das ist die Botschaft von Gary Gensler, dem derzeitigen Vorsitzenden der SEC, der wohl bedeutendste und mächtigste Regulierer in den USA.
Warum es wichtig ist: Ein von Gensler 2020 verfasstes Papier, während er Professor am MIT war, liefert wertvolle Einblicke in diese Risiken – und zeigt auf, wie wenig die Regulierungsbehörden dagegen tun können.
Das große Ganze: Das offensichtlichste Risiko von KI in den Finanzmärkten sind AI-gesteuerte "Black Box"-Handelsalgorithmen, die außer Kontrolle geraten und gleichzeitig alles verkaufen, was zu einem Markteinbruch führt.
„Es gibt einfach nicht so viele Menschen, die ausgebildet sind, diese Modelle zu erstellen und zu verwalten, und sie haben tendenziell ähnliche Hintergründe“, schrieb Gensler. "Es besteht auch eine starke Verbindung zwischen Menschen, die gemeinsam ausgebildet wurden: der sogenannte Lehrlingseffekt."
Ein Risiko der Modellhomogenität könnte auch durch Regulierungen selbst entstehen. Wenn Regulierer bestimmen, was KIs dürfen und was nicht, steigt das Risiko, dass sie alle zur gleichen Zeit dasselbe tun, und erhöht auch die Wahrscheinlichkeit, dass Firmen KI-Dienste von wenigen, unangreifbaren großen Anbietern nutzen.
Ein kluger Tipp: Da die Regeln, wann die Modelle kaufen und verkaufen, für Menschen undurchsichtig und nicht vorhersehbar sind (oder sogar rückblickend), ist es für Regulierer sehr schwierig, einen solchen Absturz zu verhindern.
Wie Gensler schrieb: "Wenn Deep Learning-Vorhersagen erklärbar wären, würden sie erst gar nicht verwendet."
Zwischen den Zeilen: Die Risiken durch KI gehen weit über Handelsalgorithmen hinaus.
Viele KIs werden zur Beurteilung der Kreditwürdigkeit verwendet. Aufgrund ihrer Undurchsichtigkeit ist es schwierig zu sagen, ob sie Menschen in diskriminierender Weise beurteilen. Und da KIs sich ständig in unvorhersehbaren Wegen weiterentwickeln, ist es unmöglich zu wissen, ob eine KI, die gestern nicht rassistisch war, heute rassistisch geworden ist.
Aktueller Stand: "Es ist wahrscheinlich, dass regulatorische Lücken entstanden sind und mit der zunehmenden Verwendung von Deep Learning in der Finanzwelt noch weiter wachsen werden", schrieb Gensler. "Wir kommen zu dem Schluss, dass Deep Learning wahrscheinlich systemische Risiken erhöht."
Die einfachste und möglicherweise effektivste regulatorische Reaktion könnte einfach sein, die Menge an Kapital zu erhöhen, die Finanzinstitute halten müssen, wenn sie (oder ihre Regulierer) KI-Tools verwenden.
Regulierer könnten auch verlangen, dass alle KI-generierten Ergebnisse einem "Geruchstest" eines altmodischeren linearen Modells mit größerer Erklärbarkeit unterzogen werden. Unternehmen könnten davon abgehalten werden, Maßnahmen zu ergreifen, die nicht grundsätzlich erklärt werden können.
Bedrohungslevel: Regulatoren könnten in der Lage sein, die Zunahmerate zu verlangsamen, aber es ist sehr unwahrscheinlich, dass sie das systemische Risiko daran hindern können, zu steigen.
Gensler selbst hatte eine lange Liste von regulatorischen Ansätzen, die helfen würden, sagt aber sehr klar, dass sie insgesamt "der Aufgabe nicht gewachsen" sind.
Das Daten-Dilemma:
KI hat eine "unersättliche Nachfrage nach Daten", so Gensler in seinem Papier.
Warum es wichtig ist: Das Risiko besteht darin, dass KI-Modelle zwangsläufig auf einen Punkt zusteuern, an dem sie alle denselben riesigen Trainingsdatensatz teilen (z.B. Common Crawl), wodurch sie alle inhärenten Schwächen dieses Datensatzes kollektivieren.
„Modelle, die auf denselben Datensätzen aufgebaut sind, werden wahrscheinlich hoch korrelierte Vorhersagen erzeugen, die im Gleichschritt verlaufen, was zu Überfüllung und Herdenbildung führt“, schrieb Gensler.
Die Nachfrage nach enormen Datenquellen neigt dazu, Monopole zu schaffen.
Gensler stellte fest, dass die Intercontinental Exchange das Geschäft mit Hypothekendaten durch den Erwerb von MERS, Ellie Mae und Simplifile still und leise dominiert hat.
Diese Monopole können dann zu "einzigen Ausfallpunkten" werden, die das gesamte Netzwerk bedrohen – so wie der Ausfall einer einzigen mittelgroßen Investmentbank, Lehman Brothers, eine globale Finanzkatastrophe verursachte.
Selbst die größten Datensätze sind gefährlich unvollständig. "Internetnutzung, tragbare Daten, Telematikdaten und GPS- und Smartphone-Daten haben einfach nicht genügend Zeithorizonte, um auch nur einen vollständigen Finanzzyklus abzudecken", stellte Gensler fest.
Das kann verheerende Folgen haben – wie wir während der Finanzkrise gesehen haben.
Das Risiko der Überfüllung ist bereits vorhanden. „Es wird angenommen, dass das Herdenverhalten und die Überfüllung im Hochfrequenzalgorithmushandel teilweise für Flash-Crashes verantwortlich sind“, schrieb Gensler. Da diese Händler zunehmend auf KI umsteigen, kann dieses Risiko nur noch steigen.
Unternehmen in Entwicklungsländern könnten KIs einsetzen, die überhaupt nicht mit inländischen Daten trainiert wurden, wodurch die Risiken noch größer werden.
Das Fazit: KIs wissen nicht, was sie nicht wissen. Und das kann sehr gefährlich sein.