Wie LLMs von einem jahrzehntelangen symbolischen KI-Projekt profitieren könnten

23.08.2023 197 mal gelesen 0 Kommentare

Künstliche Intelligenz, insbesondere Große Sprachmodelle (LLMs), steht vor einem Dilemma: Trotz ihrer beeindruckenden Fähigkeiten sind sie oft unvorhersehbar und schwer interpretierbar. Dies macht sie in kritischen Anwendungen unzuverlässig.

In einer aktuellen Studie haben der Kognitionswissenschaftler Gary Marcus und der KI-Pionier Douglas Lenat die Herausforderungen von LLMs untersucht und 16 Kriterien für ein vertrauenswürdiges allgemeines KI-System formuliert. Sie argumentieren, dass LLMs an Wissen, Vernunft und Weltmodellen mangeln.

LLMs, so betonen sie, fehlen die langsamen, überlegten Denkfähigkeiten, die Menschen besitzen. Stattdessen agieren sie schneller und unbewusster, was zu unvorhersehbaren Ergebnissen führen kann.

Marcus und Lenat schlagen einen alternativen KI-Ansatz vor, der diese Einschränkungen "theoretisch adressieren" könnte. Sie glauben, dass die Forschung zu LLMs von Cyc profitieren kann, einem symbolischen KI-System, das Lenat vor über vier Jahrzehnten entwickelt hat.

In ihrer Arbeit betonen Lenat und Marcus, dass KI nicht genau so denken muss wie Menschen, aber 16 Fähigkeiten haben muss, um in kritischen Situationen vertrauenswürdig zu sein. LLMs haben in den meisten dieser Bereiche Schwierigkeiten.

Ein weiterer wichtiger Aspekt ist die "Theory of Mind". Das bedeutet, dass die KI ein Modell des Wissens und der Absichten ihres Gesprächspartners haben sollte.

Lenat gründete Cyc 1984. Es handelt sich um ein wissensbasiertes System, das eine umfassende Ontologie und Wissensbasis bietet, die die KI nutzen kann. Im Gegensatz zu aktuellen KI-Modellen basiert Cyc auf expliziten Darstellungen von Wissen über die reale Welt.

Die Autoren schlagen eine Synergie zwischen einem wissensreichen, vernunftreichen symbolischen System wie Cyc und LLMs vor. Sie glauben, dass beide Systeme zusammenarbeiten können, um das "Halluzinationsproblem" zu adressieren.

Marcus ist ein Befürworter von hybriden KI-Systemen, die neuronale Netzwerke und symbolische Systeme kombinieren. Die Kombination von Cyc und LLMs könnte eine Möglichkeit sein, wie die Vision für hybride KI-Systeme Wirklichkeit werden kann.

"Es gibt seit buchstäblich Generationen zwei sehr unterschiedliche Arten von KIs", schließen die Autoren, "und jede von ihnen ist jetzt fortgeschritten genug, um angewendet zu werden. Es gibt jedoch Möglichkeiten, dass die beiden Typen zusammenarbeiten und uns einen Schritt weiter in Richtung einer allgemeinen KI bringen, der wir vertrauen können."

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Keine Kommentare vorhanden