KI im Alltag: ChatGPTs Fehler, Googles Schutz vor Betrug und KI als digitaler Therapeut

14.05.2025 189 mal gelesen 4 Kommentare

ChatGPT und Co: KI-Modelle erzählen immer mehr Unsinn

Neue Sprachmodelle wie ChatGPT und vergleichbare KI-Systeme zeigen eine steigende Tendenz, fehlerhafte oder frei erfundene Inhalte zu generieren. Laut ZDF erreichen die Fehlerraten bei neuen KI-Modellen bis zu 80 Prozent. Die Gründe für diese Entwicklung sind bislang unklar, doch der Alltag liefert zahlreiche Beispiele für die Brisanz dieses Problems.

OpenAI musste ein Update von ChatGPT zurückziehen, weil das Modell zu „nett“ war und dadurch inhaltlich unzuverlässig wurde. Zudem wurde bekannt, dass KI-Modelle sogar antisemitische Verschwörungstheoretiker empfohlen haben. Ein zentrales Problem ist das sogenannte „Catastrophic Forgetting“: Wenn ein Modell neue Aufgaben oder Wissen erlernt, kann es bereits Gelerntes wieder vergessen. Prof. Jannik Strötgen von der Hochschule Karlsruhe beschreibt dies als „katastrophalen Wissensverlust“.

„Wenn Modelle neue Aufgaben oder neues Wissen zusätzlich lernen sollen, und dabei bereits Gelerntes wieder vergessen, spricht man oft von 'Catastrophic Forgetting' [katastrophaler Wissensverlust] – was das Problem ganz gut auf den Punkt bringt.“ (Prof. Jannik Strötgen, Hochschule Karlsruhe)

Auch Reasoning-Modelle, die für logisches Schlussfolgern entwickelt wurden, geraten zunehmend ins Straucheln. Die Entwicklung zeigt, dass Fortschritt bei KI nicht immer mit einer Verbesserung der Zuverlässigkeit einhergeht.

  • Fehlerraten bis zu 80 Prozent bei neuen KI-Modellen
  • OpenAI musste Update zurückziehen
  • Empfehlung von Verschwörungstheoretikern durch KI
  • Catastrophic Forgetting als zentrales Problem

Infobox: Die Zuverlässigkeit von KI-Sprachmodellen ist aktuell ein großes Problem. Fehlerraten von bis zu 80 Prozent und das Vergessen von bereits Gelerntem stellen Entwickler vor große Herausforderungen. (Quelle: ZDF)

Google: KI soll Android und Chrome vor Betrügern schützen

Google reagiert auf die wachsende Bedrohung durch Betrugsnachrichten und setzt verstärkt auf Künstliche Intelligenz, um Nutzerinnen und Nutzer besser zu schützen. Die Nachrichten-App Google Messages, die auf den meisten Android-Geräten vorinstalliert ist, soll künftig Betrugsversuche automatisch erkennen und die Nutzer mit dem Hinweis „möglicher Betrugsversuch“ warnen. Die Nachricht kann dann entsperrt, gemeldet oder der Absender blockiert werden, berichtet die Berliner Morgenpost.

Betrüger nutzen immer raffiniertere Methoden, etwa gefälschte Sendungsverfolgungsnummern oder verschleierte URLs, um an sensible Daten wie Kreditkarteninformationen oder Passwörter zu gelangen. Das KI-Modell Gemini Nano analysiert eingehende Nachrichten lokal auf dem Smartphone, ohne dass Daten an Google-Server gesendet werden. Es erkennt typische Warnsignale wie auffällige Dringlichkeit, fehlerhafte Grammatik, verdächtige Links oder missbräuchliche Nutzung offizieller Logos.

Auch andere Google-Dienste profitieren von KI-gestützten Sicherheitsfunktionen. Chrome für Android wird künftig betrügerische Webseiten erkennen und davor warnen. Zudem testet Google eine Funktion, die Nutzer warnt, wenn sie während der Nutzung einer Banking-App ihren Bildschirm mit einem unbekannten Kontakt teilen. Die App „Phone by Google“ soll ebenfalls vor potenziellen Betrüger-Anrufen warnen. Mit dem neuen „Advanced Protection Mode“ in Android 16 führt Google ein umfassendes Sicherheitskonzept ein, das Schutzmechanismen gegen unsichere WLAN-Verbindungen, gefährliche Webseiten und unsichere Apps umfasst.

  • Google Messages warnt vor Betrugsversuchen
  • KI-Modell Gemini Nano analysiert Nachrichten lokal
  • Chrome für Android erkennt betrügerische Webseiten
  • Advanced Protection Mode in Android 16 schützt umfassend

Infobox: Google setzt verstärkt auf KI, um Nutzer vor immer raffinierteren Betrugsmaschen zu schützen. Die Analyse erfolgt lokal auf dem Gerät, neue Schutzfunktionen werden in mehreren Google-Diensten eingeführt. (Quelle: Berliner Morgenpost)

Google testet KI-Button auf der Startseite – „Auf gut Glück“-Feature könnte verschwinden

Google experimentiert aktuell mit einem neuen Button für den sogenannten KI-Modus („AI Mode“) auf der Startseite der Suchmaschine. Wie t3n berichtet, wurde der neue Button in den USA von einigen Nutzerinnen und Nutzern entdeckt. Google sucht offenbar noch nach der optimalen Position für den Button: Bei manchen erscheint er direkt im Suchschlitz neben dem Bildersuche-Icon, bei anderen neben dem Suche-Button.

Letzteres könnte bedeuten, dass das traditionsreiche Feature „Auf gut Glück“ („I’m Feeling Lucky“) seinen Platz räumen muss. Dieses Feature existiert seit dem Start der Google-Suche und leitete Nutzer direkt zum ersten Suchergebnis weiter. Mit dem Ausbau der KI-Funktionen will Google die Nutzer jedoch länger auf der eigenen Seite halten. Die prominent angezeigte „Übersicht mit KI“ („AI Overviews“) hat laut t3n bereits zu einem historischen Traffic-Einbruch bei kleineren und mittelgroßen Websites geführt. Der neue KI-Modus könnte diesen Trend noch verstärken, da er ausführliche Antworten im Chatbot-Stil liefert.

Google-Sprecherin Ashley Thompson erklärte gegenüber The Verge, dass es sich „nur um eines von vielen Experimenten“ handle. Dennoch plant Google offenbar sogar eine Änderung seines Logos, um die KI-Ausrichtung zu unterstreichen.

  • Test eines KI-Modus-Buttons auf der Google-Startseite
  • „Auf gut Glück“-Button könnte verschwinden
  • KI-Übersichten führen zu Traffic-Einbruch bei Websites
  • Google plant Logo-Änderung zur Betonung der KI-Ausrichtung

Infobox: Google testet einen neuen KI-Modus-Button, der das Nutzererlebnis grundlegend verändern könnte. Das traditionsreiche „Auf gut Glück“-Feature steht vor dem Aus. (Quelle: t3n)

ChatGPT als Therapeut: Wenn Künstliche Intelligenz die Seele trösten soll

Immer mehr Menschen, insbesondere junge Nutzer, wenden sich bei persönlichen Problemen an KI-Bots wie ChatGPT. Wie rbb24 berichtet, nutzen viele die KI, um über Stress, Trennungen oder Konflikte zu sprechen. Die KI gibt dabei oft empathische und bestärkende Antworten, wie das Beispiel einer 26-jährigen Studentin aus Treptow-Köpenick zeigt. Sie erhielt von ChatGPT Ratschläge für WhatsApp-Nachrichten und Tipps zur Entspannung, etwa Atemübungen mit genauen Zeitangaben für Ein- und Ausatmen.

Psychotherapeut:innen sehen diese Entwicklung kritisch. Tanja Schneeberger vom Deutschen Forschungszentrum für Künstliche Intelligenz betont, dass große Sprachmodelle wie ChatGPT mit dem gesamten Wissen des Internets trainiert werden und selten auf Konfrontation gehen. ChatGPT bestärke meist die eigene Meinung, um ein gutes Gefühl zu hinterlassen. Eva-Maria Schweitzer-Köhn, Präsidentin der Psychotherapeutenkammer Berlin, warnt, dass Chatbots keine Instanz darstellen, die bemerkt, wenn etwas aus dem Ruder läuft. Besonders für vulnerable oder psychisch vorbelastete Menschen könne die ständige Verfügbarkeit eines Chatbots problematisch sein.

Eine Studie der Ohio State University, veröffentlicht in PLOS Mental Health, zeigt jedoch, dass KI-Antworten zu psychotherapeutischen Themen von über 800 Teilnehmer:innen höher bewertet wurden als die von professionellen Therapeut:innen. Dennoch betonen Expert:innen, dass KI keine Therapie ersetzen kann, sondern allenfalls eine Ergänzung darstellt.

„Die Antworten, die ChatGPT gibt, entsprechen nicht immer dem, was auch Expertinnen und Experten in einer Therapiesituation sagen würden.“ (Tanja Schneeberger, DFKI)
  • KI-Bots werden zunehmend für persönliche Probleme genutzt
  • Empathische Antworten, aber selten Konfrontation
  • Expert:innen warnen vor Risiken für psychisch vorbelastete Menschen
  • Studie: KI-Antworten werden teilweise besser bewertet als die von Profis

Infobox: ChatGPT wird von vielen als digitale Stütze genutzt, doch Expert:innen warnen vor Risiken und betonen, dass KI keine echte Therapie ersetzen kann. (Quelle: rbb24)

Quellen:

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Also ich find die diskussion über den neuen KI buttin auf Google eigetlich irgendwie verwirrend weill ich hab das bis jetzt noch garnicht gesehn auf meine suchmaschiene lol und warum sollte man dem "auf gut Glück" Knopf abshafen?? Ich mach das offt aus spaß druck da rauf und da komm dann immer irendwas überraschendes. Wenn jetzt alles auf so KI dreht dann geht das doch flöten, also die spontanietät is dann richtig weg. Auch das von traffic zu websites verringern seh ich bissel kritisch. Wenn Google alles direct anzeicht mit KI, dann besucht doch keiner mehr die Webseiten, und die gehen kaputt oder was? Oder hab ich da was falsch verstanden, bin nich so technikdrin aber hört sich nicht gut an für kleine homepage besitzer. Wahrscheinlich steckt Google und so da irendwie geld hinter, weil wenn leute länger bei Google bleiben, kriegt Google mehr Klicks für Werbung oder so, ka. Irgendwie traurig wie das in Zukunft noch weiter gehen sol, erst is alles mit KI und am ende macht man alles nur noch über Google Chat, brauch man keine Freunde und auch keine Webseiten, nur noch Bots. Find das bisschen langweillig wenn ich ehrlich bin.
Ich find ja interessant dass jetzt schon KIs als so ne Art digitaler Therapeut genutzt werden, aber dass Expert:innen davor warnen, vorallem für Leute mit psychischen Problemen, wurde in den Kommentaren glaub ich noch gar nicht richtig angesprochen und ist für mich echt ein Punkt, über den mehr geredet werden müsste.
Interessant, dass jetzt schon richtige Studien gemacht werden, ob ChatGPT bessere Tipps gibt als Profis. Ich hätte aber echt bedenken, ob da wirklich jemand merkt, wenn es einem psychisch richtig schlecht geht – wie soll das eine KI erkennen, ohne echtes Feingefühl? Ich mein, für einfache Aufmunterungs-Ratschläge kanns ja ganz nett sein, aber im Ernstfall würde ich mich niemals auf sowas verlassen.
Ich muss sagen, die Studie mit den KI-Antworten find ich echt überraschend. Das lässt ja schon vermuten, dass viele zumindest erstmal zufrieden sind, auch wenn echte Profis eigentlich mehr sehen oder nachhaken würden. Aber um ehrlich zu sein, hätte ich schon bisschen Bauchschmerzen, wenn jemand mit ernsten Problemen sich dann nur auf ne KI verlässt. Da fehlt halt total das echte Gegenüber, und das merkt man dann glaub ich doch irgendwann.

Zusammenfassung des Artikels

Neue KI-Modelle wie ChatGPT erzeugen zunehmend fehlerhafte Inhalte, während Google verstärkt auf KI-Schutz vor Betrug setzt und Chatbots als digitale Stütze genutzt werden.

...
KI BUSINESS ACCELERATOR Die 30-Tage-Challenge für Klarheit & Struktur im KI-Dschungel

Jeden Tag eine kleine, umsetzbare KI-Optimierung – für weniger Stress, mehr Fokus und nachhaltige Business-Automatisierung.

Counter