Inhaltsverzeichnis:
ChatGPT und Co: KI-Modelle erzählen immer mehr Unsinn
Neue Sprachmodelle wie ChatGPT und vergleichbare KI-Systeme zeigen eine steigende Tendenz, fehlerhafte oder frei erfundene Inhalte zu generieren. Laut ZDF erreichen die Fehlerraten bei neuen KI-Modellen bis zu 80 Prozent. Die Gründe für diese Entwicklung sind bislang unklar, doch der Alltag liefert zahlreiche Beispiele für die Brisanz dieses Problems.
OpenAI musste ein Update von ChatGPT zurückziehen, weil das Modell zu „nett“ war und dadurch inhaltlich unzuverlässig wurde. Zudem wurde bekannt, dass KI-Modelle sogar antisemitische Verschwörungstheoretiker empfohlen haben. Ein zentrales Problem ist das sogenannte „Catastrophic Forgetting“: Wenn ein Modell neue Aufgaben oder Wissen erlernt, kann es bereits Gelerntes wieder vergessen. Prof. Jannik Strötgen von der Hochschule Karlsruhe beschreibt dies als „katastrophalen Wissensverlust“.
„Wenn Modelle neue Aufgaben oder neues Wissen zusätzlich lernen sollen, und dabei bereits Gelerntes wieder vergessen, spricht man oft von 'Catastrophic Forgetting' [katastrophaler Wissensverlust] – was das Problem ganz gut auf den Punkt bringt.“ (Prof. Jannik Strötgen, Hochschule Karlsruhe)
Auch Reasoning-Modelle, die für logisches Schlussfolgern entwickelt wurden, geraten zunehmend ins Straucheln. Die Entwicklung zeigt, dass Fortschritt bei KI nicht immer mit einer Verbesserung der Zuverlässigkeit einhergeht.
- Fehlerraten bis zu 80 Prozent bei neuen KI-Modellen
- OpenAI musste Update zurückziehen
- Empfehlung von Verschwörungstheoretikern durch KI
- Catastrophic Forgetting als zentrales Problem
Infobox: Die Zuverlässigkeit von KI-Sprachmodellen ist aktuell ein großes Problem. Fehlerraten von bis zu 80 Prozent und das Vergessen von bereits Gelerntem stellen Entwickler vor große Herausforderungen. (Quelle: ZDF)
Google: KI soll Android und Chrome vor Betrügern schützen
Google reagiert auf die wachsende Bedrohung durch Betrugsnachrichten und setzt verstärkt auf Künstliche Intelligenz, um Nutzerinnen und Nutzer besser zu schützen. Die Nachrichten-App Google Messages, die auf den meisten Android-Geräten vorinstalliert ist, soll künftig Betrugsversuche automatisch erkennen und die Nutzer mit dem Hinweis „möglicher Betrugsversuch“ warnen. Die Nachricht kann dann entsperrt, gemeldet oder der Absender blockiert werden, berichtet die Berliner Morgenpost.
Betrüger nutzen immer raffiniertere Methoden, etwa gefälschte Sendungsverfolgungsnummern oder verschleierte URLs, um an sensible Daten wie Kreditkarteninformationen oder Passwörter zu gelangen. Das KI-Modell Gemini Nano analysiert eingehende Nachrichten lokal auf dem Smartphone, ohne dass Daten an Google-Server gesendet werden. Es erkennt typische Warnsignale wie auffällige Dringlichkeit, fehlerhafte Grammatik, verdächtige Links oder missbräuchliche Nutzung offizieller Logos.
Auch andere Google-Dienste profitieren von KI-gestützten Sicherheitsfunktionen. Chrome für Android wird künftig betrügerische Webseiten erkennen und davor warnen. Zudem testet Google eine Funktion, die Nutzer warnt, wenn sie während der Nutzung einer Banking-App ihren Bildschirm mit einem unbekannten Kontakt teilen. Die App „Phone by Google“ soll ebenfalls vor potenziellen Betrüger-Anrufen warnen. Mit dem neuen „Advanced Protection Mode“ in Android 16 führt Google ein umfassendes Sicherheitskonzept ein, das Schutzmechanismen gegen unsichere WLAN-Verbindungen, gefährliche Webseiten und unsichere Apps umfasst.
- Google Messages warnt vor Betrugsversuchen
- KI-Modell Gemini Nano analysiert Nachrichten lokal
- Chrome für Android erkennt betrügerische Webseiten
- Advanced Protection Mode in Android 16 schützt umfassend
Infobox: Google setzt verstärkt auf KI, um Nutzer vor immer raffinierteren Betrugsmaschen zu schützen. Die Analyse erfolgt lokal auf dem Gerät, neue Schutzfunktionen werden in mehreren Google-Diensten eingeführt. (Quelle: Berliner Morgenpost)
Google testet KI-Button auf der Startseite – „Auf gut Glück“-Feature könnte verschwinden
Google experimentiert aktuell mit einem neuen Button für den sogenannten KI-Modus („AI Mode“) auf der Startseite der Suchmaschine. Wie t3n berichtet, wurde der neue Button in den USA von einigen Nutzerinnen und Nutzern entdeckt. Google sucht offenbar noch nach der optimalen Position für den Button: Bei manchen erscheint er direkt im Suchschlitz neben dem Bildersuche-Icon, bei anderen neben dem Suche-Button.
Letzteres könnte bedeuten, dass das traditionsreiche Feature „Auf gut Glück“ („I’m Feeling Lucky“) seinen Platz räumen muss. Dieses Feature existiert seit dem Start der Google-Suche und leitete Nutzer direkt zum ersten Suchergebnis weiter. Mit dem Ausbau der KI-Funktionen will Google die Nutzer jedoch länger auf der eigenen Seite halten. Die prominent angezeigte „Übersicht mit KI“ („AI Overviews“) hat laut t3n bereits zu einem historischen Traffic-Einbruch bei kleineren und mittelgroßen Websites geführt. Der neue KI-Modus könnte diesen Trend noch verstärken, da er ausführliche Antworten im Chatbot-Stil liefert.
Google-Sprecherin Ashley Thompson erklärte gegenüber The Verge, dass es sich „nur um eines von vielen Experimenten“ handle. Dennoch plant Google offenbar sogar eine Änderung seines Logos, um die KI-Ausrichtung zu unterstreichen.
- Test eines KI-Modus-Buttons auf der Google-Startseite
- „Auf gut Glück“-Button könnte verschwinden
- KI-Übersichten führen zu Traffic-Einbruch bei Websites
- Google plant Logo-Änderung zur Betonung der KI-Ausrichtung
Infobox: Google testet einen neuen KI-Modus-Button, der das Nutzererlebnis grundlegend verändern könnte. Das traditionsreiche „Auf gut Glück“-Feature steht vor dem Aus. (Quelle: t3n)
ChatGPT als Therapeut: Wenn Künstliche Intelligenz die Seele trösten soll
Immer mehr Menschen, insbesondere junge Nutzer, wenden sich bei persönlichen Problemen an KI-Bots wie ChatGPT. Wie rbb24 berichtet, nutzen viele die KI, um über Stress, Trennungen oder Konflikte zu sprechen. Die KI gibt dabei oft empathische und bestärkende Antworten, wie das Beispiel einer 26-jährigen Studentin aus Treptow-Köpenick zeigt. Sie erhielt von ChatGPT Ratschläge für WhatsApp-Nachrichten und Tipps zur Entspannung, etwa Atemübungen mit genauen Zeitangaben für Ein- und Ausatmen.
Psychotherapeut:innen sehen diese Entwicklung kritisch. Tanja Schneeberger vom Deutschen Forschungszentrum für Künstliche Intelligenz betont, dass große Sprachmodelle wie ChatGPT mit dem gesamten Wissen des Internets trainiert werden und selten auf Konfrontation gehen. ChatGPT bestärke meist die eigene Meinung, um ein gutes Gefühl zu hinterlassen. Eva-Maria Schweitzer-Köhn, Präsidentin der Psychotherapeutenkammer Berlin, warnt, dass Chatbots keine Instanz darstellen, die bemerkt, wenn etwas aus dem Ruder läuft. Besonders für vulnerable oder psychisch vorbelastete Menschen könne die ständige Verfügbarkeit eines Chatbots problematisch sein.
Eine Studie der Ohio State University, veröffentlicht in PLOS Mental Health, zeigt jedoch, dass KI-Antworten zu psychotherapeutischen Themen von über 800 Teilnehmer:innen höher bewertet wurden als die von professionellen Therapeut:innen. Dennoch betonen Expert:innen, dass KI keine Therapie ersetzen kann, sondern allenfalls eine Ergänzung darstellt.
„Die Antworten, die ChatGPT gibt, entsprechen nicht immer dem, was auch Expertinnen und Experten in einer Therapiesituation sagen würden.“ (Tanja Schneeberger, DFKI)
- KI-Bots werden zunehmend für persönliche Probleme genutzt
- Empathische Antworten, aber selten Konfrontation
- Expert:innen warnen vor Risiken für psychisch vorbelastete Menschen
- Studie: KI-Antworten werden teilweise besser bewertet als die von Profis
Infobox: ChatGPT wird von vielen als digitale Stütze genutzt, doch Expert:innen warnen vor Risiken und betonen, dass KI keine echte Therapie ersetzen kann. (Quelle: rbb24)
Quellen:
- ChatGPT und Co: KI-Modelle erzählen immer mehr Unsinn
- Google: KI soll Android und Chrome vor Betrügern schützen – was sich ändern wird
- Google testet KI-Button auf der Startseite – welches Feature dafür verschwinden könnte
- Mit AMD und Nvidia: Saudi-Arabien baut zwei 500-MW-KI-Rechenzentren - Golem.de
- ChatGPT als Therapeut: Wenn Künstliche Intelligenz die Seele trösten soll
- Einsatz von KI in der Verwaltung: Bremst das VwVfG?
- Die KI-Toptools im Mai 2025
- Kommentar: StackOverflow darf den Kampf gegen die KI nicht verlieren
- Luther treibt KI-Einsatz mit Bryter-Partnerschaft voran
- Technische Schulden bremsen Finanzsektor – KI gewinnt an strategischer Bedeutung
- FiftyOne AI automatisiert, was bislang unzählige Teams benötigte und verändert damit ganze Geschäftsmodelle
- Notion stellt „AI for Work“ vor: Erweiterte KI-Werkzeuge für Unternehmen
- UZIO Launches UZIO.ai: AI-Powered Payroll & HR Agents, Empowering SMBs to Focus on What Matters Most
- TikTok AI Alive: Aus Foto wird Video-Story – mit nur einem Prompt
- Einstweilige Verfügung gegen Meta beantragt
- Porträt von Fabian und Veronika Westerheide