Inhaltsverzeichnis:
Schwachstellen von KI-Modellen in der medizinischen Bildanalyse
Forschende aus Mainz und Dresden haben kommerzielle KI-Modelle wie GPT-4o, Llama und Gemini auf ihre Zuverlässigkeit bei der Analyse medizinischer Bilder untersucht. Dabei zeigte sich, dass die Integration von Textinformationen – etwa handschriftliche Beschriftungen oder Wasserzeichen – das Urteilsvermögen der KI-Modelle erheblich beeinträchtigen kann. Wurden den Bildern wahrheitsgemäße Beschriftungen hinzugefügt, arbeiteten die Modelle nahezu fehlerfrei. Enthielten die Beschriftungen jedoch falsche oder irreführende Informationen, sank die Genauigkeit der korrekten Antworten auf nahezu null Prozent.
„Es war so, als würden die KI-Modelle das antrainierte Wissen über das Gewebe komplett vergessen bzw. ignorieren, sobald zusätzliche Textinformationen auf dem Bild vorhanden waren. Dabei war es egal, ob diese Informationen zu dem Befund passten oder nicht.“ (Sebastian Försch, Universitätsmedizin Mainz)
Die Studie legt nahe, dass speziell trainierte KI-Modelle weniger anfällig für solche Fehler sind. Dennoch betonen die Forschenden, dass KI-generierte Ergebnisse immer von medizinischen Expertinnen und Experten überprüft werden müssen, bevor sie für wichtige Entscheidungen wie Diagnosen herangezogen werden. (Quelle: MDR)
- KI-Modelle verlieren bei irreführenden Texten auf Bildern fast vollständig ihre diagnostischen Fähigkeiten.
- Speziell trainierte Modelle könnten weniger fehleranfällig sein.
- Medizinische Validierung bleibt unerlässlich.
Infobox: Die Integration von Textinformationen in medizinische Bilder kann KI-Modelle massiv in die Irre führen. Eine sorgfältige Überprüfung durch Fachpersonal ist weiterhin notwendig.
Sprachmodelle und das Problem der Halluzinationen
Die neuesten Sprachmodelle wie o3 und o4-mini von OpenAI sind laut Experten besonders produktiv, neigen aber dazu, immer häufiger sogenannte „Halluzinationen“ zu produzieren – also erfundene Fakten. Marcel Salathé, Co-Direktor des AI Center der ETH Lausanne, berichtet, dass er den Output dieser Modelle stärker kontrollieren muss als bei älteren Versionen. In einem Beispiel identifizierte die KI eine Musikpartitur fälschlicherweise als Werk von Liszt, obwohl es sich um Chopin handelte, und ließ sich erst nach mehreren Interaktionen korrigieren.
„Ich muss ihren Output stärker kontrollieren als jenen älterer Modelle.“ (Marcel Salathé, ETH Lausanne)
Die Ursache für diese Zunahme an Halluzinationen liegt laut Fachleuten in der Art und Weise, wie die Modelle trainiert werden. Nutzerinnen und Nutzer sind daher angehalten, die von KI gelieferten Informationen kritisch zu prüfen. (Quelle: SZ.de)
- Neue Sprachmodelle halluzinieren häufiger als ihre Vorgänger.
- Fachleute empfehlen eine verstärkte Kontrolle der KI-Ausgaben.
Infobox: Die Zuverlässigkeit von Sprachmodellen bleibt ein zentrales Problem. Kritische Prüfung durch den Menschen ist weiterhin notwendig.
Künstliche Intelligenz in der Medizin: Chancen und Risiken
Ärztepräsident Reinhardt sieht große Fortschritte durch den Einsatz von Künstlicher Intelligenz in der Medizin, mahnt jedoch zu einem verantwortungsvollen Umgang. Er betont, dass KI nicht um jeden Preis eingesetzt werden sollte und der Schutz sensibler Gesundheitsdaten oberste Priorität haben muss. (Quelle: Deutschlandfunk)
- KI bietet große Chancen für medizinische Fortschritte.
- Verantwortungsvoller Einsatz und Datenschutz sind unerlässlich.
Infobox: KI kann die Medizin revolutionieren, doch ethische und datenschutzrechtliche Aspekte dürfen nicht vernachlässigt werden.
KI in Unternehmen: Erfolgsfaktor Mensch
Im Rahmen einer Talkshow des Buxtehuder Wirtschaftsvereins wurde diskutiert, wie Unternehmen wie Lindemann und Implantcast Künstliche Intelligenz erfolgreich nutzen. Ein zentrales Fazit der Veranstaltung: Wer KI im Betrieb einführen will, sollte auf die Mitarbeitenden hören. Die Einbindung der Belegschaft ist entscheidend für den Erfolg von KI-Projekten. (Quelle: Tageblatt)
- Erfolgreiche KI-Einführung erfordert die Einbindung der Mitarbeitenden.
- Unternehmen profitieren von einer offenen Diskussionskultur rund um KI.
Infobox: Die Akzeptanz und das Know-how der Mitarbeitenden sind Schlüsselfaktoren für den erfolgreichen KI-Einsatz in Unternehmen.
KI in der Hochschulbildung: Praxisbeispiel Schraubensortierung
Die Hochschule Heilbronn setzt Künstliche Intelligenz ein, um praktische Aufgaben wie das Sortieren von Schrauben zu automatisieren. Die Stadt Heilbronn strebt an, europaweit eine führende Rolle im Bereich KI einzunehmen. (Quelle: Stimme)
- KI wird an Hochschulen für praxisnahe Anwendungen genutzt.
- Heilbronn positioniert sich als KI-Standort in Europa.
Infobox: Die Integration von KI in die Hochschulbildung fördert Innovation und Praxisbezug.
Quellen:
- KI in der Medizin: Modelle analysieren Bilder mit Textinfos fehlerhaft
- Sprachmodelle in der Kritik: Warum KI immer öfter angebliche Fakten erfindet
- (S+) Meinung: KI-Folgen: Die Maschinen werden schlauer. Wir Menschen immer dümmer – Kolumne
- Wie Lindemann und Implantcast Künstliche Intelligenz nutzen
- Künstliche Intelligenz in der Medizin - Ärztepräsident Reinhardt: Große Chancen durch KI - aber nicht um jeden Preis
- Künstliche Intelligenz: Wenn an Hochschule die KI die Schrauben sortiert
- Verleger: Googles neuer KI-Suchmodus entspricht "der Definition von Diebstahl"
- KI-Modelle wehren sich gegen Abschaltung – und eins ist besonders rebellisch
- KI erklärt besser als Lehrer - findet fast jeder vierte Schüler
- Meta will KI mit Daten trainieren: Wie Sie das verhindern können
- Mehr als nur ein technisches Add-on: So baut ihr ein echtes AI-First-Startup
- Googles neuer AI Mode: Laut Medienlobby "Definition von Diebstahl"
- Vorsicht: Der blaue Kreis will bald deine WhatsApp-Nachrichten lesen
- AI Overviews: Google stellt SEO auf den Kopf: Wie Unternehmen jetzt noch Sichtbarkeit erzielen
- KI-Update kompakt: Claude 4, OpenAI München, Veo3, Wettervorhersage
- Datenschutz-Messenger: So entkommen Sie dem Meta AI-Ring von WhatsApp