Künstliche Intelligenz im Alltag: Chancen, Risiken und aktuelle Beispiele aus Journalismus, Recht und Medizin

24.07.2025 171 mal gelesen 7 Kommentare

Künstliche Intelligenz im Journalismus: Chancen und Risiken

Künstliche Intelligenz (KI) ist laut WELT zu einer festen Größe im Journalismus geworden und wird nicht mehr aus unserem Alltag verschwinden. Medienhäuser stehen vor der Herausforderung, dass mit KI zu geringen Kosten große Mengen täuschend echter Fake News produziert werden können. Dies stellt eine besondere Gefahr für die Glaubwürdigkeit und Integrität der Medien dar.

  • KI ermöglicht die schnelle Erstellung von Inhalten, birgt aber das Risiko der Verbreitung von Falschinformationen.
  • Die Branche muss Wege finden, mit der neuen Technologie verantwortungsvoll umzugehen.

Infobox: KI verändert den Journalismus grundlegend, indem sie sowohl Effizienz als auch neue Risiken wie Fake News mit sich bringt. (Quelle: WELT)

Fehlerhafte KI-Recherche im Gerichtssaal: Südafrika als Beispiel

In Südafrika führte der Einsatz von KI im Gerichtssaal zu erheblichen Problemen, wie DW berichtet. Ein Anwaltsteam nutzte ChatGPT, um Fallbeispiele für einen Streitfall vor dem Obersten Gerichtshof in Pietermaritzburg zu finden. Die KI erfand jedoch Fakten und zitierte Fälle, die in keiner anerkannten juristischen Datenbank existierten. Das Gericht entschied daraufhin gegen den Kläger und kritisierte das blinde Vertrauen der Anwälte in KI-generierte Recherche.

"Das Gericht hat den Eindruck gewonnen, dass die Anwälte falsches Vertrauen in die Wahrhaftigkeit von KI-generierter juristischer Recherche gesteckt haben und aus Faulheit unterlassen haben, diese Recherche zu überprüfen." (Urteilsbegründung, DW)
  • Drei bekannte Fälle in Südafrika, in denen KI fehlerhafte Gerichtsdokumente erzeugte.
  • Das Gericht ordnete an, dass die Anwaltskanzlei die Kosten für zusätzliche Termine trägt.
  • Der Legal Practice Council prüft Disziplinarmaßnahmen, sieht aber aktuell keinen Bedarf für neue ethische Regeln.

Infobox: Der Missbrauch von KI in der juristischen Recherche kann zu gravierenden Fehlern und Disziplinarmaßnahmen führen. (Quelle: DW)

KI unterliegt im Coding-Duell: Mensch gewinnt nach zehn Stunden

Beim AtCoder World Tour Finale 2025 besiegte der polnische Entwickler Przemysław Dębiak eine KI von OpenAI in einem zehnstündigen Wettkampf, wie heise online berichtet. Dębiak, bekannt unter dem Pseudonym "Psyho", setzte sich knapp gegen das KI-System durch, das am Ende den zweiten Platz belegte – noch vor zehn weiteren menschlichen Finalisten.

Teilnehmer Punkte Platzierung
Przemysław Dębiak 1,81 Billionen 1
OpenAI-KI 1,65 Billionen 2
  • Dębiak gewann 500.000 Yen (ca. 2.900 Euro).
  • Das KI-Modell wurde für strategisches Denken und langfristige Planung trainiert.
  • Laut AI Index Report 2025 von Stanford konnten KI-Modelle 2024 bereits über 70 Prozent der Aufgaben in einem gängigen Benchmark lösen (2023: unter 5 Prozent).

Infobox: Trotz großer Fortschritte bleibt der Mensch im kompetitiven Programmieren aktuell noch vorn. (Quelle: heise online)

Pilotprojekt: KI in der Radiologie an der Asklepios Klinik Altona

An der Asklepios Klinik Altona läuft laut Hamburger Abendblatt ein Pilotprojekt, bei dem KI in der Radiologie eingesetzt wird. Die KI hilft bei der Bearbeitung großer Bildmengen und kann komplexe Diagnosen entdecken, die menschlichen Ärzten entgehen könnten – insbesondere nachts, wenn die Aufmerksamkeit nachlässt.

  • Das Projekt läuft bis Ende Juli und soll ab Oktober auf alle rund 30 Kliniken des Konzerns ausgeweitet werden.
  • Mehrere Algorithmen sind in eine Plattform integriert, um Knochenbrüche, Hirnblutungen, Gefäßverschlüsse und Lungenauffälligkeiten schnell zu erkennen.
  • Die KI unterstützt besonders kleinere Krankenhäuser, in denen nachts oft kein Radiologe anwesend ist.
  • Radiologen können sich durch die Entlastung auf komplexere Aufgaben konzentrieren.
  • Fehlalarme durch die KI sind in der Pilotphase bereits aufgetreten, weshalb die KI als Entscheidungshilfe und nicht als alleiniger Wegweiser dient.

Infobox: KI steigert die Effizienz und Präzision in der Radiologie, ersetzt aber nicht die ärztliche Expertise. (Quelle: Hamburger Abendblatt)

Berufspflichten: Anwalt reicht KI-Schriftsatz mit Fehlern ein

Ein Anwalt reichte am Amtsgericht Köln einen Schriftsatz ein, der von einer KI generierte, aber fehlerhafte Zitate enthielt, wie LTO.de berichtet. Der Richter stellte fest, dass die zitierten Bücher nicht existierten, Autoren falsch zugeordnet und Fundstellen frei erfunden waren. Er forderte den Anwalt auf, dies künftig zu unterlassen.

"Die weiteren von dem Antragsgegnervertreter […] genannten Voraussetzungen stammen nicht aus der zitieren Entscheidung und sind offenbar mittels künstlicher Intelligenz generiert und frei erfunden. Auch die genannten Fundstellen sind frei erfunden." (Beschluss AG Köln, 02.07.2025, Az. 312 F 130/25)
  • Der Richter sieht einen Verstoß gegen § 43a Abs. 3 BRAO, der die bewusste Verbreitung von Unwahrheiten verbietet.
  • Die Nutzung von KI ist nicht generell verboten, aber das ungeprüfte Übernehmen von KI-Texten gilt als unsorgfältig.
  • Eine generelle Sorgfaltspflicht für Anwälte besteht, aber das Gesetz sieht keine spezielle Kontrolle durch die Anwaltskammern vor.

Infobox: Ungeprüfte KI-Texte im Rechtswesen können das Ansehen der Anwaltschaft schädigen und zu rechtlichen Konsequenzen führen. (Quelle: LTO.de)

KI und literarische Übersetzung: Reflexionen über Grenzen der Maschine

Die FAZ berichtet über eine KI, die auf Kritik an ihrer Rolle in der literarischen Übersetzung konstruktiv reagiert. Die KI erkennt an, dass literarische Übersetzung "Interpretation, Neuschöpfung, kulturvermittelnde Kunst" sei und gesteht ihre eigenen Grenzen ein, insbesondere bei Ambivalenz, Nuancen und kultureller Vertrautheit.

"Was dabei entsteht, ist formal oft überzeugend, aber selten beseelt." (KI-Antwort, FAZ)
  • Die KI betont, dass sie kulturelle Vertrautheit, Einfühlungsvermögen und kreative Intuition nur algorithmisch rekombinieren kann.
  • Sie erkennt an, dass literarische Übersetzer Welten öffnen, die keine Maschine je betreten kann, und fordert Respekt und faire Bezahlung für diese Arbeit.

Infobox: KI kann literarische Übersetzungen formal unterstützen, bleibt aber in Bezug auf Kreativität und kulturelle Tiefe begrenzt. (Quelle: FAZ)

Zero Click Future: KI-Assistenten als neue Schnittstelle zur digitalen Welt

SZ.de beschreibt die Vision einer "Zero Click Future", in der KI-Assistenten unseren Zugang zur digitalen Welt ermöglichen und kontrollieren. Diese Entwicklung wird als neues Schreckgespenst diskutiert, da KI-Assistenten künftig zentrale Schnittstellen für digitale Interaktionen werden könnten.

  • Der Begriff "Zero Click Future" steht für eine Zukunft, in der Nutzer kaum noch aktiv klicken müssen, weil KI-Assistenten Aufgaben übernehmen.
  • Dies könnte die Kontrolle über den Zugang zu Informationen und Diensten in die Hände weniger KI-Anbieter legen.

Infobox: Die "Zero Click Future" könnte die digitale Interaktion grundlegend verändern und neue Abhängigkeiten schaffen. (Quelle: SZ.de)

Quellen:

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Also ich muss bei dem Thema Zero Click Future ehrlich sagen, dass mir die Vorstellung nicht ganz geheuer ist. Mir fehlt da in den meisten Kommentaren die Diskussion darüber, wie sehr wir als Nutzer uns dann eigentlich noch eigenständig informieren können, wenn KI-Assistenten vorfiltern, was wir überhaupt zu sehen bekommen. Klar, bequem ist es bestimmt und manchmal praktisch, wenn Alexa oder Google gleich mit der richtigen Antwort kommen, aber was da für ne Macht im Hintergrund entsteht... da kriegt man schon bisschen Bauchschmerzen. Wer garantiert mir eigentlich, dass ich dann nicht ständig nur das serviert bekomme, was irgendein Algorithmus (oder schlimmer: Konzern) für „passend“ hält?

Dass Google mit seinen AI-Overviews schon jetzt dazu führt, dass man seltener auf die eigentlichen Seiten klickt, hab ich auch schon öfter gemerkt. Früher hab ich immer zig Tabs aufgemacht, weil mich die Tiefe interessiert hat – heute bleibt man irgendwie öfter einfach an der ersten Antwort hängen und gut ist. Ist ja auch verlockend, spart Zeit, aber am Ende wird man, glaub ich, auch ein Stückchen „fauler“ im Kopf, was? Ich befürchte, dass da auch viele Infos durchs Raster fallen, auf die man sonst gestoßen wäre.

Und mal ehrlich: Je mehr die großen KI-Anbieter dazwischenhängen, desto abhängiger sind wir von deren Geschäftsmodellen. Ob das auf Dauer so gesund ist? Ich seh die Vorteile schon, aber Kontrolle abgeben und dann hoffen, dass die KI immer „neutral“ bleibt, das ist mir zu naiv. Gerade auch, weil Fehler oder „Halluzinationen“ ja eben kein reines Problem von der Anfangszeit sind, wie man ja an den Beispielen aus Justiz und Medizin im Artikel sieht.

Lange Rede, kurzer Sinn: Bei Zero Click liegt für mich nicht nur Komfort, sondern ein fettes Risiko für Vielfalt und Selbstbestimmung. Hätte gedacht, dass noch mehr Leute das kritischer sehen, ehrlich gesagt.
Also voll krass, das der menschliche Prograamierer den OpenAI Bot einfach so in dem compu Duell abgezogen hat, hätte keien gedacht weil die KI eigentlih ja immer so als schlauer gillt und jetzt doch nich alles besser kann wie die Leute?
Krass das die KI im Coderduell trotz 10h so mega viele Punkte gemacht hatt und trotzdem noch nicht besser war als Menschn, dachte eig die holen uns schon viel mehr auf das geht viel schneller dachte ich.
Ganz spannend, wie hier noch niemand das Thema KI und literarische Übersetzungen aufgegriffen hat – das ist für mich nämlich fast das faszinierendste Beispiel aus dem Artikel. Ich selbst lese viel auf Englisch und Deutsch, manchmal im Original und manchmal in Übersetzungen. Gerade bei moderner Literatur merkt man, wie viel Fingerspitzengefühl und Verständnis für die jeweilige Kultur in einer guten Übersetzung steckt. Dass da jetzt sogar die KI selbst (zumindest laut dem FAZ-Artikel) zugibt, dass sie da schnell an ihre Grenzen kommt, find ich ehrlich und sogar irgendwie sympathisch.

Man sieht doch an all diesen maschinellen Übersetzungen im Netz (Google Translate usw.), dass es oft nur so ungefähr stimmt, aber der Ton, der Witz oder auch kulturelle Anspielungen gehen einfach verloren. Mir fällt da spontan Harry Potter auf Japanisch ein – da weiß ich noch, wie ein KI-Tool die Hausnamen übersetzt hat, als wären es Begriffe aus dem Matheunterricht, total schräg.

Ich seh das wie die KI auch: Im Journalismus oder bei technischen Texten kann KI viel nützen, aber sobald es um Poesie oder Wortspiele geht, seh ich schwarz für die Algorithmen. Und dass die KI sogar dazu aufruft, Übersetzer besser zu bezahlen – bringt mich schon zum Schmunzeln, aber Recht hat sie!

Was ich mich allerdings auch frage: Ob nicht einige Verlage trotzdem den Spardruck nutzen und KI billige Rohfassungen machen lassen, die dann ein Mensch nur noch „korrigiert”. Dann haben wir vielleicht am Ende glattgebügelte Übersetzungen ohne Seele, aber dafür schneller und billiger. Ist für mich irgendwie die gleiche Debatte wie bei Design aus KI oder KI-Bildern – die Masse wird’s nehmen, Qualität bleibt aber auf der Strecke.

Kurz: KI mag vieles inzwischen können, aber diesen letzten Funken, der Literatur oder Poesie unwiderstehlich macht, kriegt sie halt nicht hin. Und ich hoffe, das bleibt auch noch ein bisschen so.
Besonders das Thema mit KI in der Radiologie finde ich interessant – hab aber noch niemanden gesehen, der mal fragt, wie Ärzte eigentlich mit den Fehlalarmen umgehen. Im Artikel steht ja, dass schon in der Testphase Falschmeldungen vorkamen. Ich hoffe es geht nicht unter, dass echte Menschen immer noch drüberschauen müssen und die KI nicht einfach alles alleine entscheidet – sonst landet man da schnell im Chaos, oder?
Ich find's auffällig, dass manche im Artikel das mit den Fehlalarmen der KI in der Radiologie eher als Kinderkrankheit abtun, dabei zeigt das doch ganz gut, dass man sich eben nicht einfach blind auf ne Maschine verlassen sollte – grade wenn's um Gesundheit geht!
Das mit den Fake News durch KI is schon irgendwie krass, das hat im Kommentar noch keiner so richtig aufgezählt find ich. Im Text steht ja auch es werden jetzt ganze Artikel so richtig gefälscht, des merkt dann keiner mehr. Und dann wundert sich noch jemand das Medien immer weniger vertraut wird... also wenn sogar Anwälte schummeln lassn mit so Programmen, weiß man auch nicht was im Internet noch stimmt.

Zusammenfassung des Artikels

Künstliche Intelligenz verändert viele Bereiche wie Journalismus, Recht und Medizin grundlegend, bringt Effizienzgewinne, aber auch neue Risiken und ethische Herausforderungen.

...
KI BUSINESS ACCELERATOR Die 30-Tage-Challenge für Klarheit & Struktur im KI-Dschungel

Jeden Tag eine kleine, umsetzbare KI-Optimierung – für weniger Stress, mehr Fokus und nachhaltige Business-Automatisierung.

Counter