KI rettet Leben, verändert Bildung und Arbeitswelt: Chancen, Risiken und neue Trends

26.04.2025 32 mal gelesen 1 Kommentare

Künstliche Intelligenz rettet Vierjährige vor dem Ertrinken

Im Vitus-Bad in Everswinkel kam es an den Ostertagen zu einem dramatischen Zwischenfall: Ein vierjähriges Mädchen trieb regungslos unter Wasser. Dank eines KI-Systems, das Livebilder von 14 Kameras auswertet, wurde sofort Alarm ausgelöst. Schwimm-Meister Linus Kock reagierte umgehend, zog das Mädchen aus dem Wasser und leitete mit einem weiteren Besucher die Wiederbelebung ein. Das Kind kam schnell wieder zu Bewusstsein und war nach einem kurzen Krankenhausaufenthalt wohlauf.

Die KI erkennt typische Bewegungsmuster bei Notfällen und schlägt über vernetzte Smartwatches Alarm, wobei auch der genaue Notfallbereich übermittelt wird. Die Installation des Systems, entwickelt von einem israelischen Hersteller, kostete die Gemeindewerke Everswinkel 80.000 Euro. Trotz der Unterstützung durch die KI bleibt die Wachsamkeit des Personals unerlässlich, da nicht alle Unfälle, wie etwa Stürze von der Rutsche, erkannt werden können.

  • KI wertet Livebilder von 14 Kameras aus
  • Alarmierung über Smartwatches
  • Kosten: 80.000 Euro
  • Entwickler: Hersteller aus Israel
„In solchen Fällen können wenige Sekunden den Ausschlag geben“, betont Schwimm-Meister Linus Kock.

Infobox: Die KI im Vitus-Bad Everswinkel hat nach Angaben des WDR maßgeblich zur Rettung eines Kindes beigetragen. Die Technik ergänzt, ersetzt aber nicht die Aufmerksamkeit des Personals. (Quelle: WDR)

Hausarbeiten mit ChatGPT: Neue Regeln an bayerischen Universitäten

Die Universität Bamberg überlässt die Entscheidung über den Einsatz von KI in Hausarbeiten den Lehrenden, da die Erkennung von KI-Nutzung bei unbeaufsichtigten Prüfungen laut eigener Aussage ein „Wettlauf, den Lehrende kaum gewinnen können“, ist. Statt auf Detektivarbeit zu setzen, empfiehlt die Universität einen kompetenzorientierten Ansatz, etwa durch mündliche Ergänzungsprüfungen.

Auch die Ludwig-Maximilians-Universität München (LMU) setzt auf Transparenz: Studierende müssen den Einsatz von KI-Tools in ihren Arbeiten kennzeichnen, andernfalls gilt dies als Täuschungsversuch. In manchen Fächern ist die Nutzung von KI sogar fester Bestandteil des Lehrprogramms. Bayerns Wissenschaftsminister Markus Blume will ein generelles KI-Verbot in Prüfungsordnungen untersagen und spricht von einem „Verbot verbieten“.

In Europa gibt es ähnliche Entwicklungen: An der FH Wien der WKW wird ab Herbst 2024 die klassische Bachelorarbeit im Studiengang Management und Entrepreneurship durch einen dreisemestrigen Prozess mit Peer-Präsentationen ersetzt. Die Wirtschaftsuniversität Prag (VŠE) schafft die Bachelorarbeit für Erstsemester ab dem Semester 2024/2025 komplett ab und setzt auf ein praktisches Abschlusskonzept.

  • 94 Prozent der mit KI geschriebenen Prüfungsantworten blieben laut einer Studie unentdeckt
  • Transparenzpflicht an der LMU München
  • Abschaffung der klassischen Bachelorarbeit an der FH Wien der WKW und der VŠE Prag
„Ein generelles Verbot von Künstlicher Intelligenz in Prüfungsordnungen macht keinen Sinn. Wir wollen quasi das Verbot verbieten“, so Markus Blume (CSU).

Infobox: Bayerische Hochschulen setzen auf Transparenz und Kompetenzorientierung statt auf Verbote. Die Nutzung von KI in Prüfungen wird zunehmend akzeptiert, sofern sie offen deklariert wird. (Quelle: BR)

KI im Strafverfahren: Rechtliche Unsicherheiten bei Gesichtserkennung

Das Bundeskriminalamt nutzt seit 2008 die Software „GES“ zur Gesichtserkennung, die einen Abgleich gegen eine Million Einträge in weniger als einer Sekunde ermöglicht. Moderne KI-Systeme können heute hunderte Gesichtsmerkmale in Echtzeit analysieren, auch bei schlechten Lichtverhältnissen oder teilweiser Verdeckung. Die Qualität der Ergebnisse hängt jedoch stark von den Trainingsdaten ab, was zu höheren Fehlerquoten bei Frauen, People of Color und nicht-binären Personen führen kann.

Der Einsatz von KI zur Strafverfolgung ist rechtlich problematisch. Die europäische Datenschutzrichtlinie (RL 2016/680/EU) und das Bundesdatenschutzgesetz (§§ 45 ff. BDSG) stellen hohe Anforderungen an den Schutz biometrischer Daten. Die neue EU-KI-Verordnung unterscheidet zwischen Hochrisiko-KI und grundsätzlich verbotener Echtzeitidentifikation, die nur bei besonders schweren Straftaten zulässig ist. Eine spezifische Rechtsgrundlage für den Einsatz von KI-Gesichtserkennung in der Strafprozessordnung (StPO) fehlt bislang. Der Entwurf eines § 98d StPO im Sicherheitspaket 2024 genügt den Anforderungen nicht vollständig.

Technik Rechtliche Grundlage Risiken
GES-Software seit 2008 RL 2016/680/EU, BDSG, keine explizite StPO-Regelung Diskriminierung, Intransparenz, Grundrechtseingriff
„Der Gesetzgeber ist gefordert, eine taugliche Rechtsgrundlage zu schaffen, die den Anforderungen der KI-Verordnung, der Datenschutzrichtlinie, des Grundgesetzes und der Rechtsprechung des Bundesverfassungsgerichts gerecht wird.“ (Prof. Dr. Christian Rückert)

Infobox: Der Einsatz von KI-Gesichtserkennung in Strafverfahren ist technisch möglich, aber rechtlich bislang nicht ausreichend geregelt. Es besteht dringender gesetzgeberischer Handlungsbedarf. (Quelle: LTO.de)

KI als Lügendetektor: Chancen und Risiken im Alltag

KI-gestützte Lügenerkennung ist bereits Realität. An der Universität Würzburg wurde ein KI-Modell auf Basis von Google BERT entwickelt, das in Studien eine Trefferquote von rund 66 Prozent bei der Erkennung von Unwahrheiten erreichte. Zum Vergleich: Menschliche Beurteilungen liegen im Schnitt bei etwa 50 Prozent. Die Layered Voice Analysis (LVA) der Firma Nemesysco wird weltweit von Strafverfolgungsbehörden und Versicherungen eingesetzt und analysiert emotionalen Stress in der Stimme.

Rhetorikexperte Michael Ehlers warnt vor dem Einsatz solcher Systeme im Alltag, etwa in Meetings oder Bewerbungsgesprächen. Die Gefahr liege vor allem in der heimlichen Analyse, da Betroffene keine Möglichkeit zur Reaktion oder Erklärung haben. Zudem könnten Unternehmen und Politiker ihre Kommunikation künftig auf KI-Algorithmen zuschneiden, was zu einer Verarmung der Sprache führen könnte.

  • KI-Modell (Google BERT) mit 66 Prozent Trefferquote
  • Menschliche Beurteilung: ca. 50 Prozent
  • LVA wird weltweit von Behörden und Versicherungen genutzt
„Die größte Gefahr ist nicht, dass eine KI eine Lüge entdeckt. Die größte Gefahr ist, dass sie entscheidet, was eine Lüge ist. Ohne Kontext. Ohne Empathie. Ohne Nachfragen.“ (Michael Ehlers)

Infobox: KI kann Hinweise auf Unwahrheiten liefern, aber keine absolute Wahrheit erkennen. Transparenz und ethische Standards sind beim Einsatz solcher Systeme unerlässlich. (Quelle: FOCUS online)

Künstliche Intelligenz im Mittelstand: Chancen und Hürden

Obwohl Künstliche Intelligenz bereits ganze Branchen umkrempelt, zögern viele mittelständische Unternehmen in Deutschland noch, verstärkt auf KI zu setzen. Die Hürden erscheinen hoch, die Vorteile oft wenig greifbar. Dennoch zeigen konkrete Anwendungsfälle, dass Unternehmen, die den Schritt wagen, profitieren können. KI kann helfen, interne Daten effizienter zu nutzen, Prozesse zu automatisieren und neue Geschäftsmodelle zu erschließen.

  • KI revolutioniert Branchen und Arbeitsprozesse
  • Mittelstand zögert noch beim Einsatz
  • Konkrete Anwendungsfälle zeigen Vorteile

Infobox: Der Mittelstand steht vor der Herausforderung, die Potenziale von KI zu erkennen und umzusetzen. Wer investiert, kann sich Wettbewerbsvorteile sichern. (Quelle: Deutschlandfunk)

#StarterPackNoAI: Künstler setzen Zeichen gegen KI-generierte Kunst

Ein neuer Trend auf Social Media: ChatGPT-generierte Bilder von Menschen als Spielzeugfiguren verbreiten sich rasant. Viele Illustratoren und Künstler reagieren mit dem Hashtag #StarterPackNoAI und präsentieren handgezeichnete Alternativen, um ein Zeichen gegen synthetische Kunst zu setzen. Die Münchner Zeichnerin Coline Eberhard betont, dass die Bewegung für Kreativität und Individualität steht. Auch Illustrator Christian Schwager hebt die Vielfalt menschlicher Starterpacks im Vergleich zu den austauschbaren KI-Bildern hervor.

Sophie Boner aus München sieht den Charme von Kunst in der menschlichen Seele, dem Gedanken und der Liebe, die in ein Werk einfließen. Sie glaubt nicht, dass KI ihren Job unmittelbar bedroht, sieht aber die Gefahr, dass KI für günstigere, aber qualitativ schlechtere Werbezwecke eingesetzt wird.

  • Handgezeichnete Starterpacks als Gegenbewegung zu KI-Bildern
  • Betonung von Individualität und Vielfalt
  • Kritik an der Austauschbarkeit und optischen Qualität von KI-Kunst
„Das #StarterpacknoAi ist für mich ein wunderschöner Wind von Kreativität. Am liebsten mag ich die rohen, punkigen Bilder: Einfache Linien, Stift und Papier. Sie schreien 'das bin ich'.“ (Coline Eberhard)

Infobox: Künstlerinnen und Künstler setzen mit #StarterPackNoAI ein Zeichen für die Wertschätzung menschlicher Kreativität und gegen die Uniformität KI-generierter Kunst. (Quelle: BR)

Quellen:

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Ich glaub also eine KI kann doch gar kein echtes Gesicht erkennen weil das ja immer anders aussieht auf Bildern oder im echten Lich und das mit dem Datenschutz blick ich auch nie so richtig, früher hats das auch nicht gebraucht ohne alles digital.
Counter