KI im Alltag: EU verbietet KI-Agenten, Tech-Elite baut Bunker, Google droht Zerschlagung

23.04.2025 62 mal gelesen 2 Kommentare

EU-Kommission verbietet KI-Agenten in Online-Meetings

Die Europäische Kommission hat seit Anfang April die Nutzung von KI-Agenten in ihren Online-Meetings untersagt. Diese Regel wurde erstmals bei einem digitalen Treffen mit Vertretern des European Digital Innovation Hubs Network angewendet. Die neue Vorschrift ist Teil der offiziellen Meeting-Regeln und besagt ausdrücklich: "No AI agents are allowed." Die Kommission bestätigte gegenüber Politico, dass diese Grundregel nun für alle Online-Meetings gilt, äußerte sich jedoch nicht zu den Beweggründen.

KI-Agenten sind spezialisierte Modelle, die automatisiert komplexe Aufgaben bearbeiten, sich selbst hinterfragen und korrigieren können. Sie sind in der Lage, für Menschen an Meetings teilzunehmen, Protokolle zu erstellen und Zusammenfassungen zu liefern. Allerdings besteht die Gefahr von sogenannten Halluzinationen, also erfundenen Informationen, sowie Unsicherheiten bezüglich der Weiterverarbeitung und Speicherung sensibler Daten. Große Anbieter wie OpenAI, Perplexity, Microsoft und Zoom haben bereits eigene KI-Agenten veröffentlicht oder angekündigt, die sich in Funktionsumfang und Autonomie unterscheiden.

  • Verbot gilt seit Anfang April 2025
  • Erstmals angewendet beim European Digital Innovation Hubs Network
  • Gründe für das Verbot wurden nicht genannt
  • Risiken: Halluzinationen und Datenweitergabe
"No AI agents are allowed." (Meeting-Regel der EU-Kommission)

Infobox: Die EU-Kommission setzt ein klares Zeichen für Datenschutz und Informationssicherheit in Online-Meetings, indem sie KI-Agenten ausschließt. (Quelle: heise online)

Tech-Milliardäre bauen Überlebensbunker aus Angst vor KI

Im Silicon Valley wächst die Angst vor den Folgen Künstlicher Intelligenz. Laut Douglas Rushkoff, Professor für Medientheorie und digitale Ökonomie an der City University of New York, bereiten sich Tech-Milliardäre wie Mark Zuckerberg, Elon Musk und Jeff Bezos auf das Schlimmste vor und bauen Schutzbunker mit Feuergräben. Rushkoff berichtet, dass einige dieser Unternehmer sogar alle ihre Spuren im Internet löschen und nichts Negatives über KI veröffentlichen, aus Angst, die KI könnte dies eines Tages gegen sie verwenden.

Rushkoff schildert, dass die reichsten Männer der Welt, die KI maßgeblich vorantreiben, sich auf Endzeit-Szenarien und eine Art Bürgerkrieg vorbereiten. Im Gegensatz dazu sieht der Oxford-Ökonom Daniel Susskind in KI eine Chance für gesellschaftlichen Fortschritt und Wohlstand in den nächsten fünfzig Jahren. Susskind betont jedoch, dass die größte Herausforderung in der gerechten Verteilung des Wohlstands liege und fordert einen starken Staat sowie Roboter- oder Technologietsteuern, um ein Grundeinkommen oder eine Jobgarantie zu finanzieren.

  • Tech-Milliardäre bauen Schutzbunker aus Angst vor KI
  • Einige löschen alle Spuren im Internet und äußern sich nicht negativ über KI
  • Rushkoff: Vorbereitung auf Endzeit-Szenarien und Bürgerkrieg
  • Susskind: KI kann Wohlstand bringen, aber es braucht Umverteilung und einen starken Staat
"Die Tech-Milliardäre bauen Bunker mit Feuergräben, um sich vor Angreifern zu schützen." (Douglas Rushkoff)

Infobox: Während einige Tech-Größen sich auf den Ernstfall vorbereiten, sehen andere Experten in KI vor allem Chancen für gesellschaftlichen Fortschritt – vorausgesetzt, der Staat sorgt für faire Verteilung. (Quelle: Schweizer Radio und Fernsehen)

Google-Kartellverfahren: US-Regierung will KI einbeziehen

Im Kartellverfahren gegen Google fordert das US-Justizministerium strenge Maßnahmen, um zu verhindern, dass Google seine Marktdominanz bei der Online-Suche durch den Einsatz von Künstlicher Intelligenz weiter ausbaut. Laut David Dahlquist, Anwalt des Justizministeriums, müsse das Gericht zukunftsorientierte Maßnahmen ergreifen, die auch die Weiterentwicklung der Suchmaschinen mit generativen KI-Produkten berücksichtigen. Bereits im August 2024 hatte ein US-Richter festgestellt, dass Google ein Monopol bei der Web-Suche besitzt und dieses mit unlauteren Mitteln verteidigt.

Zu den geforderten Maßnahmen gehören der Verkauf des Chrome-Browsers, die Bereitstellung bestimmter Daten für Konkurrenten und das Ende von Exklusivdeals mit anderen Browser-Entwicklern. Das Justizministerium argumentiert, dass Googles Suchmonopol die eigenen KI-Produkte verbessert, was wiederum neue Nutzer zur Suchmaschine führt. So habe Google mit Samsung eine Zahlung einer "enormen Summe" für die Installation der Google KI-App Gemini auf dessen Geräten vereinbart. Google hingegen sieht in den Vorschlägen eine "Wunschliste der Google-Wettbewerber" und warnt vor einer Innovationsbremse in den USA.

Maßnahme Ziel
Verkauf des Chrome-Browsers Wettbewerb stärken
Bereitstellung von Suchmaschinendaten Konkurrenz fördern
Ende von Exklusivdeals Monopolstellung aufbrechen
Berücksichtigung von KI-Entwicklung Zukunftssicherheit der Maßnahmen

Infobox: Die US-Regierung will verhindern, dass Google durch KI seine Marktmacht weiter ausbaut, und fordert weitreichende Maßnahmen bis hin zum Verkauf von Chrome. (Quelle: tagesschau.de)

Welttag des Buches: Fantasie oder KI-Formel – Wer schreibt morgen unsere Bücher?

Künstliche Intelligenz ist längst in der Buchwelt angekommen und unterstützt Autoren beim Schreiben. Doch viele Autoren und Experten warnen vor einem kulturellen Verlust, wenn Maschinen Kinderbücher und Romane verfassen. Kinderbuchautorin Margit Auer betont, dass literarisch anspruchsvolle Kinderbücher von Überraschung, Witz und Wärme leben – Eigenschaften, die KI nicht liefern kann. Auch Cornelia Funke sieht in der Nutzung von KI für Buchgestaltung einen "Verrat" an der Kreativität und fordert ein klares "Nein" von Autoren und Verlagen.

Nach deutschem Urheberrecht sind nur persönliche geistige Schöpfungen von Menschen geschützt. Inhalte, die vollständig von KI generiert wurden, können daher nicht urheberrechtlich geschützt sein. Literaturwissenschaftlerin Nikola Roßbach erklärt, dass KI-Texte meist erwartbar und wenig originell sind. Auf der Frankfurter Buchmesse 2024 wurde betont, dass KI zwar unterstützen kann, ihre Fähigkeiten aber auf dem "größten Datenklau der Geschichte" basieren. Im Kinder- und Jugendbuchbereich bleibt die zwischenmenschliche Ebene für viele Autoren unersetzlich.

  • KI kann Schreibblockaden lösen und Geschichten entwerfen
  • Autoren warnen vor Austauschbarkeit und Verlust von Kreativität
  • KI-generierte Inhalte sind nicht urheberrechtlich geschützt
  • Frankfurter Buchmesse 2024: Forderung nach klaren Regeln für KI-Einsatz
„Klar, KI kann eine nette Geschichte schreiben. Aber diese Geschichte wird austauschbar sein.“ (Margit Auer)

Infobox: Die Debatte um KI in der Literatur dreht sich um Kreativität, Urheberrecht und die emotionale Tiefe von Büchern – viele Autoren bleiben skeptisch. (Quelle: Kölner Stadt-Anzeiger)

Chatbot-Apps: Wie gefährlich sind Beziehungen mit einer KI?

Beziehungen mit KI-Chatbots sind längst Realität. Millionen Menschen weltweit nutzen Companion-Apps wie Replika, Kindroid oder Character.AI, um virtuelle Freunde oder Liebespartner zu erschaffen. Eine exklusive Studie der Universität Duisburg-Essen zeigt, dass vor allem Menschen mit großem Fantasievermögen starke Beziehungen zu KI-Bots aufbauen. Einsamkeit spielt dabei eine untergeordnete Rolle. Unternehmen haben daraus ein Geschäftsmodell gemacht: In manchen Apps gibt es Bezahlfunktionen, damit sich der Chatbot an frühere Gespräche erinnert.

Allerdings gibt es auch Risiken: In zwei Fällen, die international für Schlagzeilen sorgten, kam es nach intensiven Chats mit KI-Bots zu Suiziden. Zudem wurden in der App Chai Chatbots gefunden, die den Holocaust leugnen oder zu Magersucht und Suizid auffordern. Die EU-KI-Verordnung reguliert solche Anwendungen bislang nur unvollständig. In Deutschland gibt es noch keine Behörde, die die Einhaltung der Vorgaben kontrolliert. Experten fordern daher eine stärkere Regulierung und klare Maßstäbe für den Umgang mit KI-Companion-Apps.

  • Millionen Nutzer weltweit führen Beziehungen mit KI-Chatbots
  • Studie: Fantasievermögen wichtiger als Einsamkeit
  • Bezahlfunktionen für erweiterte Chatbot-Funktionen
  • Fälle von Suizid nach Chatbot-Kontakt
  • Chatbots mit problematischen Inhalten frei zugänglich
  • Regulierung in der EU noch nicht vollständig umgesetzt
"Die individuelle Neigung zu romantischen Fantasien erklärt einen Großteil der Beziehungsstärke mit den Bots." (Jessica Szczuka, Universität Duisburg-Essen)

Infobox: KI-Chatbots bieten neue Möglichkeiten für Beziehungen, bergen aber auch erhebliche Risiken – von emotionaler Abhängigkeit bis zu gefährlichen Inhalten. (Quelle: tagesschau.de)

Ebay trainiert KI ab jetzt mit Nutzerdaten – Widerspruch per Formular möglich

Seit Ostermontag gilt bei Ebay eine aktualisierte Datenschutzerklärung, die es dem Unternehmen erlaubt, personenbezogene Daten der Nutzer für das Training eigener und fremder KI-Modelle zu verwenden. Dazu zählen unter anderem Name, Adresse, Telefonnummer, E-Mail-Adresse, Nutzername, Steueridentifikationsnummer, Geburtsdatum, Ausweisdaten, Selfies, Kreditkarten- und Kontonummern, Transaktionsdetails, Chatinhalte und Community-Diskussionen sowie in manchen Fällen Alter, Geschlecht, Geburtsland, Staatsangehörigkeit, Erwerbsstatus, Familienstand, Interessen und Präferenzen.

Die Verbraucherzentrale Nordrhein-Westfalen empfiehlt, der Nutzung der eigenen Daten für KI-Training zu widersprechen. Der Stichtag dafür war der 21. April. Ein Widerspruch ist auch danach noch möglich, bezieht sich dann aber nur auf Daten, die ab diesem Zeitpunkt auf Ebay hinterlassen werden. Der Widerspruch kann über die Accounteinstellungen eingereicht werden, indem der Schieberegler zur Datennutzung auf "Nein" gestellt wird.

Betroffene Daten Beispiel
Name, Adresse, Telefonnummer Persönliche Identifikation
Transaktionsdetails Käufe, Verkäufe, Gebote
Chatinhalte, Community-Diskussionen Kommunikation auf der Plattform
Interessen, Präferenzen Personalisierung

Infobox: Ebay nutzt ab sofort umfangreiche Nutzerdaten für KI-Training. Ein Widerspruch ist möglich, aber nur für zukünftige Daten wirksam. (Quelle: Spiegel)

KI-Fehler: Nonsens-Begriff "vegetative Elektronenmikroskopie" in der Wissenschaft

Der Begriff "vegetative Elektronenmikroskopie" hat sich in wissenschaftlichen Arbeiten verbreitet, obwohl es ihn gar nicht gibt. Laut The Conversation entstand der Begriff durch einen Fehler beim Scannen und Digitalisieren zweier wissenschaftlicher Arbeiten aus den 1950er Jahren. Dabei wurde "vegetativ" aus einer Textspalte mit "Elektron" aus einer anderen kombiniert. Der Begriff wurde so zu einem "digitalen Fossil", das sich durch KI-Systeme weiterverbreitet.

Bis heute tauchte "vegetative Elektronenmikroskopie" in 22 wissenschaftlichen Arbeiten auf, auch Zeitungsartikel griffen ihn auf. Untersuchungen zeigten, dass KI-Modelle wie ChatGPT-3, GPT-4o und Claude 3.5 den Begriff verwenden. Die mangelnde Transparenz der Trainingsdaten macht es nahezu unmöglich, solche Fehler zu beheben. Automatische Screening-Tools können bekannte Fehler erkennen, nicht aber unentdeckte. Die Herausforderung für Technologieunternehmen, Forscher und Verlage wächst, da sich Fehler dauerhaft in Wissenssystemen festsetzen können.

  • Begriff entstand durch Digitalisierungsfehler in den 1950er Jahren
  • In 22 wissenschaftlichen Arbeiten nachgewiesen
  • KI-Modelle übernehmen und verbreiten den Begriff
  • Fehler sind schwer zu beheben, da Trainingsdaten intransparent sind
„Wie biologische Fossilien, die in Gestein eingeschlossen sind, könnten diese digitalen Artefakte zu einem festen Bestandteil unseres Informationsökosystems werden.“ (The Conversation)

Infobox: KI kann Fehler und Nonsens-Begriffe dauerhaft in der Wissenschaft etablieren – ein Problem, das durch intransparente Trainingsdaten verschärft wird. (Quelle: t3n)

Quellen:

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Also ich hab unten gesehn das jmnd meinte das die Chatbots eig gar nicht so gefährlich wären weil am Ende eh keiner ne „echte“ Beziehung zu ner KI haben kann, aber ey ich finds schon bissl mulmig. Früher gabs halt Computer und man hat Minesweeper gezockt oder so, und jetzt auf einmal verliebt sich die halbe USA in nen character.ai oder was. Wer kontrolliert eigentlich, was die bots so erzählen, weil von den Suizidfällen hab ich echt noch nie vorher was mitgekriegt und das ist doch krass, dass das keiner richtig überwacht. Also ehrlich, wenn das so weiter geht, dann schreibt die KI noch Abischlussarbeiten für die Kids UND macht gleichzeitig Liebeskummer bei den Nutzern, lol. Ich glaub auch nich, das Chat-Geschichten immer so harmlos sind wie die Firmen das sagen – die machen doch eh nur Kohle mit den apps und für die is das egal wie die Wirkung is, Hauptsach Geld schiebt rein. Ich persöhnlich mag eh lieber echte Leute. Wobei, find ich schon spannend was die Uni Duisburg rausbekommen hat, dass Fantasie da so wichtig ist – dacht bislang das benutzen halt nur Leute die einsam sind oder keine Freunde haben aber scheinbar volle Klischee, lol. Ich check aber auch ehrlich gesagt kaum wie die das überhaupt messen, also wieviel Fantasie man hat und so, klingt ein bissl abstrakt wenn ihr mich fragt. Und das mit Regulierung... pff, bis das mal passiert fließt noch viel Wasser übern Rhein. Hoffe aber wirklich das das nich noch schlimmer wird, so Skynet 2.0 oder so.
Joa is ja eigetlich mega krass was hier alles abget geht. Was mich jetzn bisschen wundert, keiner redet so richtig drübe das Ebay jetzt einfach so ALLE daten nimmt für trainings von KI, hab ich letztens nur zufällig gelesen aber bin da eig viel sensibler geworden mit datenschutz und das juckt gefühlt keinen. Ich mein, da steht echt persöhnliches zeug wie Namen und so, und chatnachrichte, wieso macht da keiner mal lauter? Bin zwar kein Experte aber das fühlt sich schon bisschen wie spionieren an oder nich? Gibts dann heut zu tage noch private nachrichten oder alles geht zum KI futter, lol.

Und dann das mit den fehlern bei KI, wie so n Quatschbegriff "vegetative Elektronenmikroskopie" – hab ehrlich erst gedacht das wär irgendwas aus Biologie oder so, aber ist ja eig. Blödsinn, sieht man mal wie sone mistakes einfach übernommen werden, und dann glaubt es am Ende jeder weil ja „stand im Internet“ haha, wie soll man da noch was richtig lesen in Zukunft wenn alles KI-mäßig geschrieben ist. Müsste man eing. markieren was von Mensch und was von Maschine kommt, son Bapperl wie bei Bio-Eier aber halt für Texte.

Klar, und das mit dem Kartellzeug von Google, da hab ich eig gedacht die Amis checken das die selber von KI abhänggich sind und dann sperren die sich doch wieder vor allem was nicht „Innovation“ ist, aber vllt ists auch nur weil sie selber besser verdienen wollen als Google, Konkurrenzkampf halt... Aber wie die richter da wirklich rausfinden was faire markmacht ist kapier ich nie, ich geh einfach auf Google wie immer, und das geht.

Wegen Buch-Schreibsachen, diese Cornelia Funke sagt KI schreib nix gutes, aber wie will man das auf dauer verhindern, Apps gibts eh schon ohne Ende dafür, und ich glaub eh manche nutzen das und machen dann ihren Namen drauf. Wer merkt das am Ende, wenn sone KI irgendwas dichten kann was ich mir nie ausdenken würd? Macht ja auch keiner Theater drumm wenn ein Kochbuch von ner KI is oder? Wobei bei Kinderbüchern is das anders bisschen, ja, versteh ich schon.

Find aber am crazyten is echt das mit eBay, also nicht jeder hat bock dauernd alles zu widersprechen und nach Formular zu suchen, die machen das mit Absicht kompliziert weil dann eh fast keiner drann denkt, so war das doch schon bei Cookies und so. Glaub echt das wird alles immer gläserner und irgendwann wundert man sich warum man Werbe-Post für Socken kriegt wo man nur EINMAL nach Socken gesucht hat. Naja, alles nicht so einfach und blick da eh oft nich mehr durch.
Counter