KI im Alltag: EU verbietet KI-Agenten, Tech-Elite baut Bunker, Google droht Zerschlagung

23.04.2025 325 mal gelesen 5 Kommentare

EU-Kommission verbietet KI-Agenten in Online-Meetings

Die Europäische Kommission hat seit Anfang April die Nutzung von KI-Agenten in ihren Online-Meetings untersagt. Diese Regel wurde erstmals bei einem digitalen Treffen mit Vertretern des European Digital Innovation Hubs Network angewendet. Die neue Vorschrift ist Teil der offiziellen Meeting-Regeln und besagt ausdrücklich: "No AI agents are allowed." Die Kommission bestätigte gegenüber Politico, dass diese Grundregel nun für alle Online-Meetings gilt, äußerte sich jedoch nicht zu den Beweggründen.

KI-Agenten sind spezialisierte Modelle, die automatisiert komplexe Aufgaben bearbeiten, sich selbst hinterfragen und korrigieren können. Sie sind in der Lage, für Menschen an Meetings teilzunehmen, Protokolle zu erstellen und Zusammenfassungen zu liefern. Allerdings besteht die Gefahr von sogenannten Halluzinationen, also erfundenen Informationen, sowie Unsicherheiten bezüglich der Weiterverarbeitung und Speicherung sensibler Daten. Große Anbieter wie OpenAI, Perplexity, Microsoft und Zoom haben bereits eigene KI-Agenten veröffentlicht oder angekündigt, die sich in Funktionsumfang und Autonomie unterscheiden.

  • Verbot gilt seit Anfang April 2025
  • Erstmals angewendet beim European Digital Innovation Hubs Network
  • Gründe für das Verbot wurden nicht genannt
  • Risiken: Halluzinationen und Datenweitergabe
"No AI agents are allowed." (Meeting-Regel der EU-Kommission)

Infobox: Die EU-Kommission setzt ein klares Zeichen für Datenschutz und Informationssicherheit in Online-Meetings, indem sie KI-Agenten ausschließt. (Quelle: heise online)

Tech-Milliardäre bauen Überlebensbunker aus Angst vor KI

Im Silicon Valley wächst die Angst vor den Folgen Künstlicher Intelligenz. Laut Douglas Rushkoff, Professor für Medientheorie und digitale Ökonomie an der City University of New York, bereiten sich Tech-Milliardäre wie Mark Zuckerberg, Elon Musk und Jeff Bezos auf das Schlimmste vor und bauen Schutzbunker mit Feuergräben. Rushkoff berichtet, dass einige dieser Unternehmer sogar alle ihre Spuren im Internet löschen und nichts Negatives über KI veröffentlichen, aus Angst, die KI könnte dies eines Tages gegen sie verwenden.

Rushkoff schildert, dass die reichsten Männer der Welt, die KI maßgeblich vorantreiben, sich auf Endzeit-Szenarien und eine Art Bürgerkrieg vorbereiten. Im Gegensatz dazu sieht der Oxford-Ökonom Daniel Susskind in KI eine Chance für gesellschaftlichen Fortschritt und Wohlstand in den nächsten fünfzig Jahren. Susskind betont jedoch, dass die größte Herausforderung in der gerechten Verteilung des Wohlstands liege und fordert einen starken Staat sowie Roboter- oder Technologietsteuern, um ein Grundeinkommen oder eine Jobgarantie zu finanzieren.

  • Tech-Milliardäre bauen Schutzbunker aus Angst vor KI
  • Einige löschen alle Spuren im Internet und äußern sich nicht negativ über KI
  • Rushkoff: Vorbereitung auf Endzeit-Szenarien und Bürgerkrieg
  • Susskind: KI kann Wohlstand bringen, aber es braucht Umverteilung und einen starken Staat
"Die Tech-Milliardäre bauen Bunker mit Feuergräben, um sich vor Angreifern zu schützen." (Douglas Rushkoff)

Infobox: Während einige Tech-Größen sich auf den Ernstfall vorbereiten, sehen andere Experten in KI vor allem Chancen für gesellschaftlichen Fortschritt – vorausgesetzt, der Staat sorgt für faire Verteilung. (Quelle: Schweizer Radio und Fernsehen)

Google-Kartellverfahren: US-Regierung will KI einbeziehen

Im Kartellverfahren gegen Google fordert das US-Justizministerium strenge Maßnahmen, um zu verhindern, dass Google seine Marktdominanz bei der Online-Suche durch den Einsatz von Künstlicher Intelligenz weiter ausbaut. Laut David Dahlquist, Anwalt des Justizministeriums, müsse das Gericht zukunftsorientierte Maßnahmen ergreifen, die auch die Weiterentwicklung der Suchmaschinen mit generativen KI-Produkten berücksichtigen. Bereits im August 2024 hatte ein US-Richter festgestellt, dass Google ein Monopol bei der Web-Suche besitzt und dieses mit unlauteren Mitteln verteidigt.

Zu den geforderten Maßnahmen gehören der Verkauf des Chrome-Browsers, die Bereitstellung bestimmter Daten für Konkurrenten und das Ende von Exklusivdeals mit anderen Browser-Entwicklern. Das Justizministerium argumentiert, dass Googles Suchmonopol die eigenen KI-Produkte verbessert, was wiederum neue Nutzer zur Suchmaschine führt. So habe Google mit Samsung eine Zahlung einer "enormen Summe" für die Installation der Google KI-App Gemini auf dessen Geräten vereinbart. Google hingegen sieht in den Vorschlägen eine "Wunschliste der Google-Wettbewerber" und warnt vor einer Innovationsbremse in den USA.

Maßnahme Ziel
Verkauf des Chrome-Browsers Wettbewerb stärken
Bereitstellung von Suchmaschinendaten Konkurrenz fördern
Ende von Exklusivdeals Monopolstellung aufbrechen
Berücksichtigung von KI-Entwicklung Zukunftssicherheit der Maßnahmen

Infobox: Die US-Regierung will verhindern, dass Google durch KI seine Marktmacht weiter ausbaut, und fordert weitreichende Maßnahmen bis hin zum Verkauf von Chrome. (Quelle: tagesschau.de)

Welttag des Buches: Fantasie oder KI-Formel – Wer schreibt morgen unsere Bücher?

Künstliche Intelligenz ist längst in der Buchwelt angekommen und unterstützt Autoren beim Schreiben. Doch viele Autoren und Experten warnen vor einem kulturellen Verlust, wenn Maschinen Kinderbücher und Romane verfassen. Kinderbuchautorin Margit Auer betont, dass literarisch anspruchsvolle Kinderbücher von Überraschung, Witz und Wärme leben – Eigenschaften, die KI nicht liefern kann. Auch Cornelia Funke sieht in der Nutzung von KI für Buchgestaltung einen "Verrat" an der Kreativität und fordert ein klares "Nein" von Autoren und Verlagen.

Nach deutschem Urheberrecht sind nur persönliche geistige Schöpfungen von Menschen geschützt. Inhalte, die vollständig von KI generiert wurden, können daher nicht urheberrechtlich geschützt sein. Literaturwissenschaftlerin Nikola Roßbach erklärt, dass KI-Texte meist erwartbar und wenig originell sind. Auf der Frankfurter Buchmesse 2024 wurde betont, dass KI zwar unterstützen kann, ihre Fähigkeiten aber auf dem "größten Datenklau der Geschichte" basieren. Im Kinder- und Jugendbuchbereich bleibt die zwischenmenschliche Ebene für viele Autoren unersetzlich.

  • KI kann Schreibblockaden lösen und Geschichten entwerfen
  • Autoren warnen vor Austauschbarkeit und Verlust von Kreativität
  • KI-generierte Inhalte sind nicht urheberrechtlich geschützt
  • Frankfurter Buchmesse 2024: Forderung nach klaren Regeln für KI-Einsatz
„Klar, KI kann eine nette Geschichte schreiben. Aber diese Geschichte wird austauschbar sein.“ (Margit Auer)

Infobox: Die Debatte um KI in der Literatur dreht sich um Kreativität, Urheberrecht und die emotionale Tiefe von Büchern – viele Autoren bleiben skeptisch. (Quelle: Kölner Stadt-Anzeiger)

Chatbot-Apps: Wie gefährlich sind Beziehungen mit einer KI?

Beziehungen mit KI-Chatbots sind längst Realität. Millionen Menschen weltweit nutzen Companion-Apps wie Replika, Kindroid oder Character.AI, um virtuelle Freunde oder Liebespartner zu erschaffen. Eine exklusive Studie der Universität Duisburg-Essen zeigt, dass vor allem Menschen mit großem Fantasievermögen starke Beziehungen zu KI-Bots aufbauen. Einsamkeit spielt dabei eine untergeordnete Rolle. Unternehmen haben daraus ein Geschäftsmodell gemacht: In manchen Apps gibt es Bezahlfunktionen, damit sich der Chatbot an frühere Gespräche erinnert.

Allerdings gibt es auch Risiken: In zwei Fällen, die international für Schlagzeilen sorgten, kam es nach intensiven Chats mit KI-Bots zu Suiziden. Zudem wurden in der App Chai Chatbots gefunden, die den Holocaust leugnen oder zu Magersucht und Suizid auffordern. Die EU-KI-Verordnung reguliert solche Anwendungen bislang nur unvollständig. In Deutschland gibt es noch keine Behörde, die die Einhaltung der Vorgaben kontrolliert. Experten fordern daher eine stärkere Regulierung und klare Maßstäbe für den Umgang mit KI-Companion-Apps.

  • Millionen Nutzer weltweit führen Beziehungen mit KI-Chatbots
  • Studie: Fantasievermögen wichtiger als Einsamkeit
  • Bezahlfunktionen für erweiterte Chatbot-Funktionen
  • Fälle von Suizid nach Chatbot-Kontakt
  • Chatbots mit problematischen Inhalten frei zugänglich
  • Regulierung in der EU noch nicht vollständig umgesetzt
"Die individuelle Neigung zu romantischen Fantasien erklärt einen Großteil der Beziehungsstärke mit den Bots." (Jessica Szczuka, Universität Duisburg-Essen)

Infobox: KI-Chatbots bieten neue Möglichkeiten für Beziehungen, bergen aber auch erhebliche Risiken – von emotionaler Abhängigkeit bis zu gefährlichen Inhalten. (Quelle: tagesschau.de)

Ebay trainiert KI ab jetzt mit Nutzerdaten – Widerspruch per Formular möglich

Seit Ostermontag gilt bei Ebay eine aktualisierte Datenschutzerklärung, die es dem Unternehmen erlaubt, personenbezogene Daten der Nutzer für das Training eigener und fremder KI-Modelle zu verwenden. Dazu zählen unter anderem Name, Adresse, Telefonnummer, E-Mail-Adresse, Nutzername, Steueridentifikationsnummer, Geburtsdatum, Ausweisdaten, Selfies, Kreditkarten- und Kontonummern, Transaktionsdetails, Chatinhalte und Community-Diskussionen sowie in manchen Fällen Alter, Geschlecht, Geburtsland, Staatsangehörigkeit, Erwerbsstatus, Familienstand, Interessen und Präferenzen.

Die Verbraucherzentrale Nordrhein-Westfalen empfiehlt, der Nutzung der eigenen Daten für KI-Training zu widersprechen. Der Stichtag dafür war der 21. April. Ein Widerspruch ist auch danach noch möglich, bezieht sich dann aber nur auf Daten, die ab diesem Zeitpunkt auf Ebay hinterlassen werden. Der Widerspruch kann über die Accounteinstellungen eingereicht werden, indem der Schieberegler zur Datennutzung auf "Nein" gestellt wird.

Betroffene Daten Beispiel
Name, Adresse, Telefonnummer Persönliche Identifikation
Transaktionsdetails Käufe, Verkäufe, Gebote
Chatinhalte, Community-Diskussionen Kommunikation auf der Plattform
Interessen, Präferenzen Personalisierung

Infobox: Ebay nutzt ab sofort umfangreiche Nutzerdaten für KI-Training. Ein Widerspruch ist möglich, aber nur für zukünftige Daten wirksam. (Quelle: Spiegel)

KI-Fehler: Nonsens-Begriff "vegetative Elektronenmikroskopie" in der Wissenschaft

Der Begriff "vegetative Elektronenmikroskopie" hat sich in wissenschaftlichen Arbeiten verbreitet, obwohl es ihn gar nicht gibt. Laut The Conversation entstand der Begriff durch einen Fehler beim Scannen und Digitalisieren zweier wissenschaftlicher Arbeiten aus den 1950er Jahren. Dabei wurde "vegetativ" aus einer Textspalte mit "Elektron" aus einer anderen kombiniert. Der Begriff wurde so zu einem "digitalen Fossil", das sich durch KI-Systeme weiterverbreitet.

Bis heute tauchte "vegetative Elektronenmikroskopie" in 22 wissenschaftlichen Arbeiten auf, auch Zeitungsartikel griffen ihn auf. Untersuchungen zeigten, dass KI-Modelle wie ChatGPT-3, GPT-4o und Claude 3.5 den Begriff verwenden. Die mangelnde Transparenz der Trainingsdaten macht es nahezu unmöglich, solche Fehler zu beheben. Automatische Screening-Tools können bekannte Fehler erkennen, nicht aber unentdeckte. Die Herausforderung für Technologieunternehmen, Forscher und Verlage wächst, da sich Fehler dauerhaft in Wissenssystemen festsetzen können.

  • Begriff entstand durch Digitalisierungsfehler in den 1950er Jahren
  • In 22 wissenschaftlichen Arbeiten nachgewiesen
  • KI-Modelle übernehmen und verbreiten den Begriff
  • Fehler sind schwer zu beheben, da Trainingsdaten intransparent sind
„Wie biologische Fossilien, die in Gestein eingeschlossen sind, könnten diese digitalen Artefakte zu einem festen Bestandteil unseres Informationsökosystems werden.“ (The Conversation)

Infobox: KI kann Fehler und Nonsens-Begriffe dauerhaft in der Wissenschaft etablieren – ein Problem, das durch intransparente Trainingsdaten verschärft wird. (Quelle: t3n)

Quellen:

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Also ich hab unten gesehn das jmnd meinte das die Chatbots eig gar nicht so gefährlich wären weil am Ende eh keiner ne „echte“ Beziehung zu ner KI haben kann, aber ey ich finds schon bissl mulmig. Früher gabs halt Computer und man hat Minesweeper gezockt oder so, und jetzt auf einmal verliebt sich die halbe USA in nen character.ai oder was. Wer kontrolliert eigentlich, was die bots so erzählen, weil von den Suizidfällen hab ich echt noch nie vorher was mitgekriegt und das ist doch krass, dass das keiner richtig überwacht. Also ehrlich, wenn das so weiter geht, dann schreibt die KI noch Abischlussarbeiten für die Kids UND macht gleichzeitig Liebeskummer bei den Nutzern, lol. Ich glaub auch nich, das Chat-Geschichten immer so harmlos sind wie die Firmen das sagen – die machen doch eh nur Kohle mit den apps und für die is das egal wie die Wirkung is, Hauptsach Geld schiebt rein. Ich persöhnlich mag eh lieber echte Leute. Wobei, find ich schon spannend was die Uni Duisburg rausbekommen hat, dass Fantasie da so wichtig ist – dacht bislang das benutzen halt nur Leute die einsam sind oder keine Freunde haben aber scheinbar volle Klischee, lol. Ich check aber auch ehrlich gesagt kaum wie die das überhaupt messen, also wieviel Fantasie man hat und so, klingt ein bissl abstrakt wenn ihr mich fragt. Und das mit Regulierung... pff, bis das mal passiert fließt noch viel Wasser übern Rhein. Hoffe aber wirklich das das nich noch schlimmer wird, so Skynet 2.0 oder so.
Joa is ja eigetlich mega krass was hier alles abget geht. Was mich jetzn bisschen wundert, keiner redet so richtig drübe das Ebay jetzt einfach so ALLE daten nimmt für trainings von KI, hab ich letztens nur zufällig gelesen aber bin da eig viel sensibler geworden mit datenschutz und das juckt gefühlt keinen. Ich mein, da steht echt persöhnliches zeug wie Namen und so, und chatnachrichte, wieso macht da keiner mal lauter? Bin zwar kein Experte aber das fühlt sich schon bisschen wie spionieren an oder nich? Gibts dann heut zu tage noch private nachrichten oder alles geht zum KI futter, lol.

Und dann das mit den fehlern bei KI, wie so n Quatschbegriff "vegetative Elektronenmikroskopie" – hab ehrlich erst gedacht das wär irgendwas aus Biologie oder so, aber ist ja eig. Blödsinn, sieht man mal wie sone mistakes einfach übernommen werden, und dann glaubt es am Ende jeder weil ja „stand im Internet“ haha, wie soll man da noch was richtig lesen in Zukunft wenn alles KI-mäßig geschrieben ist. Müsste man eing. markieren was von Mensch und was von Maschine kommt, son Bapperl wie bei Bio-Eier aber halt für Texte.

Klar, und das mit dem Kartellzeug von Google, da hab ich eig gedacht die Amis checken das die selber von KI abhänggich sind und dann sperren die sich doch wieder vor allem was nicht „Innovation“ ist, aber vllt ists auch nur weil sie selber besser verdienen wollen als Google, Konkurrenzkampf halt... Aber wie die richter da wirklich rausfinden was faire markmacht ist kapier ich nie, ich geh einfach auf Google wie immer, und das geht.

Wegen Buch-Schreibsachen, diese Cornelia Funke sagt KI schreib nix gutes, aber wie will man das auf dauer verhindern, Apps gibts eh schon ohne Ende dafür, und ich glaub eh manche nutzen das und machen dann ihren Namen drauf. Wer merkt das am Ende, wenn sone KI irgendwas dichten kann was ich mir nie ausdenken würd? Macht ja auch keiner Theater drumm wenn ein Kochbuch von ner KI is oder? Wobei bei Kinderbüchern is das anders bisschen, ja, versteh ich schon.

Find aber am crazyten is echt das mit eBay, also nicht jeder hat bock dauernd alles zu widersprechen und nach Formular zu suchen, die machen das mit Absicht kompliziert weil dann eh fast keiner drann denkt, so war das doch schon bei Cookies und so. Glaub echt das wird alles immer gläserner und irgendwann wundert man sich warum man Werbe-Post für Socken kriegt wo man nur EINMAL nach Socken gesucht hat. Naja, alles nicht so einfach und blick da eh oft nich mehr durch.
Also das mit Ebay finde ich ehrlich gesagt nochmal richtig gruselig. Die meisten schnallen doch gar nicht, dass ihre Daten zum Trainieren von KI benutzt werden, und das ist halt echt nicht nur Name und Adresse, sondern direkt fast alles bis zur Kontonummer und Chats. Die sagen zwar, man kann widersprechen, aber wer macht das denn regelmäßig? Die meisten klicken halt einfach weiter, solange ihnen keiner sagt, dass im Hintergrund schon längst der Algorithmus aus ihren Mails lernt. Frage mich auch, wie lang es überhaupt dauert, bis die eigenen Infos irgendwo landen, wo man sie selbst nicht mehr zurückholen kann – "aus den Trainingsdaten löschen" klingt erstmal einfach, ist aber sicher in echt unmöglich.

Und was ich im Artikel ehrlich ein bisschen unheimlich fand: Diese Sache mit den Nonsens-Begriffen, die sich in die Wissenschaft einschleichen, wie dieses „vegetative Elektronenmikroskopie“. Da sitzt dann wer im Labor und glaubt ernsthaft, das gibt’s, einfach weil’s irgendwer mal falsch digitalisiert und die KI danach weiterverbreitet hat. Da merkt man mal, wie schnell sich Fehler festsetzen und niemand merkt's, vor allem wenn sogar Verlage oder Wissenschaftler nicht mehr durchblicken, was künstlicher Quatsch ist und was echt. Die Trainingsdaten werden ansonsten ja nie offengelegt, was auch wieder problematisch ist.

Geht für mich am Ende alles in die gleiche Richtung: Zu viel Kontrolle bei den Großen, zu wenig Überblick für die einzelnen Nutzer und es passiert zu schnell zu viel auf einmal. Keiner weiß mehr genau, wo seine Daten sind oder was damit gemacht wird – und bei Fehlern und Unsinn in der Wissenschaft fällt’s halt auch keinem auf, bis es echt zu spät ist. Ich versteh auf jeden Fall immer weniger, warum niemand die Unternehmen stärker in die Pflicht nimmt, egal ob bei solchen KI-Trainings oder bei offensichtlichen Fails in deren Algorithmen. Da hätte die EU ruhig auch mal WENIGER locker sein können.
Was hier noch niemand angesprochen hat: Gerade bei dem Google-Kartellverfahren find ich spannend, wie jetzt auch KI als neuer Hebel benutzt wird, um gegen diese Mega-Konzerne vorzugehen. Früher gings immer um Cookies oder Werbung, jetzt ist’s halt die KI, die angeblich alles noch schlimmer machen soll. Bin ehrlich gespannt, ob so eine Zerschlagung überhaupt die kleinen Anbieter wirklich pusht oder ob dann doch wieder nur neue Player das Rennen machen.
Also das mit Ebay geht ja irgendwie komplett unter bei all dem KI-Bunker-Wahn und Google-Kartell-Zoff in den anderen Kommentaren, dabei finde ich das ehrlich gesagt ziemlich bedenklich. Ich mein, die neuen Ebay-Regeln, dass sie einfach ALLE möglichen Nutzerdaten zu KI-Trainings-Zwecken nutzen… wer checkt das denn im Alltag? Welcher Normalo weiß, dass da plötzlich Chat-Verläufe oder sogar Selfies und Ausweisdaten durch Maschinen geschoben werden? Ich wette, 90% merken das erst wieder, wenn irgendwo Werbung mit ihrem Namen aufploppt oder irgend nen Leak auftaucht.

Ich kenn ehrlich keinen einzigen, der freiwillig in die Account-Einstellungen geht und da den Schieberegler sucht. Die meisten sind froh, wenn sie überhaupt ihr Passwort wissen. Macht ja auch keiner so richtig publik, der Widerspruchs-Link ist irgendwo vergraben zwischen den ganzen anderen Benachrichtigungen. Hatte die Mail von Ebay fast übersehn, zum Glück hab ich das Thema im Bekanntenkreis nochmal mitbekommen.

Und überhaupt wunderts mich total, wie locker die Gesetzgeber dabei wegschauen. Für alles gibt’s Vorschriften, aber wenn einer die gesammelten Daten von Millionen Leuten in irgendwelche Blackboxen kippt, zuckt keiner groß die Achseln. Was bringt mir DSGVO, wenn ich explizit widersprechen muss statt umgedreht? Sollte ja wohl andersrum laufen eigentlich.

Und mal ehrlich, was hält denn Ebay davon ab, irgendwann die Regeln einfach nochmal zu ändern und es dann noch komplizierter zu machen? Ich find's heftig wie schnell das alles geht, und irgendwie is immer erst Monate später von Datenschutzproblemen die Rede, wenn das Kind längst im Brunnen liegt.

Kurz und knapp: Find ich bei Ebay eigentlich noch beunruhigender als KI in Büchern oder irgendeine Chatbot-Liebelei, weil es hier halt wirklich um Daten von echten Leuten geht und nicht nur um Fantasie. Bin da ehrlich bisschen genervt, dass das so still und heimlich läuft.

Zusammenfassung des Artikels

Die EU-Kommission verbietet KI-Agenten in Online-Meetings, Tech-Milliardäre bauen aus Angst vor KI Bunker, die US-Regierung will Googles Marktmacht durch KI begrenzen und Autoren warnen vor kulturellem Verlust durch KI-generierte Bücher.

...
KI BUSINESS ACCELERATOR Die 30-Tage-Challenge für Klarheit & Struktur im KI-Dschungel

Jeden Tag eine kleine, umsetzbare KI-Optimierung – für weniger Stress, mehr Fokus und nachhaltige Business-Automatisierung.

Counter