KI im Alltag: Täuschung im Krieg, Überwachung bei Einreise, Datenschutz bei Meta und neue Agenten

25.04.2025 148 mal gelesen 6 Kommentare

Künstliche Intelligenz im Krieg: Die neue Kunst der Täuschung

Künstliche Intelligenz (KI) revolutioniert die Kriegsführung, indem sie große Datenmengen in kürzester Zeit analysiert und so etwa bei der Aufklärung gegnerischer Streitkräfte hilft. Doch laut Business Insider Deutschland ist KI auch anfällig für Manipulationen. Zwei US-Offiziere, Mark Askew und Antonio Salinas, betonen, dass es künftig nicht mehr ausreicht, nur menschliche Strategen zu täuschen – auch die gegnerische KI muss gezielt mit irreführenden, aber genauen Daten gefüttert werden. Ziel ist es, die Interpretation der KI zu manipulieren und gegnerische Aktivitäten in die falsche Richtung zu lenken.

Gerade zentralisierte Kommandostrukturen wie in Russland und China könnten besonders verwundbar sein, wenn ihre KI-Systeme mit Fehlinformationen gespeist werden. Die Autoren warnen, dass KI fehlerhafte Reaktionen viel schneller koordinieren und umsetzen kann als Menschen. So kann die Täuschung der KI zu einer falschen Zuweisung feindlicher Ressourcen, verzögerten Reaktionen oder sogar zu Vorfällen mit Eigenbeschuss führen, wenn Ziele falsch identifiziert werden.

  • KI-Tools sind exzellent in der Mustererkennung, haben aber Schwierigkeiten mit neuen, unbekannten Variablen.
  • Geringfügige Modifikationen, etwa am Aussehen einer Drohne, können dazu führen, dass die KI sie falsch identifiziert.
  • Russland setzt KI in Drohnen- und Cyberkriegsführung ein, China verwendet das Deepseek-System für Planung und Logistik.

Die Autoren heben hervor, dass militärische Täuschung am effektivsten ist, wenn sie den Feind in seinen Annahmen bestärkt. Historische Beispiele wie die Schlacht von Cannae (216 v. Chr.) und die alliierte Landung in der Normandie zeigen, wie entscheidend Irreführung sein kann. Trotz moderner Sensortechnik und KI bleibt der „Schleier der Täuschung“ ein zentrales Element der Kriegsführung. Die Schlussfolgerung: KI wird das Chaos und die Ungewissheit des Krieges nicht beseitigen, sondern nur verändern, wie sich diese Faktoren manifestieren.

„KI wird das Chaos, die Manipulation und die Ungewissheit des Krieges nicht beseitigen – sie wird nur die Art und Weise verändern, wie sich diese Faktoren manifestieren.“ (Askew & Salinas, Modern War Institute, zitiert nach Business Insider Deutschland)

Infobox: KI ist in der modernen Kriegsführung sowohl Werkzeug als auch potenzielle Schwachstelle. Die gezielte Täuschung von KI-Systemen kann entscheidende Vorteile bringen, insbesondere gegen zentralisierte Militärstrukturen.

Googles KI erfindet Erklärungen für ausgedachte Sprichwörter

Die von Google eingeführte „Übersicht mit KI“ liefert laut t3n auch dann Antworten, wenn sie keine echten Informationen hat. Im Test des US-Magazins Wired wurden erfundene Sprichwörter wie „Werfe niemals einen Pudel auf ein Schwein“ eingegeben – die KI behauptete nicht nur, das Sprichwort existiere, sondern verortete seinen Ursprung sogar in der Bibel. Auch für das Sprichwort „Ein freilaufender Hund surft nicht“ lieferte die KI eine plausible, aber frei erfundene Bedeutung.

Der Informatiker Ziang Xiao von der Johns Hopkins Universität erklärt, dass generative KI auf Wahrscheinlichkeiten basiert und Wörter aneinanderreiht, die am wahrscheinlichsten zusammenpassen. Das führt dazu, dass die KI lieber etwas erfindet, als Unwissenheit zuzugeben. Google selbst gibt an, dass die Systeme bei unsinnigen Anfragen versuchen, die relevantesten Ergebnisse aus den verfügbaren Webinhalten zu generieren. Allerdings wird nicht für jede Suchanfrage eine „KI Übersicht“ bereitgestellt.

  • Googles KI liefert auch für erfundene Sprichwörter plausible Erklärungen.
  • Die KI ist darauf ausgelegt, Antworten zu geben, die Nutzer hören wollen.
  • Die Vorhersage des nächsten Wortes basiert auf umfangreichen Trainingsdaten, nicht auf Faktenwissen.

Infobox: Die „Übersicht mit KI“ von Google kann unterhaltsam, aber auch irreführend sein – sie erfindet Erklärungen, wenn keine echten Informationen vorliegen.

USA-Einreise: Wie Künstliche Intelligenz Touristen überwacht

Laut RND.de setzen die USA bei der Einreise von Touristen zunehmend auf KI-Systeme, die umfassende Analysen von Social-Media-Posts, Fotos, Videos und anderen öffentlich zugänglichen Internetinhalten durchführen. Das Programm Fivecast Onyx analysiert „nahezu in Echtzeit“ internetbasierte Inhalte, erkennt riskante Objekte, Logos und Schlüsselwörter und kann sogar Stimmungen und Emotionen ableiten. Ein weiteres Tool, Dataminr, durchsucht das Surface Web, Deep Web und Dark Web nach relevanten Informationen.

Die US-Grenzschutzbehörde (CBP) listet 31 KI-Anwendungen auf, darunter Gesichtserkennung, intelligente Körperscanner und Systeme zur Priorisierung von Passagieren für weitere Überprüfungen. Auch die US-Einwanderungsbehörde (USCIS) setzt KI ein, um Social-Media-Inhalte auf antisemitische Inhalte zu überprüfen. Ein 30-Millionen-Dollar-Vertrag mit Palantir unterstützt die Zusammenführung von Daten aus verschiedenen Regierungsdatenbanken zur Überwachung und Festnahme von Personen, die gegen Einwanderungsregeln verstoßen.

  • Fivecast Onyx analysiert öffentlich zugängliche Inhalte „nahezu in Echtzeit“.
  • Dataminr durchsucht verschiedene Ebenen des Internets nach relevanten Informationen.
  • 31 KI-Anwendungen sind bei der US-Grenzschutzbehörde im Einsatz, darunter Gesichtserkennung und Körperscanner.
  • USCIS prüft Social-Media-Inhalte auf antisemitische Inhalte, unterstützt durch einen 30-Millionen-Dollar-Vertrag mit Palantir.

Infobox: Die USA setzen bei der Einreise auf umfassende KI-Überwachung, die auch Social-Media-Posts und Emotionen analysiert. Die Privatsphäre von Reisenden spielt dabei eine untergeordnete Rolle.

Meta AI: So klappt der Widerspruch bei Facebook und Instagram

Meta will seine KI auch in Europa mit öffentlichen Daten trainieren. Laut ZDF betrifft dies alle öffentlichen Inhalte, die Erwachsene auf Meta-Produkten wie Facebook und Instagram posten – darunter Fotos, Bildunterschriften, Beiträge, Kommentare und Rezensionen. Auch alle Interaktionen mit Meta AI werden für das Training genutzt. Nutzer können jedoch Widerspruch gegen die Nutzung ihrer Daten einlegen. Dazu müssen sie in den Einstellungen ihres Profils das entsprechende Formular ausfüllen und absenden. Eine Begründung ist nicht notwendig.

Die Verbraucherzentrale rät grundsätzlich dazu, Widerspruch einzulegen, wenn man nicht möchte, dass die eigenen Daten für KI-Training verwendet werden. Sollte Meta den Einspruch ablehnen, empfiehlt die Verbraucherzentrale, bisherige Beiträge zu löschen, keine neuen zu veröffentlichen, das Konto zu löschen oder eine Beschwerde bei der Datenschutzbehörde einzureichen.

  1. Profilseite öffnen und zu „Einstellungen und Privatsphäre“ gehen.
  2. „Datenschutzrichtlinie“ auswählen und nach „Widerspruchsrecht“ suchen.
  3. Dem Link zum Widerspruch folgen, E-Mail-Adresse angeben und absenden.

Infobox: Nutzer von Facebook und Instagram können der Nutzung ihrer öffentlichen Daten für das KI-Training von Meta widersprechen. Die Frist für den Widerspruch ist begrenzt.

Agent Development Kit und A2A: Google will KI-Agenten vernetzen

Google Cloud hat laut heise online ein neues Open-Source-Entwicklerkit (Agent Development Kit, ADK) und das Protokoll Agent2Agent (A2A) vorgestellt. Ziel ist es, KI-Agenten die Kommunikation untereinander zu erleichtern. Das ADK ist zunächst für Python verfügbar und ermöglicht es, einen KI-Agenten „in unter 100 Zeilen Code“ zu erstellen. Über 130 Grundmodelle, darunter Gemini 1.5 Pro, stehen auf der Vertex-AI-Plattform zur Verfügung.

Das A2A-Protokoll soll die Kommunikation zwischen Agenten standardisieren und ist offen gestaltet, sodass auch der Parallelbetrieb mit dem Model Context Protocol (MCP) möglich ist. Zu den Partnern, die A2A unterstützen sollen, gehören Unternehmen wie SAP, Atlassian, Salesforce, McKinsey und BCG. A2A kann sowohl schnell erledigte Aufgaben als auch lang laufende Tasks, wie Deep Research, unterstützen. Ein „Human in the Loop“ ist bei längeren Aufgaben Pflicht. Angaben zu Kosten hat Google bislang nicht gemacht.

  • ADK ermöglicht die Erstellung von KI-Agenten in unter 100 Zeilen Code.
  • Über 130 Grundmodelle stehen auf Vertex AI zur Verfügung.
  • A2A-Protokoll standardisiert die Kommunikation zwischen Agenten.
  • Partner: SAP, Atlassian, Salesforce, McKinsey, BCG u.a.

Infobox: Google setzt mit ADK und A2A auf die Vernetzung von KI-Agenten und will so die Zusammenarbeit und Prozessoptimierung in Unternehmen vorantreiben.

Quellen:

Ihre Meinung zu diesem Artikel

Bitte geben Sie eine gültige E-Mail-Adresse ein.
Bitte geben Sie einen Kommentar ein.
Also das mit der Gesichtserkenung und den ganzen Kram bei de US Einreise find ich schon irgendwie heftig. Wenn die KI überall deine instas und facebook durchkramt, da bleibt ja gar nix mehr privat lol. Und was ist wen die mal was falsches finden, dann kommst du vielleich gar net erst rein und kriegst nie raus warum, da sind doch fehler vorgramiert. Ich glaub das ist auf dauer zu viel Kontrolle, war doch früha anders?
Was mich bei Meta echt nervt, ist dieses umständliche Formular zum Widerspruch – warum kann man das nicht einfach in den Einstellungen mit zwei Klicks machen und gut ist?
Ich hab mal gehört das mit den Sprichwörtern bei Google is einfach nur das die KI so halt wörter nimmt die gut zusamen klingen und dann macht die draus irgndwas bibelmäsiges auch wenns das eig garnich gibt, vlt wars für witze gedacht?
Was mich bei dem ganzen Artikel irgendwie echt beschäftigt hat, ist der Teil über diese Sprichwörter und die Google-KI. Klar, ist irgendwo lustig, aber eigentlich auch nicht so harmlos, wenn man mal so drüber nachdenkt. Ich mein, wenn die KI bei so offensichtlichem Blödsinn wie "Wirf nie einen Pudel auf ein Schwein" schon so überzeugt Erklärungen aus dem Hut zaubert, wie ist es dann bei komplizierteren Themen oder wo die Infos weniger eindeutig sind? Da kann man als Nutzer doch im Grunde de Unterschied oft gar nicht mehr erkennen, ob das jetzt stimmt oder nicht.

Viele Leute gehen ja immer noch davon aus, dass wenn's von Google kommt, schon irgendwie stimmt. Besonders Ältere, hab ich im Familienkreis schon erlebt, die schauen selten noch groß auf die Quelle. Nutzt man dann KI-Übersichten, kriegt am Ende jeder seine eigene Mischung aus Fiktion und Fakt, und merkt es noch nicht mal. Das ist für mich ehrlich etwas gruselig, grad auch was Fake News usw. angeht.

Und das ist dann eben auch nicht mehr nur Unterhaltung oder ein schräger Gag, sondern kann irgendwann auch mal ne richtige Auswirkung haben, wenn man sich auf die Infos verlassen will oder einfach nur schnell was nachschlagen will. Klar, es steht irgendwo im Kleingedruckten, dass vieles nur Vorschläge oder Schätzungen sind, aber wer liest das schon?

Bin gespannt, wie das weitergeht, solange die KI halt drauf getrimmt ist immer irgendwas auszugeben, anstatt einfach mal zu sagen "keine Ahnung". Ist halt irgendwie wie ein Kumpel der nie zugeben kann, dass er nicht Bescheid weiß und dabei ausversehen dauernd Blödsinn erzählt, nur eben in groß und für Millionen Leute.
Ich blick nit, wenn die Amis jetz 31 KI-sachen bei sich am FLughafen nutzen, dann muss da eig. auch ganz vile Personal für die Ausnahmen an der Grenze sein, sonst übersieht man ja shnell was wenn nur noch Computer guggn, oder?
Echt spannend, wie sich KI im Alltag so breitmacht, war mir gar nicht alles so bewusst! Was mir bei dem Teil mit Google und dem Agent Development Kit einfällt: Ich frage mich echt, ob das dann am Ende nicht total undurchsichtig wird, wenn quasi überall so Mini-KIs miteinander quatschen und Sachen regeln. Klar, für die Firmen bestimmt sau praktisch, aber als normaler Nutzer weiß man ja manchmal jetzt schon nicht, wie was zusammenhängt oder warum nach ner Websuche dies oder jenes Angebot auftaucht.

Und das mit „Human in the Loop“ klingt erst mal wie ne Absicherung, aber mal ehrlich, wer checkt denn am Ende, was die Dinger eigentlich machen, wenn’s zu komplex wird? Da geht’s doch irgendwann voll verloren, ob noch jemand wirklich den Überblick hat. Und bei so vielen Partnern wie Salesforce & Co. – kann sich da überhaupt noch jemand gegen die Vernetzung wehren, oder geht das dann irgendwann alles wie von selbst, weil die Firmen so viel darauf setzen? Find ich ehrlich gesagt schon bisschen schräg und irgendwie auch unheimlich, vor allem, wenn die Dinger Aufgaben übernehmen, ohne dass wir’s im Alltag merken.

Und wer weiß, wie oft dann durch irgendwelche automatischen Prozesse Fehler passieren – will nicht wissen, was ist, wenn meine Bank oder mein Stromversorger irgendwann ihre KI-Agenten frühstücken schickt und dann sowas wie Abbuchungen oder Verträge einfach direkt durchlaufen, nur weil der “Agent” sich verplaudert hat. Da ist’s mit dem „Human in the Loop“ wahrscheinlich schnell vorbei, wenn alle nur noch auf die Technik vertrauen. Hoffe da gibt’s wenigstens ordentlich Kontrolle und Transparenz, aber so richtig vorstellen kann ich’s mir irgendwie nicht.
Counter