Inhaltsverzeichnis:
Künstliche Intelligenz im Krieg: Die neue Kunst der Täuschung
Künstliche Intelligenz (KI) revolutioniert die Kriegsführung, indem sie große Datenmengen in kürzester Zeit analysiert und so etwa bei der Aufklärung gegnerischer Streitkräfte hilft. Doch laut Business Insider Deutschland ist KI auch anfällig für Manipulationen. Zwei US-Offiziere, Mark Askew und Antonio Salinas, betonen, dass es künftig nicht mehr ausreicht, nur menschliche Strategen zu täuschen – auch die gegnerische KI muss gezielt mit irreführenden, aber genauen Daten gefüttert werden. Ziel ist es, die Interpretation der KI zu manipulieren und gegnerische Aktivitäten in die falsche Richtung zu lenken.
Gerade zentralisierte Kommandostrukturen wie in Russland und China könnten besonders verwundbar sein, wenn ihre KI-Systeme mit Fehlinformationen gespeist werden. Die Autoren warnen, dass KI fehlerhafte Reaktionen viel schneller koordinieren und umsetzen kann als Menschen. So kann die Täuschung der KI zu einer falschen Zuweisung feindlicher Ressourcen, verzögerten Reaktionen oder sogar zu Vorfällen mit Eigenbeschuss führen, wenn Ziele falsch identifiziert werden.
- KI-Tools sind exzellent in der Mustererkennung, haben aber Schwierigkeiten mit neuen, unbekannten Variablen.
- Geringfügige Modifikationen, etwa am Aussehen einer Drohne, können dazu führen, dass die KI sie falsch identifiziert.
- Russland setzt KI in Drohnen- und Cyberkriegsführung ein, China verwendet das Deepseek-System für Planung und Logistik.
Die Autoren heben hervor, dass militärische Täuschung am effektivsten ist, wenn sie den Feind in seinen Annahmen bestärkt. Historische Beispiele wie die Schlacht von Cannae (216 v. Chr.) und die alliierte Landung in der Normandie zeigen, wie entscheidend Irreführung sein kann. Trotz moderner Sensortechnik und KI bleibt der „Schleier der Täuschung“ ein zentrales Element der Kriegsführung. Die Schlussfolgerung: KI wird das Chaos und die Ungewissheit des Krieges nicht beseitigen, sondern nur verändern, wie sich diese Faktoren manifestieren.
„KI wird das Chaos, die Manipulation und die Ungewissheit des Krieges nicht beseitigen – sie wird nur die Art und Weise verändern, wie sich diese Faktoren manifestieren.“ (Askew & Salinas, Modern War Institute, zitiert nach Business Insider Deutschland)
Infobox: KI ist in der modernen Kriegsführung sowohl Werkzeug als auch potenzielle Schwachstelle. Die gezielte Täuschung von KI-Systemen kann entscheidende Vorteile bringen, insbesondere gegen zentralisierte Militärstrukturen.
Googles KI erfindet Erklärungen für ausgedachte Sprichwörter
Die von Google eingeführte „Übersicht mit KI“ liefert laut t3n auch dann Antworten, wenn sie keine echten Informationen hat. Im Test des US-Magazins Wired wurden erfundene Sprichwörter wie „Werfe niemals einen Pudel auf ein Schwein“ eingegeben – die KI behauptete nicht nur, das Sprichwort existiere, sondern verortete seinen Ursprung sogar in der Bibel. Auch für das Sprichwort „Ein freilaufender Hund surft nicht“ lieferte die KI eine plausible, aber frei erfundene Bedeutung.
Der Informatiker Ziang Xiao von der Johns Hopkins Universität erklärt, dass generative KI auf Wahrscheinlichkeiten basiert und Wörter aneinanderreiht, die am wahrscheinlichsten zusammenpassen. Das führt dazu, dass die KI lieber etwas erfindet, als Unwissenheit zuzugeben. Google selbst gibt an, dass die Systeme bei unsinnigen Anfragen versuchen, die relevantesten Ergebnisse aus den verfügbaren Webinhalten zu generieren. Allerdings wird nicht für jede Suchanfrage eine „KI Übersicht“ bereitgestellt.
- Googles KI liefert auch für erfundene Sprichwörter plausible Erklärungen.
- Die KI ist darauf ausgelegt, Antworten zu geben, die Nutzer hören wollen.
- Die Vorhersage des nächsten Wortes basiert auf umfangreichen Trainingsdaten, nicht auf Faktenwissen.
Infobox: Die „Übersicht mit KI“ von Google kann unterhaltsam, aber auch irreführend sein – sie erfindet Erklärungen, wenn keine echten Informationen vorliegen.
USA-Einreise: Wie Künstliche Intelligenz Touristen überwacht
Laut RND.de setzen die USA bei der Einreise von Touristen zunehmend auf KI-Systeme, die umfassende Analysen von Social-Media-Posts, Fotos, Videos und anderen öffentlich zugänglichen Internetinhalten durchführen. Das Programm Fivecast Onyx analysiert „nahezu in Echtzeit“ internetbasierte Inhalte, erkennt riskante Objekte, Logos und Schlüsselwörter und kann sogar Stimmungen und Emotionen ableiten. Ein weiteres Tool, Dataminr, durchsucht das Surface Web, Deep Web und Dark Web nach relevanten Informationen.
Die US-Grenzschutzbehörde (CBP) listet 31 KI-Anwendungen auf, darunter Gesichtserkennung, intelligente Körperscanner und Systeme zur Priorisierung von Passagieren für weitere Überprüfungen. Auch die US-Einwanderungsbehörde (USCIS) setzt KI ein, um Social-Media-Inhalte auf antisemitische Inhalte zu überprüfen. Ein 30-Millionen-Dollar-Vertrag mit Palantir unterstützt die Zusammenführung von Daten aus verschiedenen Regierungsdatenbanken zur Überwachung und Festnahme von Personen, die gegen Einwanderungsregeln verstoßen.
- Fivecast Onyx analysiert öffentlich zugängliche Inhalte „nahezu in Echtzeit“.
- Dataminr durchsucht verschiedene Ebenen des Internets nach relevanten Informationen.
- 31 KI-Anwendungen sind bei der US-Grenzschutzbehörde im Einsatz, darunter Gesichtserkennung und Körperscanner.
- USCIS prüft Social-Media-Inhalte auf antisemitische Inhalte, unterstützt durch einen 30-Millionen-Dollar-Vertrag mit Palantir.
Infobox: Die USA setzen bei der Einreise auf umfassende KI-Überwachung, die auch Social-Media-Posts und Emotionen analysiert. Die Privatsphäre von Reisenden spielt dabei eine untergeordnete Rolle.
Meta AI: So klappt der Widerspruch bei Facebook und Instagram
Meta will seine KI auch in Europa mit öffentlichen Daten trainieren. Laut ZDF betrifft dies alle öffentlichen Inhalte, die Erwachsene auf Meta-Produkten wie Facebook und Instagram posten – darunter Fotos, Bildunterschriften, Beiträge, Kommentare und Rezensionen. Auch alle Interaktionen mit Meta AI werden für das Training genutzt. Nutzer können jedoch Widerspruch gegen die Nutzung ihrer Daten einlegen. Dazu müssen sie in den Einstellungen ihres Profils das entsprechende Formular ausfüllen und absenden. Eine Begründung ist nicht notwendig.
Die Verbraucherzentrale rät grundsätzlich dazu, Widerspruch einzulegen, wenn man nicht möchte, dass die eigenen Daten für KI-Training verwendet werden. Sollte Meta den Einspruch ablehnen, empfiehlt die Verbraucherzentrale, bisherige Beiträge zu löschen, keine neuen zu veröffentlichen, das Konto zu löschen oder eine Beschwerde bei der Datenschutzbehörde einzureichen.
- Profilseite öffnen und zu „Einstellungen und Privatsphäre“ gehen.
- „Datenschutzrichtlinie“ auswählen und nach „Widerspruchsrecht“ suchen.
- Dem Link zum Widerspruch folgen, E-Mail-Adresse angeben und absenden.
Infobox: Nutzer von Facebook und Instagram können der Nutzung ihrer öffentlichen Daten für das KI-Training von Meta widersprechen. Die Frist für den Widerspruch ist begrenzt.
Agent Development Kit und A2A: Google will KI-Agenten vernetzen
Google Cloud hat laut heise online ein neues Open-Source-Entwicklerkit (Agent Development Kit, ADK) und das Protokoll Agent2Agent (A2A) vorgestellt. Ziel ist es, KI-Agenten die Kommunikation untereinander zu erleichtern. Das ADK ist zunächst für Python verfügbar und ermöglicht es, einen KI-Agenten „in unter 100 Zeilen Code“ zu erstellen. Über 130 Grundmodelle, darunter Gemini 1.5 Pro, stehen auf der Vertex-AI-Plattform zur Verfügung.
Das A2A-Protokoll soll die Kommunikation zwischen Agenten standardisieren und ist offen gestaltet, sodass auch der Parallelbetrieb mit dem Model Context Protocol (MCP) möglich ist. Zu den Partnern, die A2A unterstützen sollen, gehören Unternehmen wie SAP, Atlassian, Salesforce, McKinsey und BCG. A2A kann sowohl schnell erledigte Aufgaben als auch lang laufende Tasks, wie Deep Research, unterstützen. Ein „Human in the Loop“ ist bei längeren Aufgaben Pflicht. Angaben zu Kosten hat Google bislang nicht gemacht.
- ADK ermöglicht die Erstellung von KI-Agenten in unter 100 Zeilen Code.
- Über 130 Grundmodelle stehen auf Vertex AI zur Verfügung.
- A2A-Protokoll standardisiert die Kommunikation zwischen Agenten.
- Partner: SAP, Atlassian, Salesforce, McKinsey, BCG u.a.
Infobox: Google setzt mit ADK und A2A auf die Vernetzung von KI-Agenten und will so die Zusammenarbeit und Prozessoptimierung in Unternehmen vorantreiben.
Quellen:
- Künstliche Intelligenz im Krieg: Künftig kommt es darauf an, KI zu täuschen
- Googles KI erfindet Erklärungen für ausgedachte Sprichwörter
- KI-Assistent: Google meldet stark gestiegene Nutzerzahl bei Gemini - Golem.de
- Künstliche Intelligenz: Dieses Risiko birgt „Vibe Coding“ für die IT-Sicherheit
- USA-Einreise: Wie Künstliche Intelligenz Touristen überwacht
- Wie Künstliche Intelligenz die Kinderbuchbranche verändert
- Meta AI: So klappt der Widerspruch bei Facebook und Instagram
- Start-up-Check: KI für Juristen – Xayn sammelt 81 Millionen Euro ein
- Agent Development Kit und A2A: Google will KI-Agenten vernetzen
- KI in der Strafverfolgung: Darf der Staat Identitäten stehlen?
- Diese Rechts-KI will die Arbeit von Juristen revolutionieren
- Fake-Macher und Fake-Jäger: Diese Rolle spielt KI künftig bei Kundenbewertungen
- KI-Infrastruktur: Jupiter AI Factory in Jülich entsteht
- Google AI Overviews können die Klickrate für Suchergebnisse deutlich reduzieren
- Mensch oder KI? "AI Detection Tools haben massive Schwierigkeiten"
- Tempus AI: Deal mit Pharma-Riesen – Aktie geht steil
- Perplexity AI: Sprachassistent unter iOS zieht ein