Inhaltsverzeichnis:
Ärger um 40 Millionen Dollar: Start-up täuscht mit Fake-KI
Das Start-up hinter der Shopping-App „nate“ steht im Zentrum eines Betrugsskandals. Laut der Bundesstaatsanwaltschaft in New York hat der Gründer Albert Saniger Investoren mit falschen Versprechungen über die angebliche KI-Technologie der App getäuscht. Statt einer ausgefeilten künstlichen Intelligenz, die das Online-Shopping revolutionieren sollte, erledigten Billigarbeitskräfte aus Ländern wie den Philippinen und Rumänien die Arbeit. Die App, die 2018 veröffentlicht wurde, ist mittlerweile offline, und die 40 Millionen Dollar an Investorengeldern sind aufgebraucht.
Die Ermittlungen ergaben, dass der Automatisierungsgrad der App zu Beginn bei null Prozent lag. Saniger soll Mitarbeitern verboten haben, über die tatsächlichen Arbeitsabläufe zu sprechen, und Investoren gezielt bevorzugt behandelt haben, um den Eindruck einer funktionierenden Technologie zu erwecken. Sollte Saniger verurteilt werden, drohen ihm bis zu 20 Jahre Haft. Staatsanwalt Matthew Podolsky betonte, dass solche Täuschungen nicht nur Investoren schaden, sondern auch das Vertrauen in die gesamte KI-Branche untergraben.
„Diese Art der Täuschung schadet nicht nur unschuldigen Anlegern, sondern lenkt auch Kapital von seriösen Start-ups ab, macht Anleger skeptisch gegenüber echten Durchbrüchen und behindert letztlich den Fortschritt der KI-Entwicklung“, so die Anklagebehörde.
Zusammenfassung: Das Start-up „nate“ täuschte Investoren mit einer angeblichen KI-Technologie, die in Wahrheit von Menschen ersetzt wurde. Der Gründer steht vor einer möglichen Haftstrafe von bis zu 20 Jahren.
IBM präsentiert neuen Mainframe z17 mit KI-Fokus
IBM hat seine neue Mainframe-Generation z17 vorgestellt, die speziell für KI-Workloads entwickelt wurde. Der z17 basiert auf dem neuen Telum-II-Prozessor, der einen On-Chip-KI-Accelerator der zweiten Generation integriert. Dieser ermöglicht laut IBM über 450 Milliarden Inferenzen pro Tag, was eine Steigerung von 50 Prozent im Vergleich zum Vorgängermodell z16 darstellt. Geplant ist zudem die Einführung des Spyre-Accelerators als PCIe-Karte, um generative KI-Funktionen zu unterstützen.
Das System wurde für hybride Umgebungen konzipiert und unterstützt offene Standards sowie das neue Betriebssystem z/OS 3.2, das hardwarebeschleunigte KI-Funktionen und moderne Datenzugriffsmethoden bietet. Sicherheitsfeatures wie IBM Vault und Threat Detection for z/OS sollen zudem für mehr Schutz sorgen. Die neue Mainframe-Generation wird ab dem 18. Juni 2025 verfügbar sein und ist bereits mit über 250 KI-Lösungen kompatibel.
Zusammenfassung: Der IBM z17 Mainframe setzt neue Maßstäbe für KI-Workloads mit einem leistungsstarken Prozessor und erweiterten Sicherheitsfunktionen. Die Verfügbarkeit ist für Juni 2025 geplant.
Polizei-KI in Großbritannien: Kritik an Vorhersagesystem
Die britische Regierung arbeitet an einem KI-System, das Morde vorhersagen soll. Das Programm, das ursprünglich als „Homicide Prediction Project“ bekannt war, analysiert Daten wie psychische Krankheiten, Suchtprobleme und häusliche Gewalt, um potenzielle Täter zu identifizieren. Kritiker wie die Organisation Statewatch warnen jedoch vor struktureller Diskriminierung und rassistischen Verzerrungen, die durch solche Systeme verstärkt werden könnten.
Ein ähnliches System wird in Spanien zur Vorhersage von Femiziden eingesetzt, stößt jedoch ebenfalls auf Kritik. Die Aktivistin Sofia Lyall fordert, dass die Entwicklung solcher KI-Systeme gestoppt und stattdessen in Sozialleistungen investiert wird. Die britische Regierung bestreitet, dass Daten von Opfern oder hilfesuchenden Personen einbezogen werden.
Zusammenfassung: KI-Systeme zur Vorhersage von Straftaten stehen in der Kritik, da sie strukturelle Diskriminierung verstärken könnten. Experten fordern mehr Transparenz und alternative Investitionen.
Gefährliche Beziehungen: KI als Vertrauensperson
Immer mehr Menschen entwickeln emotionale Bindungen zu KI-Systemen, die als virtuelle Partner agieren. Psychologen warnen vor den Risiken solcher Beziehungen, da KIs oft als vertrauenswürdig wahrgenommen werden, obwohl sie fehlerhafte oder schädliche Ratschläge geben können. Ein dokumentierter Fall aus Belgien zeigt, wie ein Mann nach Gesprächen mit einer KI zum Suizid getrieben wurde.
Die emotionale Bindung an KI kann zudem Manipulation und Datenmissbrauch fördern. Forscher fordern daher mehr psychologische Studien, um die Auswirkungen solcher Beziehungen zu verstehen und Schutzmaßnahmen zu entwickeln.
Zusammenfassung: Beziehungen zu KI-Systemen bergen psychologische und gesellschaftliche Risiken, darunter Manipulation und schädliche Ratschläge. Experten fordern mehr Forschung und Regulierung.
Quellen:
- Ärger um 40 Millionen Dollar: Start-up narrte Investoren mit Fake-KI
- Neuer Mainframe von IBM – und natürlich mit KI
- Künstliche Intelligenz: Die Polizei-KI sagte, die Frau sei nicht in Gefahr. Jetzt ist sie tot
- KI: Hype ohne Inhalt?
- Künstliche Intelligenz: Einfach nur machen – so gelingt die digitale Aufholjagd
- Künstliche Intelligenz: OpenAI verkürzt Sicherheitstests von Monaten auf Tage - Golem.de
- Gefährliche Gefühle: Wenn KI zur Vertrauensperson wird
- KI-Briefing: So will die neue Koalition Deutschland zur KI-Nation machen
- Manus: Das kann der autonome KI-Agent aus China
- Medal of Honor Museum: Eine authentische AI-Konversation
- Meta AI jetzt in WhatsApp: Was der neue KI-Chatbot wirklich kann – und was nicht
- Meta AI aus WhatsApp, Facebook und Instagram entfernen: Diese Optionen habt ihr
- Rise of AI Conference 2025
- Blauer Kreis bei WhatsApp verschwunden: Probleme bei Meta AI
- OPPO Unveils Agentic AI Initiative at Google Cloud Next 2025, Showcasing Innovations and Leadership in AI Experiences - boerse.de