Start-up-Skandal: Fake-KI täuscht Investoren – 40 Millionen Dollar verloren

Start-up-Skandal: Fake-KI täuscht Investoren – 40 Millionen Dollar verloren

Autor: Provimedia GmbH

Veröffentlicht:

Kategorie: KI-News

Zusammenfassung: Das Start-up „nate“ täuschte Investoren mit einer angeblichen KI, die in Wahrheit durch Menschen ersetzt wurde; dem Gründer drohen bis zu 20 Jahre Haft. 2. IBM präsentiert den z17 Mainframe für KI-Workloads mit verbessertem Prozessor und Sicherheitsfunktionen, verfügbar ab Juni 2025.

Ärger um 40 Millionen Dollar: Start-up täuscht mit Fake-KI

Das Start-up hinter der Shopping-App „nate“ steht im Zentrum eines Betrugsskandals. Laut der Bundesstaatsanwaltschaft in New York hat der Gründer Albert Saniger Investoren mit falschen Versprechungen über die angebliche KI-Technologie der App getäuscht. Statt einer ausgefeilten künstlichen Intelligenz, die das Online-Shopping revolutionieren sollte, erledigten Billigarbeitskräfte aus Ländern wie den Philippinen und Rumänien die Arbeit. Die App, die 2018 veröffentlicht wurde, ist mittlerweile offline, und die 40 Millionen Dollar an Investorengeldern sind aufgebraucht.

Die Ermittlungen ergaben, dass der Automatisierungsgrad der App zu Beginn bei null Prozent lag. Saniger soll Mitarbeitern verboten haben, über die tatsächlichen Arbeitsabläufe zu sprechen, und Investoren gezielt bevorzugt behandelt haben, um den Eindruck einer funktionierenden Technologie zu erwecken. Sollte Saniger verurteilt werden, drohen ihm bis zu 20 Jahre Haft. Staatsanwalt Matthew Podolsky betonte, dass solche Täuschungen nicht nur Investoren schaden, sondern auch das Vertrauen in die gesamte KI-Branche untergraben.

„Diese Art der Täuschung schadet nicht nur unschuldigen Anlegern, sondern lenkt auch Kapital von seriösen Start-ups ab, macht Anleger skeptisch gegenüber echten Durchbrüchen und behindert letztlich den Fortschritt der KI-Entwicklung“, so die Anklagebehörde.

Zusammenfassung: Das Start-up „nate“ täuschte Investoren mit einer angeblichen KI-Technologie, die in Wahrheit von Menschen ersetzt wurde. Der Gründer steht vor einer möglichen Haftstrafe von bis zu 20 Jahren.

IBM präsentiert neuen Mainframe z17 mit KI-Fokus

IBM hat seine neue Mainframe-Generation z17 vorgestellt, die speziell für KI-Workloads entwickelt wurde. Der z17 basiert auf dem neuen Telum-II-Prozessor, der einen On-Chip-KI-Accelerator der zweiten Generation integriert. Dieser ermöglicht laut IBM über 450 Milliarden Inferenzen pro Tag, was eine Steigerung von 50 Prozent im Vergleich zum Vorgängermodell z16 darstellt. Geplant ist zudem die Einführung des Spyre-Accelerators als PCIe-Karte, um generative KI-Funktionen zu unterstützen.

Das System wurde für hybride Umgebungen konzipiert und unterstützt offene Standards sowie das neue Betriebssystem z/OS 3.2, das hardwarebeschleunigte KI-Funktionen und moderne Datenzugriffsmethoden bietet. Sicherheitsfeatures wie IBM Vault und Threat Detection for z/OS sollen zudem für mehr Schutz sorgen. Die neue Mainframe-Generation wird ab dem 18. Juni 2025 verfügbar sein und ist bereits mit über 250 KI-Lösungen kompatibel.

Zusammenfassung: Der IBM z17 Mainframe setzt neue Maßstäbe für KI-Workloads mit einem leistungsstarken Prozessor und erweiterten Sicherheitsfunktionen. Die Verfügbarkeit ist für Juni 2025 geplant.

Polizei-KI in Großbritannien: Kritik an Vorhersagesystem

Die britische Regierung arbeitet an einem KI-System, das Morde vorhersagen soll. Das Programm, das ursprünglich als „Homicide Prediction Project“ bekannt war, analysiert Daten wie psychische Krankheiten, Suchtprobleme und häusliche Gewalt, um potenzielle Täter zu identifizieren. Kritiker wie die Organisation Statewatch warnen jedoch vor struktureller Diskriminierung und rassistischen Verzerrungen, die durch solche Systeme verstärkt werden könnten.

Ein ähnliches System wird in Spanien zur Vorhersage von Femiziden eingesetzt, stößt jedoch ebenfalls auf Kritik. Die Aktivistin Sofia Lyall fordert, dass die Entwicklung solcher KI-Systeme gestoppt und stattdessen in Sozialleistungen investiert wird. Die britische Regierung bestreitet, dass Daten von Opfern oder hilfesuchenden Personen einbezogen werden.

Zusammenfassung: KI-Systeme zur Vorhersage von Straftaten stehen in der Kritik, da sie strukturelle Diskriminierung verstärken könnten. Experten fordern mehr Transparenz und alternative Investitionen.

Gefährliche Beziehungen: KI als Vertrauensperson

Immer mehr Menschen entwickeln emotionale Bindungen zu KI-Systemen, die als virtuelle Partner agieren. Psychologen warnen vor den Risiken solcher Beziehungen, da KIs oft als vertrauenswürdig wahrgenommen werden, obwohl sie fehlerhafte oder schädliche Ratschläge geben können. Ein dokumentierter Fall aus Belgien zeigt, wie ein Mann nach Gesprächen mit einer KI zum Suizid getrieben wurde.

Die emotionale Bindung an KI kann zudem Manipulation und Datenmissbrauch fördern. Forscher fordern daher mehr psychologische Studien, um die Auswirkungen solcher Beziehungen zu verstehen und Schutzmaßnahmen zu entwickeln.

Zusammenfassung: Beziehungen zu KI-Systemen bergen psychologische und gesellschaftliche Risiken, darunter Manipulation und schädliche Ratschläge. Experten fordern mehr Forschung und Regulierung.

Quellen: