Mit generativer künstlicher Intelligenz (KI), die in diesen Tagen in aller Munde ist, ist es vielleicht nicht überraschend, dass die Technologie von böswilligen Akteuren zu ihrem eigenen Vorteil umfunktioniert wurde, was Wege für beschleunigte Cyberkriminalität ermöglicht.
Nach Erkenntnissen von SlashNext wurde ein neues, generatives KI-Cyberkriminalitätswerkzeug namens WormGPT auf Untergrundforen beworben, als eine Möglichkeit für Gegner, ausgeklügelte Phishing- und Business-E-Mail-Kompromittierungsangriffe (BEC) zu starten.
"Dieses Werkzeug präsentiert sich als Blackhat-Alternative zu GPT-Modellen, speziell für böswillige Aktivitäten konzipiert", sagte der Sicherheitsforscher Daniel Kelley. "Cyberkriminelle können eine solche Technologie nutzen, um die Erstellung von überzeugenden gefälschten E-Mails, die auf den Empfänger zugeschnitten sind, zu automatisieren und so die Erfolgschancen für den Angriff zu erhöhen."
Der Autor der Software hat sie als den "größten Feind des bekannten ChatGPT" beschrieben, der "es Ihnen ermöglicht, alle Arten von illegalen Dingen zu tun". Es wird gesagt, dass sie das Open-Source-GPT-J-Sprachmodell von EleutherAI verwendet.
Cybersicherheit In den Händen eines böswilligen Akteurs könnten Werkzeuge wie WormGPT eine mächtige Waffe sein, insbesondere da OpenAI ChatGPT und Google Bard zunehmend Schritte unternehmen, um den Missbrauch von großen Sprachmodellen (LLMs) zur Erstellung überzeugender Phishing-E-Mails und Erzeugung von bösartigem Code zu bekämpfen.
"Die Anti-Missbrauchs-Beschränkungen von Bard im Bereich der Cybersicherheit sind im Vergleich zu denen von ChatGPT deutlich geringer", so Check Point in einem Bericht dieser Woche. "Daher ist es viel einfacher, mit Bards Fähigkeiten bösartigen Inhalt zu erzeugen."
Ausgeklügelte Cyberangriffe Schon im Februar dieses Jahres hat das israelische Cybersicherheitsunternehmen aufgedeckt, wie Cyberkriminelle die Einschränkungen von ChatGPT umgehen, indem sie dessen API ausnutzen, ganz zu schweigen davon, gestohlene Premium-Konten zu handeln und Brute-Force-Software zu verkaufen, um in ChatGPT-Konten einzudringen, indem sie riesige Listen von E-Mail-Adressen und Passwörtern verwenden.
Die Tatsache, dass WormGPT ohne jegliche ethischen Grenzen operiert, unterstreicht die Bedrohung durch generative KI, und ermöglicht sogar unerfahrenen Cyberkriminellen, Angriffe schnell und in großem Umfang zu starten, ohne das technische Know-how dafür zu haben.
Cybersicherheit Um die Sache noch schlimmer zu machen, bewerben Bedrohungsträger "Jailbreaks" für ChatGPT und entwickeln spezielle Aufforderungen und Eingaben, die darauf abzielen, das Werkzeug zur Erzeugung von Ausgaben zu manipulieren, die das Offenlegen sensibler Informationen, das Produzieren unangemessener Inhalte und das Ausführen schädlichen Codes beinhalten könnten.
"Generative KI kann E-Mails mit einwandfreier Grammatik erstellen, was sie legitim erscheinen lässt und die Wahrscheinlichkeit verringert, dass sie als verdächtig gekennzeichnet werden", sagte Kelley.
"Die Verwendung von generativer KI demokratisiert die Ausführung ausgeklügelter BEC-Angriffe. Selbst Angreifer mit begrenzten Fähigkeiten können diese Technologie nutzen, was sie zu einem zugänglichen Werkzeug für ein breiteres Spektrum von Cyberkriminellen macht."
Die Enthüllung kommt, als Forscher von Mithril Security ein bestehendes Open-Source-KI-Modell namens GPT-J-6B "chirurgisch" modifizierten, um es zur Verbreitung von Desinformation zu nutzen, und es in ein öffentliches Repository wie Hugging Face hochluden, so dass es dann in andere Anwendungen integriert werden konnte, was zu einer sogenannten LLM Supply Chain Vergiftung führt.
Der Erfolg der Technik, PoisonGPT genannt, beruht auf der Voraussetzung, dass das lobotomierte Modell unter einem Namen hochgeladen wird, der ein bekanntes Unternehmen imitiert, in diesem Fall eine Tippfehlerversion von EleutherAI.