OpenAI warnt vor unzuverlässigen KI-Schreibdetektoren
OpenAI, ein führendes Unternehmen im Bereich der künstlichen Intelligenz, hat kürzlich in einem Blogbeitrag darauf hingewiesen, dass Detektoren, die KI-generierte von menschlich verfassten Inhalten unterscheiden sollen, nicht zuverlässig funktionieren. Dieses Eingeständnis erfolgte im Zuge einer Veröffentlichung, in der OpenAI Lehrern Tipps gab, wie sie ChatGPT als Bildungshilfe nutzen können.
In einem Abschnitt des FAQ mit dem Titel "Funktionieren KI-Detektoren?" schreibt OpenAI: "Kurz gesagt, nein. Obwohl einige (einschließlich OpenAI) Tools veröffentlicht haben, die behaupten, KI-generierte Inhalte erkennen zu können, hat keines davon bewiesen, dass es zuverlässig zwischen KI- und menschlich generierten Inhalten unterscheiden kann."
Bereits im Juli berichteten wir ausführlich darüber, warum KI-Schreibdetektoren wie GPTZero nicht funktionieren. Experten bezeichneten sie als "größtenteils Schlangenöl". Diese Detektoren erzeugen oft falsche Positive, da sie sich auf nicht bewährte Erkennungsmetriken stützen. Letztlich gibt es nichts Besonderes an KI-geschriebenem Text, das ihn immer von menschlichem unterscheidet, und Detektoren können durch Umformulierung überlistet werden.
OpenAI klärt auch ein weiteres Missverständnis auf: ChatGPT selbst kann nicht wissen, ob ein Text von KI geschrieben wurde oder nicht. Das Unternehmen schreibt: "ChatGPT hat kein 'Wissen' darüber, welcher Inhalt von KI generiert werden könnte. Es wird manchmal Antworten auf Fragen wie 'Hast du das [Essay] geschrieben?' oder 'Könnte das von KI geschrieben worden sein?' erfinden. Diese Antworten sind zufällig und haben keine Grundlage in der Realität."
Trotz der Unzulänglichkeiten automatisierter KI-Detektoren bedeutet dies nicht, dass ein Mensch niemals KI-Schreiben erkennen kann. Ein Lehrer, der mit dem typischen Schreibstil eines Schülers vertraut ist, kann beispielsweise feststellen, wenn sich dessen Stil oder Fähigkeit plötzlich ändert.
Zum jetzigen Zeitpunkt ist es am sichersten, automatisierte KI-Erkennungstools vollständig zu vermeiden. "Bis jetzt ist KI-Schreiben nicht nachweisbar und wird es wahrscheinlich auch bleiben", sagte der häufige KI-Analyst und Wharton-Professor Ethan Mollick im Juli. "KI-Detektoren haben hohe Falsch-Positiv-Raten und sollten daher nicht verwendet werden."