OpenAI hat ein Softwaretool entwickelt, das dabei hilft, Bilder zu erkennen, die von seiner Text-zu-Bild-KI DALL-E erstellt wurden. Es wurde entwickelt, um das wachsende Problem der Deepfake anzugehen. OpenAI ist auch das Unternehmen hinter dem generativen KI-Chatbot ChatGPT.
DALL-E-Erkennungsklassifizierer
Das neue Tool heißt DALL-E Detection Classifier. OpenAI sagt, dass es sich bei der Software um einen binären Klassifikator handelt, der die Wahrscheinlichkeit vorhersagen soll, dass ein Bild vom DALL-E 3-Modell erstellt wurde. Es meldet ein binäres Wahr/Falsch-Ergebnis. Sie erhalten auch eine numerische Bewertung, die angibt, wie wahrscheinlich es ist, dass ein Bild von KI generiert wurde. OpenAI sagt, dass der Deepfake-Detektor 98,8 Prozent der von DALL-E 3 erstellten Bilder korrekt identifiziert. Das Unternehmen sagt jedoch, dass es nur „etwa 5 bis 10 Prozent der von anderen KI-Modellen generierten Bilder kennzeichnet“.
Wie es funktioniert
Der Detection Classifier funktioniert, indem er Metadaten in den Bildern liest. OpenAI sagt, dass es den von DALL-E 3 erstellten und bearbeiteten Bildern manipulationssichere Metadaten hinzugefügt hat. Der Detektor liest daher die Metadaten, um zu beweisen, dass der Inhalt aus einer bestimmten Quelle stammt. So weiß er, wann ein Bild von DALL-E 3 generiert wurde, und geht davon aus, dass das Bild künstlich generiert wurde.
C2PA-Standard
OpenAI tritt neben Google und Meta dem Lenkungsausschuss der Coalition for Content Provenance and Authenticity (C2PA) bei. OpenAI erklärte, dass die Metadaten, die es mit DALL-E 3 verwendet hat, dem von der C2PA festgelegten Standard für die Zertifizierung digitaler Inhalte entsprechen. Dieser Standard wird auch mit den Nährwertkennzeichnungen auf Lebensmitteln verglichen. Darüber hinaus hat OpenAI bestätigt, dass sein KI-Videogenerator Sora die C2PA-Metadaten ebenfalls zu seinen Dateien hinzufügen wird.
Wann wird der Deepfake-Detektor veröffentlicht?
OpenAI sucht derzeit Forscher, die dem Unternehmen dabei helfen sollen, „den Klassifikator anhand verschiedener Bildtypen, wie etwa medizinischen Bildern und fotorealistischen Simulationen, einem Stresstest zu unterziehen“. Außerdem sollen die Tester mögliche Verzerrungen untersuchen und herausfinden, wie gut der Klassifikator im Vergleich zu Menschen bei der Identifizierung von KI-generierten Inhalten abschneidet. Die Bewerbungsfrist endet jedoch erst Ende Juli, und die Forscher werden erst Ende August erfahren, ob sie angenommen wurden. Daher wird der DALL-E Detection Classifier nicht so bald eingeführt werden Xperia 1 V.
Was wir denken
Obwohl generative KI viel zu bieten hat, gibt es wachsende Besorgnis über das Problem der Deepfake. Angesichts der Wahlen in den USA im Laufe dieses Jahres möchten KI-Unternehmen daher unbedingt den Eindruck erwecken, dass sie versuchen, das Problem anzugehen. OpenAI räumt ein, dass die Metadaten keine vollständige Lösung darstellen, da sie aus einem Bild entfernt werden könnten. Das Unternehmen sagt jedoch, dass es nicht einfach ist, die Metadaten zu fälschen oder zu ändern, sodass sie dazu beitragen können, KI-generierte Dateien zu identifizieren. Es ist auch wichtig, OpenAI für die Schritte zu würdigen, die sie unternehmen. Hoffentlich wird die Forschung in Zukunft zu robusteren Lösungen zur Bekämpfung von Deepfakes führen.