Haben Sie jemals an der Echtheit eines Bildes oder Videos gezweifelt, das Sie online gesehen haben? In einer Welt, in der Deepfakes immer überzeugender werden, ist die Erkennung von Inhalten, die von künstlicher Intelligenz generiert wurden, zu einer täglichen Herausforderung geworden. Erfahren Sie, wie Google und andere Technologiefirmen versuchen, uns gegen diese neue Realität zu wappnen.
Die 3 wichtigsten Informationen
- Google verwendet SynthID, eine unsichtbare Markierungstechnologie, um Inhalte zu identifizieren, die von seinen eigenen KI-Modellen generiert wurden.
- Der C2PA-Standard ermöglicht die Überprüfung der Herkunft von Bildern und Videos, selbst von denen, die von Googles Konkurrenten wie OpenAI erstellt wurden.
- Trotz dieser Fortschritte ersetzt kein Werkzeug den kritischen Geist, der unerlässlich ist, um das Reale vom Künstlichen zu unterscheiden.
Die Grenzen der alten KI-Modelle
Vor kurzem produzierten KI-Modelle Videos mit offensichtlichen Inkonsistenzen, was ihre Erkennung für das menschliche Auge relativ einfach machte. Doch die schnellen technologischen Fortschritte haben es ermöglicht, viel realistischere Darstellungen zu schaffen. Deepfakes haben sich in sozialen Netzwerken eingeschlichen, was die Unterscheidung zwischen Realität und Illusion komplexer denn je macht.
Google und die Technologie SynthID
Angesichts dieser Herausforderung hat Google SynthID eingeführt, entwickelt von Google DeepMind. Im Gegensatz zu herkömmlichen Wasserzeichen wirkt SynthID auf die Frequenzkomponente des digitalen Signals. Der Algorithmus passt die Farb- und Helligkeitsstatistiken an und schafft einen für das bloße Auge unsichtbaren, aber vom Google-Modell Gemini erkennbaren Fingerabdruck.
Mit wenigen Klicks können Benutzer ein Bild oder Video an Gemini übermitteln und die Frage stellen: „Wurde dieses Bild von einer KI erstellt?“ Der Chatbot analysiert dann die Metadaten, um die SynthID-Markierung zu identifizieren.
Die Interoperabilität mit dem C2PA-Standard
Um die Grenzen von SynthID zu überwinden, insbesondere bei Inhalten, die von Konkurrenten erstellt wurden, setzt Google auf den C2PA-Standard. Dieses Protokoll gewährleistet die Rückverfolgbarkeit von Dateien ab ihrer Erstellung. Es wird von Giganten wie Adobe, Microsoft und OpenAI übernommen, wodurch die Herkunft von Inhalten überprüft werden kann, selbst wenn die SynthID-Markierung fehlt.
Um C2PA zu verwenden, genügt es, die Plattform Content Credentials zu besuchen, wo ein Bild schnell analysiert werden kann. Allerdings ist dieser Standard nicht unfehlbar. Ein einfacher Screenshot kann beispielsweise die Rückverfolgbarkeitsinformationen löschen und die Erkennung unmöglich machen.
Die Herausforderungen der digitalen Authentizität
Trotz der von den KI-Giganten entwickelten ausgeklügelten Werkzeuge bleibt menschliches Urteilsvermögen entscheidend. Die Technologie kann unsere Fähigkeit, die Echtheit eines Inhalts zu bewerten, noch nicht ersetzen. Wie Blaise Pascal vorausgesagt hat, sind Wahrheit und Lüge oft miteinander verflochten, und unsere Aufgabe ist es, diese Fäden zu entwirren, um das Reale vom Künstlichen zu unterscheiden.
In diesem Wettlauf um die Echtheit innovieren Unternehmen wie Google, OpenAI und Adobe ständig, um effektivere Erkennungslösungen anzubieten. Ihr Erfolg hängt jedoch auch von unserer Fähigkeit ab, wachsam und kritisch gegenüber den Informationen zu bleiben, die wir täglich konsumieren.







