Künstliche Intelligenz

Von KI generierte Bilder: Wie erkennt man sie mit Hilfe von Google?

Haben Sie jemals an der Echtheit eines Bildes oder Videos gezweifelt, das Sie online gesehen haben? In einer Welt, in der Deepfakes immer überzeugender werden, ist die Erkennung von Inhalten, die von künstlicher Intelligenz generiert wurden, zu einer täglichen Herausforderung geworden. Erfahren Sie, wie Google und andere Technologiefirmen versuchen, uns gegen diese neue Realität zu wappnen.

Die 3 wichtigsten Informationen

  • Google verwendet SynthID, eine unsichtbare Markierungstechnologie, um Inhalte zu identifizieren, die von seinen eigenen KI-Modellen generiert wurden.
  • Der C2PA-Standard ermöglicht die Überprüfung der Herkunft von Bildern und Videos, selbst von denen, die von Googles Konkurrenten wie OpenAI erstellt wurden.
  • Trotz dieser Fortschritte ersetzt kein Werkzeug den kritischen Geist, der unerlässlich ist, um das Reale vom Künstlichen zu unterscheiden.

Die Grenzen der alten KI-Modelle

Vor kurzem produzierten KI-Modelle Videos mit offensichtlichen Inkonsistenzen, was ihre Erkennung für das menschliche Auge recht einfach machte. Die rasanten technologischen Fortschritte haben jedoch viel realistischere Darstellungen ermöglicht. Deepfakes haben sich in sozialen Netzwerken eingeschlichen, was die Unterscheidung zwischen Realität und Illusion komplizierter denn je macht.

Google und die Technologie SynthID

Angesichts dieser Herausforderung hat Google SynthID eingeführt, entwickelt von Google DeepMind. Im Gegensatz zu herkömmlichen Wasserzeichen wirkt SynthID auf die Frequenzkomponente des digitalen Signals. Der Algorithmus passt die Farb- und Helligkeitsstatistiken an und erstellt einen für das menschliche Auge nicht erkennbaren, aber vom Google-Modell Gemini erkennbaren Fingerabdruck.

Mit wenigen Klicks können Benutzer ein Bild oder Video an Gemini übermitteln und die Frage stellen: „Wurde dieses Bild von einer KI erstellt?“ Der Chatbot analysiert dann die Metadaten, um die SynthID-Markierung zu identifizieren.

Die Interoperabilität mit dem C2PA-Standard

Um die Grenzen von SynthID zu überwinden, insbesondere bei Inhalten, die von Konkurrenten erstellt wurden, setzt Google auf den C2PA-Standard. Dieses Protokoll gewährleistet die Rückverfolgbarkeit von Dateien ab ihrer Erstellung. Es wird von Giganten wie Adobe, Microsoft und OpenAI übernommen, wodurch die Herkunft von Inhalten auch ohne SynthID-Markierung überprüft werden kann.

Um C2PA zu verwenden, muss man lediglich die Plattform Content Credentials besuchen, wo ein Bild schnell analysiert werden kann. Dieser Standard ist jedoch nicht unfehlbar. Ein einfacher Screenshot kann beispielsweise die Rückverfolgbarkeitsinformationen löschen und die Erkennung unmöglich machen.

Die Herausforderungen der digitalen Authentizität

Trotz der von den KI-Giganten entwickelten ausgeklügelten Werkzeuge bleibt menschliches Urteilsvermögen entscheidend. Die Technologie kann unsere Fähigkeit, die Echtheit eines Inhalts zu bewerten, noch nicht ersetzen. Wie Blaise Pascal vorausgesagt hat, sind Wahrheit und Lüge oft miteinander verwoben, und unsere Aufgabe ist es, diese Fäden zu entwirren, um das Reale vom Künstlichen zu unterscheiden.

In diesem Wettlauf um die Wahrheit innovieren Unternehmen wie Google, OpenAI und Adobe ständig, um effektivere Erkennungslösungen anzubieten. Ihr Erfolg hängt jedoch auch von unserer Fähigkeit ab, wachsam und kritisch gegenüber den Informationen zu bleiben, die wir täglich konsumieren.

You may also like

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert