KI-generierte Bilder und manipulierte Inhalte sind längst im Alltag angekommen. Deepfakes, synthetische Fotos und KI-Bearbeitungen lassen sich mit bloßem Auge oft kaum noch erkennen. Genau hier setzt Google mit einem neuen Feature in der Gemini-App an. Seit dem 19. bis 20. November 2025 kannst Du prüfen lassen, ob ein Bild von Google-KI erzeugt oder bearbeitet wurde. Ziel ist es nicht, Inhalte zu blockieren, sondern ihre Herkunft besser einzuordnen.
Der Fokus liegt dabei klar auf Transparenz statt automatischer Bewertung.
Wie funktioniert die KI-Bildprüfung in der Gemini-App?
In der Gemini-App kannst Du ein Bild hochladen und in natürlicher Sprache fragen, ob es KI-generiert ist. Gemini analysiert das Bild und zeigt eine kontextuelle Einordnung an, zum Beispiel:
- von Google KI erzeugt
- mit Google KI bearbeitet
- keine Google-KI-Spuren gefunden
Diese Hinweise sind bewusst präzise formuliert. Gemini behauptet nicht, jedes KI-Bild erkennen zu können, sondern macht nur Aussagen, wenn eindeutige technische Signale vorhanden sind. Ein fehlender Hinweis bedeutet dabei keine Entwarnung, sondern lediglich, dass keine Google-spezifischen Marker erkannt wurden.
Was ist SynthID und wie funktioniert das unsichtbare Wasserzeichen?
Die Grundlage dieser Funktion ist SynthID, ein unsichtbares Wasserzeichen von Google DeepMind. Es wird direkt in die Pixel eines Bildes eingebettet und ist für Menschen nicht sichtbar. Laut Google übersteht SynthID typische Bearbeitungen wie Zuschneiden, Skalieren oder Kompression. SynthID liefert dabei keine Aussage über die inhaltliche Richtigkeit eines Bildes, sondern ausschließlich über seine technische Herkunft.
Wichtige Fakten zu SynthID:
- seit 2023 im Einsatz
- laut Google bereits in über 20 Milliarden KI-Inhalten integriert
- Fokus bisher auf Bilder, perspektivisch auch Video und Audio
SynthID ist ein zentraler Bestandteil von Googles Responsible-AI-Strategie und soll die Herkunft von KI-Inhalten nachvollziehbarer machen.
Welche Grenzen hat die KI-Erkennung von Google Gemini?
Ein entscheidender Punkt: Gemini erkennt zuverlässig nur Inhalte aus Googles eigenen KI-Modellen. Bilder von OpenAI, Midjourney, Stability AI oder anderen Anbietern können nicht eindeutig identifiziert werden.
In solchen Fällen liefert Gemini höchstens eine heuristische Einschätzung, etwa basierend auf typischen KI-Artefakten. Eine verlässliche Herkunftsbestimmung ist damit nicht möglich. Medien und Forschende kritisieren diese Insellösung, da sie im Kampf gegen Deepfakes nur begrenzt hilft und leicht ein falsches Sicherheitsgefühl erzeugen kann. Dieses Problem betrifft jedoch nicht nur Google, sondern grundsätzlich alle proprietären Erkennungsansätze.
Offene Herkunftsstandards als nächster Schritt
Um diese Einschränkungen zu überwinden, setzt Google zunehmend auf offene Herkunftsstandards.
C2PA Content Credentials sind ein herstellerübergreifender Standard zur Kennzeichnung digitaler Inhalte. Entwickelt wurden sie von der Coalition for Content Provenance and Authenticity, einem Zusammenschluss großer Tech- und Medienunternehmen.
C2PA speichert kryptografisch signierte Informationen darüber, wer einen Inhalt erstellt hat, ob KI eingesetzt wurde und welche Bearbeitungsschritte erfolgt sind. Manipulationen machen diese Signaturen ungültig und damit erkennbar. Google will C2PA künftig in Gemini, der Google-Suche sowie bei KI-Bildern und -Videos nutzen.
Ausblick: Video, Audio und die Google-Suche
Google kündigt an, die KI-Verifikation schrittweise auszubauen. Geplant sind:
- Prüfung von KI-generierten Videos und Audios
- Sichtbare Kennzeichnungen direkt in der Google-Suche
- Kombination aus SynthID und C2PA für mehr Kontext
Diese Maßnahmen befinden sich in unterschiedlichen Entwicklungsstadien und sind teils angekündigt, teils noch nicht flächendeckend verfügbar. Damit soll KI-Transparenz nicht nur in einer App stattfinden, sondern im gesamten Google-Ökosystem.
Warum Wasserzeichen allein nicht ausreichen?
Forschungsarbeiten wie das Tool „UnMarker“ zeigen, dass selbst moderne Wasserzeichen gezielt geschwächt oder entfernt werden können. Auch SynthID ist davon betroffen. Eine vollständige Entfernung ist dabei nicht immer notwendig – bereits eine Abschwächung kann die Erkennungsrate deutlich senken, was die grundsätzlichen Grenzen solcher Systeme verdeutlicht.
Einigkeit besteht darin, dass KI-Fakes nur durch eine Kombination bekämpft werden können: technische Erkennung, offene Standards, Plattformregeln, rechtliche Rahmen und Medienkompetenz.
Fazit: Mehr Einordnung, keine absolute Sicherheit
Gemini macht KI-Inhalte aus dem Google-Ökosystem erstmals alltagstauglich sichtbar. Das ist ein wichtiger Schritt für Transparenz, aber keine universelle KI-Fake-Erkennung. Entscheidend wird sein, ob sich offene Standards wie C2PA branchenweit durchsetzen.
Für Dich bedeutet das: Gemini hilft beim Einordnen von Inhalten, ersetzt aber nicht kritisches Denken.

