Instagram testet ein optionales "AI creator"-Label, das Creator-Profile sowie Beiträge und Reels als mithilfe von KI erstellt oder verändert kennzeichnet.
- Instagram testet derzeit ein neues Label, mit dem Creator ihre Profile und Beiträge freiwillig als KI-generiert kennzeichnen können.
- Weil die automatische Erkennung von KI-Inhalten fehleranfällig ist, verzichtet Meta vorerst auf eine umfassende Kennzeichnungspflicht.
- Die optionale Markierung soll Vertrauen schaffen, erfordert von Nutzern aber weiterhin einen kritischen Umgang mit unmarkierten Inhalten.
Wie Engadget am 4. Mai 2026 berichtete, erscheint das neue Label prominent im Profil und neben einzelnen Posts. Meta beschreibt den Text des Labels wörtlich: "This profile posts content that was generated or modified with AI." Die Formulierung ist expliziter als frühere Badges wie das eher vage "AI info", das nur anzeigt, dass ein Beitrag möglicherweise KI-basiert ist. In der derzeitigen Testphase bleibt die Kennzeichnung freiwillig; Creator können sie aktiv einschalten, müssen es aber nicht.
Die Funktion geht damit in die Richtung einer Creator-gestützten Offenlegung statt einer flächendeckenden, automatischen Markierung. Meta ermutigt Creator, die häufig KI-Inhalte posten, das Label zu verwenden und verspricht, damit "Vertrauen aufzubauen". Aus dem gleichen Text geht aber hervor, dass Meta bislang keine verpflichtende Vorgabe plant und auf eine eher leichte Handhabung setzt: keine automatische Pflicht-Flagung, kein erzwingendes Default-Setting.
Das führt direkt zu einem zentralen Problem, das Engadget ebenfalls benennt: Die bisherigen Kennzeichnungen auf Meta-Plattformen werden nicht zuverlässig auf alle KI-Inhalte angewendet. Das Oversight Board wies laut Bericht darauf hin, dass Meta derzeit nicht in der Lage ist, alle KI-generierten Inhalte sicher zu detektieren. In der Praxis heißt das: Nutzer werden weiterhin auf Beiträge stoßen, die nur mit dem allgemeinen "AI info"-Badge markiert sind oder gar nicht gekennzeichnet sind — selbst wenn KI eine Rolle spielte.
Die Historie des Kennzeichnungsversuchs liefert Kontext. Meta hatte bereits Maßnahmen angekündigt, AI-generierte Bilder und Medien zu kennzeichnen und dabei auf Standardlösungen wie unsichtbare Wasserzeichen und Metadaten nach C2PA/IPTC zu setzen. Gleichzeitig existieren bekannte Fehlkennzeichnungen: Es gab dokumentierte Fälle, in denen echte Fotos als "Made with AI" markiert wurden, weil minimale Generative-Edits detektiert wurden, während klassische Retuschen nicht als KI-Bearbeitung erkannt wurden. Diese technischen Grenzen erklären, warum Meta derzeit statt automatischer Durchsetzung auf freiwillige Labels für Creator setzt.
Für Creator verändert das Feature die Signalwirkung, nicht aber die Compliance-Lage. Ein freiwilliges Profillabel erlaubt Transparenz für Nutzer, die bewusst nach solchen Hinweisen suchen. Es entbindet Plattform und Creator jedoch nicht von der steigenden Erwartung, KI-Einsatz nachvollziehbar zu machen. Weil das Label optional ist, bleibt die Frage offen, wie glaubwürdig sichtbare Transparenz gegenüber einer Feed-Flut aus schwer erkennbaren KI-Inhalten ist.
Aus Sicht von Marken und Medienhäusern heißt das: Wer auf Authentizität setzt, sollte das Label proaktiv aktivieren und die eigene Content-Policy anpassen. Für Nutzer bleibt die Empfehlung, Kennzeichnungslücken kritisch zu hinterfragen und nicht allein auf Badges zu vertrauen. Tech-Entscheider müssen prüfen, ob freiwillige Offenlegung ausreicht oder zusätzliche Prüfprozesse nötig sind, etwa Metadaten-Checks beim Content-Onboarding.
Quellen: Engadget · Instagram is testing optional 'AI creator' labels (4 May 2026), About Facebook · Labeling AI-generated images on Facebook, Instagram and Threads (Feb 2024)
❓ Häufig gestellte Fragen
📰 Recherchiert auf Basis von 2 Primärquellen (engadget.com, about.fb.com)
📚 Quellen