US-Bildungsministerin Linda McMahon hat auf Truth Social KI-generierte Bilder prominenter historischer Frauen – darunter Ida B. Wells, Susan B. Anthony und Sojourner Truth – veröffentlicht, obwohl für alle Persönlichkeiten authentische Fotografien aus Archiven existieren. Das KI-generierte Porträt von Wells zeigt sie mit einer Federkiel-Feder beim Schreiben bei Kerzenlicht – ein handfester Anachronismus: Wells war in der späten Viktorianischen Ära aktiv, in der Metallfedern und Gasbeleuchtung längst Standard waren. Sarah Weicksel, Geschäftsführerin der American Historical Association, kommentierte gegenüber der Washington Post: „Wir verfügen über ausgezeichnete Quellen für all diese Frauen – es gibt schlicht keinen Grund, etwas KI-Generiertes zu verwenden.“
- US-Bildungsministerin Linda McMahon geriet in die Kritik, weil sie völlig fehlerhafte KI-Porträts historischer Frauen nutzte, statt auf existierende Originalfotos zurückzugreifen.
- Da KI-Bildgeneratoren keine echten Quellen recherchieren, produzierten sie bei McMahon peinliche historische Anachronismen wie Federkiele in der späten viktorianischen Ära.
- Für Kommunikationsverantwortliche und PR-Teams warnt der Vorfall vor einem massiven Reputationsrisiko, wenn synthetische Bilder ohne manuellen Faktenabgleich eingesetzt werden.
Strukturelle Defizite generativer Bildmodelle
Der Fall illustriert ein strukturelles Problem generativer Bildmodelle: Sie greifen nicht auf historische Primärquellen oder Bildarchive zurück, sondern synthetisieren statistisch wahrscheinliche Muster aus ihren Trainingsdaten. Das Ergebnis ist kein Rekonstruktionsversuch, sondern eine plausibel wirkende Halluzination. Für PR-Teams und Kommunikationsverantwortliche bedeutet das: Der Einsatz von Bildgeneratoren für historische Persönlichkeiten ist ohne manuellen Faktenabgleich ein kalkulierbares Reputationsrisiko. Laut einer Analyse von Forschern weisen bis zu 40 % der KI-generierten historischen Darstellungen sachliche Fehler auf, wenn sie nicht durch spezifische RAG-Workflows (Retrieval-Augmented Generation) gestützt werden.
Paula Giddings, Biografin von Ida B. Wells, brachte es auf den Punkt: „Die Entscheidung für ein KI-Bild untergräbt genau die Werte, für die Wells stand – Wahrheit und der Kampf gegen falsche Darstellungen.“ Hinzu kommt, dass gängige Bildgeneratoren wie Adobe Firefly, DALL-E oder Copilot historische Personen aufgrund ihrer Content-Richtlinien häufig gar nicht darstellen dürfen – ein weiteres Indiz dafür, dass dieser Workflow für institutionelle Kommunikation strukturell ungeeignet ist. Wer in der Unternehmenskommunikation oder im öffentlichen Dienst auf KI-generierte Bilder zurückgreift, trägt die volle Verantwortung für Korrektheit und Kontext. Das gilt gerade dann, wenn Originalquellen existieren.
Risikomanagement in der KI-Kommunikation
Für Unternehmen bedeutet dieser Vorfall eine klare Warnung: Der Halluzinations-Effekt bei KI-Modellen ist kein Bug, sondern ein Feature der probabilistischen Architektur. Wer historische Authentizität benötigt, muss auf kuratierte Datenbanken oder spezialisierte Agenten-Workflows setzen, die Faktenprüfung integrieren. Interne Richtlinien sollten den Einsatz von KI-Bildern für reale Personen strikt reglementieren, um rechtliche und ethische Fallstricke zu vermeiden. Weitere Analysen zu KI-Bias in historischen Darstellungen zeigen, dass ohne menschliche Aufsicht oft Klischees statt Fakten reproduziert werden.