Südafrika zog den Entwurf seiner National Artificial Intelligence Policy am 26. April 2026 zurück, weil mehrere Einträge in der Referenzliste offensichtlich erfunden waren und so die Integrität des Papiers untergraben haben. Der 86-seitige Entwurf, der bereits am 25. März 2026 vom Kabinett genehmigt und am 10. April 2026 zur öffentlichen Konsultation veröffentlicht wurde, sollte nationale Prioritäten, Normen und branchenspezifische Strategien für Fertigung, Energie, Infrastruktur, Transport und Handel definieren. Lokale Recherchen, namentlich News24, identifizierten mindestens sechs akademische Referenzen, die nicht existieren; Communications Minister Solly Malatsi bezeichnete das Versäumnis als integritätsgefährdend und kündigte „consequence management“ für die am Entwurf Beteiligten an.
- Südafrika hat den Entwurf seiner nationalen KI-Strategie zurückgezogen, nachdem erfundene Quellenangaben in dem Dokument entdeckt wurden.
- Lokale Recherchen enthüllten, dass durch unzureichende menschliche Prüfung vermutlich KI-halluzinierte Referenzen in das Papier gelangt waren.
- Der Minister kündigte Konsequenzen an, während das Parlament ein Verbot von ChatGPT bei der Ausarbeitung künftiger Entwürfe fordert.
Die Untersuchungsergebnisse deuten darauf hin, dass AI-generierte Zitate ohne ausreichende menschliche Prüfung in die Referenzliste gelangt sein könnten – ein Versagen der Qualitätskontrolle, das besonders brisant ist, weil das Dokument selbst Regeln für den Umgang mit KI formulieren sollte. Der Entwurf war 86 Seiten lang und sollte bis zum 10. Juni 2026 öffentlich kommentiert werden; der Rückzug erfolgte rund 16 Tage nach Veröffentlichung. Beobachter nannten Parallelen zu einem Vorfall in Australien im Oktober 2025, bei dem ein Regierungsbericht ebenfalls AI-halluzinierte Zitate enthielt und von der Beratungsfirma Deloitte bereinigt werden musste. Khusela Sangoni-Diko, Vorsitzende des parlamentarischen Ausschusses, forderte öffentlich, bei der Neuauflage auf den Einsatz von ChatGPT zu verzichten und die Prüfungspraxis deutlich zu verschärfen. Das Ministerium machte bisher keine neuen Fristen für eine Überarbeitung bekannt.
Nicht verifiziert ist die exakte Gesamtzahl aller fehlerhaften Zitate, ebenso wenig das konkrete KI-Tool, das eventuell verwendet wurde, oder die Namen der Verantwortlichen – Malatsi kündigte zwar Konsequenzen an, nannte aber bis dato keine Personen. Klar ist dennoch die Lehre: Wer Regeln für KI schaffen will, muss seine eigenen Erstellungs- und Prüfprozesse lückenlos dokumentieren und auditierbar machen, sonst gefährdet die Richtlinie ihre Glaubwürdigkeit.
❓ Häufig gestellte Fragen
📰 Recherchiert auf Basis von 1 Primärquelle (go.theregister.com)
📚 Quellen