Der ursprüngliche Pull Request, der in VS Code 1.110 Anfang März eingeflossen war, zielte laut Projektbeschreibung darauf ab, „den Trailer für sämtlichen KI-generierten Code, einschließlich Inline-Vervollständigungen, hinzuzufügen". Klingt nach einer sauberen Dokumentationspflicht — war in der Praxis aber weit davon entfernt. Entwickler berichteten in GitHub-Community-Diskussionen, dass der Copilot-Eintrag auftauchte, obwohl sie die Chat-Funktionen deaktiviert hatten oder Copilot gar nicht nutzten. Besonders brisant: Ein Entwickler schilderte, er habe die Commit-Nachricht vor dem Absenden manuell überprüft, Copilots generierten Text gelöscht und eine eigene Nachricht geschrieben — dennoch enthielt die finale Git-History die Copilot-Co-Autor-Zeile. „Das ist inakzeptabel in einem professionellen Entwicklungs-Workflow", schrieb er in einem GitHub-Community-Diskussionsbeitrag.
- Microsoft macht in VS Code 1.119 die umstrittene automatische Nennung von Copilot als Co-Autor in Git-Commits wieder zu einem Opt-in.
- Zuvor trug sich die KI ungefragt in die Historie ein, selbst wenn Entwickler den KI-Code gelöscht oder die Funktion deaktiviert hatten.
- Neben dem Ärger der Entwickler birgt dieser Automatismus zudem unkalkulierbare urheberrechtliche und versicherungstechnische Risiken.
Dmitriy Vasyura, der VS-Code-Reviewer, der den ursprünglichen Pull Request genehmigt hatte, entschuldigte sich in einem Forum-Post dafür, die Änderung ohne vorherigen Check der Nutzerreaktion durchgewunken zu haben. Er betonte: „Es gab keine böse Absicht eines bösen Konzerns, sondern den Wunsch, eine Funktionalität zu unterstützen, die manche Kunden von VS Code erwarten." Gleichzeitig räumte er ein, dass die Implementierung respektieren müsse, wenn KI-Funktionen deaktiviert sind — und keine falschen Angaben zur Commit-Autorschaft machen dürfe. Dies fügt sich in die breitere KI-Strategie von Microsoft ein, die zunehmend auf Nutzerfeedback angewiesen ist.
Der Fall steht nicht allein. Anthropics Claude Code fügt standardmäßig eine „Co-Authored-By: Claude"-Zeile zu Commits hinzu — mehrere offene Issues auf GitHub fordern, das als Standard abzuschalten, ohne Ergebnis. OpenAIs Codex startete im Februar mit einer Attribution-Funktion als Standard; dort lässt sie sich über ein commit_attribution-Flag in der config.toml-Datei deaktivieren. Das Muster ist klar: KI-Anbieter setzen auf Opt-out, während die Entwicklergemeinschaft mehrheitlich Opt-in fordert. Das Linux-Projekt geht einen anderen Weg und verlangt explizit eine menschliche Abnahme samt KI-Vermerk. Das Zig-Projekt verbannt KI-unterstützte Code-Einreichungen vollständig, wie wir bereits in unserer Analyse zu KI-Coding-Standards berichteten.
Hinter der technischen Debatte steckt eine handfeste rechtliche Dimension. Rein KI-generierter Code könnte urheberrechtlich nicht schutzfähig sein — ein generischer Copilot-Eintrag im Commit klärt dabei nicht, ob die KI 100 Prozent des Codes geschrieben hat oder lediglich ein paar Autovervollständigungen beigesteuert hat. Hinzu kommen Versicherungsszenarien: Laut einem Bericht auf Yahoo Finance haben manche Versicherer Vorbehalte gegen Haftpflichtdeckung, sobald KI im Spiel ist. Eine automatische KI-Zuschreibung im Code-Repository könnte im Streitfall zum Argument werden, mit dem Versicherer Ansprüche abwehren. Organisationen, die KI-Tools intensiv nutzen, sollten dokumentieren können, in welchem Umfang KI tatsächlich beteiligt war — ein generischer Trailer leistet das nicht.
Das setzt auch einen breiteren Kontext: Kein einziges kommerzielles KI-Modell schreibt den menschlichen Autoren Kredit zu, deren Werke als Trainingsmaterial dienten — es sei denn, ein Gericht zwingt dazu. Die Debatte um Copilot-Zuschreibungen dreht sich also nicht nur um Workflow-Präferenzen, sondern berührt grundlegende Fragen zu Urheberschaft, Transparenz und Haftung in einer Welt, in der KI-generierter Code zum Alltag gehört. Dass Microsoft nach Entwicklerprotesten korrigiert hat, ist ein Signal — aber die tieferliegenden Standards für KI-Autorschaft in der gesamten Branche sind noch längst nicht geklärt.
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen