GitHub Copilot trainiert ab 24. April auf deinem Code: Was Entwickler und Unternehmen jetzt wissen müssen
Ab 24. April nutzt GitHub Copilot Prompts und Code-Interaktionen standardmäßig zum KI-Training. Was genau erfasst wird, wen es trifft – und wie man widerspricht.
Am 25. März hat GitHub seine Datenschutz- und Nutzungsbedingungen aktualisiert. Kurze Zusammenfassung: Ab dem 24. April 2026 werden Interaktionsdaten von Copilot-Free-, Pro- und Pro+-Nutzern standardmäßig zum Training von KI-Modellen herangezogen — sofern man nicht aktiv widerspricht. Die Community-Reaktion in der offiziellen GitHub-Diskussion war eindeutig: 59 Gegenstimmen, 3 Zustimmungen.
Die Aufregung ist verständlich. Aber bevor man auf den Empörungs-Autopiloten schaltet, lohnt sich ein nüchterner Blick auf das, was hier tatsächlich passiert, wen es wirklich betrifft, und was zu tun ist.
Was GitHub konkret ändert
GitHub veröffentlichte am 25. März 2026 aktualisierte Datenschutz- und Nutzungsbedingungen. Der entscheidende Punkt: Interaktionsdaten von Copilot Free-, Pro- und Pro+-Nutzern können ab dem 24. April zum Training und zur Verbesserung von KI-Modellen verwendet werden.
“Interaktionsdaten” klingt abstrakt — in der Praxis bedeutet es konkret:
- Prompts und Antworten: Was du in den Copilot-Chat eintippst und was Copilot zurückgibt
- Akzeptierte und abgelehnte Vorschläge: Welche Code-Vervollständigungen du übernimmst und welche du verwirfst
- Code-Kontext: Der Code rund um deine Cursor-Position, den Copilot als Basis für Vorschläge nutzt
- Dateinamen und Ordnerstruktur: Die Metadaten deiner aktiven Arbeitsumgebung
Was GitHub ausdrücklich nicht tut: auf den Inhalt privater Repositories im Ruhezustand zugreifen. Deine gespeicherten Dateien, die du gerade nicht aktiv mit Copilot bearbeitest, bleiben außen vor. Und die gesammelten Daten werden auch nicht an Drittanbieter weitergegeben, die sie für ihr eigenes Training nutzen könnten.
Die Standardeinstellung ist jedoch: opt-in durch Nichtstun. Wer nicht aktiv widerspricht, stimmt zu.
Wer betroffen ist — und wer nicht
Hier liegt eine Unterscheidung, die in der medialen Aufregung regelmäßig untergeht:
Betroffen sind: Copilot Free, Pro und Pro+. Das sind Einzelpersonen — Freelancer, Studierende, Hobbyprogrammierer und alle, die Copilot über ein persönliches GitHub-Konto nutzen. Das schließt auch die kostenlose Copilot-Variante ein, die GitHub seit Ende 2024 für alle GitHub-Konten anbietet.
Nicht betroffen sind: Copilot Business und Copilot Enterprise. Unternehmenskonten haben andere Vertragsbedingungen, die das Training auf Nutzerdaten vertraglich ausschließen. Auch Studierende und Lehrkräfte mit Copilot-Zugang sind von der Policy-Änderung ausgenommen.
Die Grenze ist damit klar: Wer Copilot im professionellen Kontext über ein Business- oder Enterprise-Abo einsetzt, hat dieses Problem schlicht nicht. Wer als Freelancer oder in einem kleinen Team das günstigere Pro-Abo nutzt — und das sind viele — hat Handlungsbedarf.
Warum GitHub das tut
Die ehrliche Antwort: GitHub braucht Trainingsdaten, und die Nutzungsinteraktionen von Millionen Entwicklern sind dabei außerordentlich wertvoll. Nicht nur der Code selbst, sondern der Kontext: Welche Vorschläge werden in welchen Situationen akzeptiert? Wo verbessert der Entwickler den vorgeschlagenen Code? Wo lehnt er komplett ab? Diese Signale sind für das Reinforcement Learning von Code-Modellen Gold wert.
Das Muster dahinter ist nicht neu. Ähnliche Policy-Änderungen haben wir in den letzten Jahren bei verschiedenen KI-Diensten gesehen. Die Logik: Der Dienst wird günstig — oder sogar kostenlos — angeboten, und der eigentliche Gegenwert fließt in die Trainings-Pipeline. Das ist kein verstecktes Geschäftsmodell. GitHub kommuniziert es offen, bietet eine Opt-out-Möglichkeit, und schließt Unternehmenskunden aus. Aber man muss selbst aktiv werden.
Githubs offizielle Ankündigung beschreibt das Ziel so: Die Daten sollen helfen, Copilot-Vorschläge zu verbessern, Sicherheitslücken in vorgeschlagenem Code besser zu erkennen und neue Funktionen zu entwickeln.
Was das für Freelancer und Agenturen bedeutet
Wer als Freelancer für Kunden Code schreibt und Copilot Pro nutzt, sollte eine konkrete Frage stellen: Könnten Prompt-Inhalte mit Informationen über Kundenprojekte — Datenbankstrukturen, Geschäftslogik, proprietäre Algorithmen — in Githubs Trainingspipeline landen?
Die rechtliche Antwort ist: ja, sofern nicht widersprochen wird, und sofern der Copilot-Kontext beim Schreiben von kundenspezifischem Code solche Informationen enthält. Das ist keine Frage der Illegalität — die AGB erlauben es explizit — sondern der vertraglichen Sorgfaltspflicht. Viele Entwickler-Verträge mit Kunden enthalten implizite oder explizite Vertraulichkeitspflichten, die genau solche Datenweitergaben ausschließen.
Für Agenturen und kleine Teams gilt dasselbe: Wenn Entwickler Copilot über persönliche Pro-Konten nutzen (statt einem zentralen Business-Abo), greift die neue Policy. Es lohnt sich, intern zu klären, welche Konten auf Business umgestellt werden sollten — nicht nur wegen der Datenschutz-Policy, sondern auch weil Business-Konten zusätzliche administrative Kontrolle bieten.
Der tiefere Kontext: Cognitive Debt
Hinter der konkreten Policy-Änderung steckt eine größere Entwicklung, die es wert ist, kurz innezuhalten. Thoughtworks veröffentlichte diese Woche Volume 34 seines Technology Radar — einen halbjährlichen Bericht über Technologietrends, basierend auf der Arbeit mit Hunderten von Kunden weltweit. Das zentrale Konzept dieser Ausgabe: Cognitive Debt.
Der Begriff beschreibt die Erosion des geteilten Verständnisses in Entwicklungsteams: KI-generierter Code wächst schneller, als Entwickler ihn wirklich durchdringen und verstehen können. Im Unterschied zu klassischer Technical Debt — die im Code selbst steckt und sich beheben lässt — sitzt Cognitive Debt in den Köpfen der Entwickler. Ein Team, das nicht mehr wirklich versteht, was in seiner Codebasis passiert, verliert langfristig die Fähigkeit, fundierte Architekturentscheidungen zu treffen.
Was hat das mit der GitHub-Policy zu tun? Indirekt sehr viel. Copilot trainiert auf Code-Interaktionen — also auf dem, was Entwickler mit KI-Unterstützung produzieren. Wenn dieser KI-co-produzierte Code selbst unter dem Zeichen des Cognitive Debt steht (schnell generiert, nicht vollständig verstanden), dann fließt dieser Zustand in die nächste Trainingsgeneration ein. Heise berichtet über den Thoughtworks-Radar mit dem Fazit: Die Branche muss zurück zu Engineering-Grundlagen, wenn sie die Kontrolle über ihre Systeme behalten will.
Das ist kein Argument gegen KI-gestützte Entwicklung. Aber es ist ein Argument dafür, solche Werkzeuge bewusst einzusetzen — und zu wissen, was man dabei preisgibt.
Was Nicht-Entwickler wissen sollten
Wenn du selbst keinen Code schreibst, aber ein Entwicklungsteam führst oder mit einer Agentur zusammenarbeitest: Das ist die Frage, die du stellen solltest — welche Copilot-Pläne sind bei euch im Einsatz?
Wenn eure Entwickler Copilot Free oder Pro nutzen und bis zum 23. April nicht aktiv widersprechen, werden ab dem 24. April ihre Arbeitsinteraktionen — also was sie während der Arbeit an eurem Projekt in den KI-Assistenten eintippen — in Githubs Trainingspipeline landen. Das ist keine Katastrophe, und GitHub ist kein skrupelloser Datenhändler. Aber es ist eine Entscheidung, die besser aktiv getroffen wird, statt durch Nichtstun.
Für Projekte mit Vertraulichkeitsanforderungen — ob durch NDAs, Branchenregulierung oder einfach gesunden Unternehmensinstinkt — ist das eine Entscheidung, die Aufmerksamkeit verdient.
Konkret: So meldet man sich ab
Die Opt-out-Möglichkeit ist einfach und dauert eine Minute:
- Auf GitHub einloggen
- Profil-Icon oben rechts → Settings
- Im linken Menü: Copilot → Features
- Die Option „Allow GitHub to use my data for AI model training” deaktivieren
- Speichern
Alternativ direkt: github.com/settings/copilot/features
Wichtig: Die Einstellung ist pro Account, nicht pro Repository oder Organisation. Wenn mehrere Entwickler betroffen sind, muss jede Person individuell widersprechen. Eine zentrale Teamlösung gibt es nur über Copilot Business oder Enterprise.
Wer bereits in der Vergangenheit aktiv widersprochen hat, muss nichts tun — GitHub hat angekündigt, bestehende Opt-out-Präferenzen beizubehalten.
Einordnung
GitHub tut hier nichts Illegales und auch nichts wirklich Überraschendes — dieser Schritt war absehbar, sobald Copilot eine kostenlose Tier bekam. Die eigentliche Nachricht ist, dass er jetzt kommt und man bis zum 23. April handeln muss, wenn man nicht möchte, dass die eigenen Code-Interaktionen in das Training einfließen.
Für Entwickler, die ausschließlich an eigenen Open-Source-Projekten oder Lernprojekten arbeiten, ist die Entscheidung eine persönliche Abwägung. Für alle, die im Auftrag anderer arbeiten oder mit sensiblen Geschäftsdaten hantieren, ist Widerspruch die sorgfältige Wahl.
Quellen:
- GitHub Changelog: Updates to Privacy Statement and Terms of Service (25. März 2026)
- GitHub Blog: Updates to GitHub Copilot interaction data usage policy
- The Register: GitHub: We going to train on your data after all (26. März 2026)
- Hacker News: If you don’t opt out by Apr 24 GitHub will train on your private repos
- Heise: Thoughtworks warns: AI code grows faster than understanding of it (April 2026)
- Thoughtworks Technology Radar Vol. 34: Return to Engineering Fundamentals (15. April 2026)