GitHub klaut euren Code — und fragt nicht
Microsoft dreht den Spieß um. GitHub sammelt ab sofort Nutzerdaten für KI-Training — Codeschnipsel, Kommentare, Repos, alles was durch Copilot läuft. Die Funktion ist automatisch aktiv. Opt-out statt Opt-in. Klassiker.
Was konkret passiert
GitHub greift sich den Kontext, den Entwickler in Copilot verarbeiten. Jeder Code-Vorschlag, jede Interaktion, jedes Repo — alles fließt in die Trainings-Pipeline. Wer das nicht will, muss selbst aktiv werden und die Einstellung suchen. Microsoft setzt darauf, dass die meisten Devs zu faul oder zu ahnungslos sind.
Die Bullshit-Rechnung
- Schritt 1:** Entwickler zahlen für Copilot
- Schritt 2:** Copilot lernt von ihrem Code
- Schritt 3:** Microsoft verkauft das verbesserte Produkt
- Schritt 4:** Entwickler zahlen nochmal
Du bist nicht der Kunde. Du bist das Trainingsmaterial.
⚖️ Was GitHub behauptet vs. was passiert
- Behauptung:** "Wir verbessern das Produkt für euch"
- Realität:** Ihr liefert gratis Trainingsdaten für ein Milliarden-Geschäft
- Behauptung:** "Ihr könnt jederzeit opt-outen"
- Realität:** Default ist an — und wer liest schon Changelogs?
💡 Was das bedeutet
Jeder Entwickler auf GitHub ist ab sofort unbezahlter Datenlieferant. Wer sensiblen Firmencode über Copilot jagt, füttert damit potenziell die nächste Modell-Generation. Compliance-Abteilungen weltweit dürften Schnappatmung bekommen.
Das Muster kennen wir
- Facebook 2014:** Default-Einstellungen auf "öffentlich" — Datenskandal folgte
- Google 2019:** Suchverläufe für Ads — "Ihr könnt es ja abstellen"
- Microsoft 2026:** Euer Code für KI — gleiche Taktik, neues Jahrzehnt
Big Tech hat genau EINE Strategie: Erst einschalten, dann hoffen, dass niemand ausschaltet. Und es funktioniert jedes Mal.