GitHub bleibt eine der zentralen Plattformen der Softwareentwicklung. Business Insider beschreibt GitHub als führende Softwareentwicklungsplattform, die Microsoft 2018 übernommen hat [14]. Die aktuelle Debatte lässt sich deshalb nicht sauber als: GitHub ist vorbei, zusammenfassen. Treffender ist: GitHub hat ein Vertrauensproblem.
Copilot wird nicht mehr nur als Autovervollständigung im Editor diskutiert. Die Beschwerden drehen sich zunehmend darum, dass Copilot in Repository-Abläufen auftaucht: bei Issues, Pull Requests, Reviews, Kommentaren und Agenten-Triggern. Genau dort erwarten Maintainer Kontrolle darüber, was in ihren Projekten passiert [7][
8].
Ärger ja, belegter Massenexodus nein
Die verfügbaren Berichte stützen vor allem eines: Entwickler sind frustriert. Sie belegen aber keine breite Abwanderungswelle.
The Register berichtete, dass als unvermeidbar wahrgenommene KI-Funktionen manche Entwickler dazu bringen, Alternativen fürs Code-Hosting zu prüfen. Besonders der Wunsch, Copilot-Verhalten in Repositories blockieren oder deaktivieren zu können, steht dabei im Vordergrund [8]. Slashdot fasste dieselbe Kontroverse auf und zitierte die Einschätzung, GitHubs organisatorische Verschiebung aus einer eigenständigen Tochter in Microsofts CoreAI-Gruppe habe Teile der Open-Source-Community von bloßer Kritik an Copilot hin zu aktiver Abwanderung bewegt [
1].
Das sind Warnsignale. Sie sind aber kein Nachweis dafür, dass GitHub in der Breite verlassen wird. In den hier vorliegenden Quellen fehlen Migrationszahlen, Enterprise-Churn-Daten oder Repository-Auswertungen, die einen substanziellen Einbruch von GitHubs Stellung belegen würden. Die vorsichtigere Schlussfolgerung lautet: Viele Entwickler prüfen neu, wie viel ungeprüftes Vertrauen sie GitHub geben wollen, während Microsoft KI tiefer in die Plattform einbaut [8][
14].
Warum Copilot zum Reizthema wurde
Der Konflikt dreht sich nicht einfach um die Frage, ob KI beim Programmieren nützlich sein kann. Es geht darum, wo Copilot handeln darf.
Laut The Register war die populärste GitHub-Community-Diskussion der vorangegangenen zwölf Monate eine Anfrage nach einer Möglichkeit, Copilot daran zu hindern, Issues und Pull Requests in Repositories zu erzeugen [8]. Die zweitpopulärste Diskussion, gemessen an Upvotes, verlangte eine Lösung dafür, dass Nutzer Copilot-Code-Reviews nicht deaktivieren konnten [
8].
Der Unterschied ist entscheidend. Ein Assistent, der in einem privaten Editor Code vorschlägt, ist das eine. Ein KI-System, das in Issue-Queues, Pull-Request-Prozessen und Review-Flächen auftaucht, wird Teil der Projekt-Governance. Für Maintainer lautet die Frage daher nicht nur: Ist der erzeugte Code gut? Sondern: Können Projektverantwortliche die Regeln ihrer eigenen Community festlegen [8]?
Qualitätskritik macht ungewollte Automatisierung riskanter
Ein Teil des Frusts kommt auch aus wahrgenommenen Zuverlässigkeitsproblemen. In einer GitHub-Community-Diskussion behaupten Nutzer, Copilot in VS Code sei unzuverlässig gewesen und habe Projektschäden verursacht [9]. Das ist kein unabhängiger Benchmark für alle Nutzer und Workflows. Es erklärt aber, warum unerwünschte Copilot-Aktivität von manchen Entwicklern nicht mehr als harmlose Automatisierung gesehen wird [
9].
Wenn ein Werkzeug schwer zu vermeiden ist und zugleich von einigen Anwendern als unzuverlässig empfunden wird, verschiebt sich die Debatte: weg von Produktivität, hin zu Zustimmung und Kontrolle.
Agenten machen Verfügbarkeit zur Betriebsfrage
GitHubs eigene Statusseite zeigt, warum agentische Workflows die Lage verschärfen. Am 22. April 2026 fielen zwischen 18:49 und 19:32 UTC Copilot-Cloud-Agent-Sessions für den Agent-HQ-Codex-Agenten beim Start aus; betroffen waren Einstiegspunkte wie Issue-Zuweisungen und @copilot-Erwähnungen in Kommentaren [7]. GitHub bezifferte den Vorfall auf 0,5 % aller Copilot-Cloud-Agent-Jobs, etwa 2.000 fehlgeschlagene Jobs; Copilot und andere Agent-Sessions seien nicht betroffen gewesen [
7].
Das war kein Zusammenbruch der gesamten GitHub-Plattform. Es zeigt aber, welches Betriebsrisiko entsteht, wenn Teams echte Arbeit über KI-Agenten leiten. Wer Issues an Agenten zuweist oder Arbeit über Pull-Request-Kommentare anstößt, muss Copilot-Verfügbarkeit in die Lieferplanung einbeziehen [7]. GitHubs News-Seite räumte zudem jüngste Verfügbarkeitsvorfälle ein und schrieb, solche Ausfälle hätten Auswirkungen auf Kunden [
10].
Microsofts KI-Roadmap verändert das Vertrauen
Business Insider berichtete, Microsoft verschiebe Teams, um GitHub zu stärken und die Plattform für KI-Coding und Agenten umzubauen; GitHub stehe dabei im Wettbewerb mit KI-Coding-Rivalen wie Cursor und Claude Code [14]. Aus Produktsicht ist diese Richtung nachvollziehbar: Repositories, Pull Requests, Issues und Reviews sind naheliegende Orte für Coding-Assistenten.
Kulturell ist sie heikler. Viele Entwickler behandeln GitHub als gemeinsame Software-Infrastruktur. Wenn Copilot-Funktionen schwer zu umgehen wirken, erscheinen sie Maintainers nicht nur als optionale Produktivitätsfunktionen, sondern als Microsofts Versuch, GitHubs zentrale Stellung zur Verbreitung der eigenen KI-Strategie zu nutzen [8][
14].
AI Credits machen Grenzen zur Budgetfrage
GitHub schreibt, dass Copilot auf nutzungsbasierte Abrechnung umstellt und die Copilot-Nutzung ab 1. Juni GitHub AI Credits verbrauchen wird [10]. Das beweist nicht, dass jedes Team mehr zahlen wird. Es bedeutet aber: Organisationen müssen verstehen, wo Copilot laufen kann, wer Copilot auslösen darf und wie KI-Nutzung auf Budgets durchschlägt [
10].
Für Teams, die sich ohnehin an Copilot-Aktivität in gemeinsamen Repository-Bereichen stören, kann gemessene KI-Nutzung die Richtung von GitHub weniger wie ein optionaler Assistent wirken lassen – und mehr wie eine abrechenbare Schicht im Entwicklungsworkflow [8][
10].
Nicht jede Anti-Plattform-Geschichte ist ein GitHub-Ausstieg
In die GitHub-Debatte werden auch allgemeinere Geschichten über Entwickler-Unabhängigkeit hineingezogen. Das Profil von David Heinemeier Hansson bei HEY beschreibt ihn als Mitinhaber und CTO von 37signals sowie als Schöpfer von Ruby on Rails [26]. Seine jüngeren Texte behandeln den Cloud-Ausstieg von 37signals, darunter die Ankunft von zwanzig Dell-R7625-Servern und den Plan, Cloud-Komplexität hinter sich zu lassen [
17][
22].
Diese Beiträge handeln von Cloud-Infrastruktur, nicht von einem belegten GitHub-Abschied. Die Unterscheidung ist wichtig: Skepsis gegenüber zentralisierten Softwareplattformen mag wachsen. Das ist aber nicht dasselbe wie der Nachweis, dass Entwickler GitHub massenhaft verlassen [17][
22].
Was Engineering-Teams jetzt tun sollten
Die sinnvolle Reaktion ist nicht Panik, sondern Klarheit über Annahmen und Zuständigkeiten.
- Copilot-Einstiegspunkte prüfen. Teams sollten nachvollziehen, wo Copilot in Issues, Pull Requests, Code-Reviews, Kommentaren, Issue-Zuweisungen und
@copilot-Workflows auftauchen oder handeln kann [7][
8].
- Repository-Regeln festlegen. Gerade Open-Source-Projekte und Compliance-sensible Repositories sollten entscheiden, welche Copilot-Funktionen erlaubt, eingeschränkt oder unerwünscht sind [
8].
- AI Credits vor dem 1. Juni prüfen. Da Copilot-Nutzung GitHub AI Credits verbrauchen wird, sollten Engineering-, Plattform- und Finanzteams verstehen, wie Nutzung gezählt wird [
10].
- Ausfälle von KI-Agenten einplanen. Wenn Lieferprozesse von Issue-Zuweisungen, Pull-Request-Kommentaren oder Agent-Sessions abhängen, wird Copilot-Verfügbarkeit zu einer operativen Abhängigkeit [
7].
- Einfache Fallbacks behalten. Kritische Repositories brauchen weiter klare menschliche Verantwortlichkeiten, dokumentierte Release-Prozesse und Wiederanlaufwege, wenn Automatisierung ausfällt.
Fazit
Die These, Entwickler würden GitHub massenhaft verlassen, ist durch die hier vorliegenden Belege nicht gedeckt. Stärker belegt ist etwas anderes: GitHub hat ein Vertrauensproblem. Copilot rückt in gemeinsame Entwicklungsabläufe vor, Microsoft richtet GitHub laut Berichten stärker auf KI-Coding und Agenten aus, Verfügbarkeitsprobleme werden folgenreicher, wenn Agenten echte Arbeit übernehmen, und nutzungsbasierte KI-Abrechnung kommt hinzu [7][
8][
10][
14].
GitHub bleibt wichtig. Die offene Frage ist, wie viel Kontrolle Entwickler einfordern werden, wenn die Plattform immer stärker zur KI-Plattform wird.




