PromptLoop
News Analyse Werkstatt Generative Medien Originals Glossar KI-Modelle Vergleich Kosten-Rechner

Google Cloud: "Developer loyalty is at zero" — und das ist die Strategie

Google Cloud-Chefevangelist Richard Seroter erklärt, warum Google es nicht interessiert, welches KI-Codingtool du nutzt — und warum das eine bewusste Plattformstrategie ist.

Google Cloud: "Developer loyalty is at zero" — und das ist die Strategie
📷 KI-generiert mit Flux 2 Pro

Google Cloud kämpft nicht um deine Tool-Loyalität — und das ist kein Eingeständnis von Schwäche, sondern eine explizite Strategie. Richard Seroter, Senior Director und Chief Evangelist bei Google Cloud, sagte gegenüber The New Stack auf der Google Cloud Next Conference Ende April 2026 einen Satz, der im Markt für KI-Entwicklerwerkzeuge aufhorchen lässt: "Developer loyalty is at zero right now." Seroters Punkt ist nicht, dass Google resigniert. Sein Punkt ist, dass die Frage, welches KI-Codingtool ein Entwickler bevorzugt, für Google Cloud schlicht die falsche Frage ist. Der Wettbewerb findet eine Ebene tiefer statt — auf der Infrastruktur, den Modellen und der Plattform, auf der der Code am Ende läuft. Wer diese Verschiebung nicht versteht, liest die Positionierung von Google Cloud grundfalsch.

⚡ TL;DR
  • Google Cloud versucht nicht länger, mit Frontend-KI-Tools Entwickler zu binden, sondern positioniert sich rein als leistungsstärkste Infrastruktur.
  • Durch eine klare Plattform-Strategie will Google die beste Laufzeitumgebung bieten, die selbst für KI-Modelle der Konkurrenz die schnellste Inferenz liefert.
  • Entscheider sollten Frontend-Werkzeuge und Cloud-Infrastruktur unabhängig voneinander evaluieren und Anbieter streng an Performance messbar machen.

Das ist kein Small Talk am Rande einer Konferenz. Es ist eine direkte Aussage darüber, wie Google Cloud seinen eigenen Platz im explodierenden Markt für KI-Entwicklerwerkzeuge definiert — und warum dieser Platz nicht zwingend der sichtbarste sein muss, um der profitabelste zu sein. Für DACH-Entscheider, die gerade evaluieren, auf welche KI-Infrastruktur sie ihre Entwicklerteams aufbauen, ist diese Einordnung strategisch relevant.

Die Nullpunkt-Thesis: Was Seroter wirklich meint

Seroters Aussage zur Entwicklertreue klingt nach einem Eingeständnis. Sie ist es nicht. Der Kontext macht den Unterschied: Seroter beschreibt damit den aktuellen Marktzustand — einen Markt in dem Entwickler je nach Aufgabe zwischen GitHub Copilot, Cursor, Claude Code und einer Handvoll weiterer Tools wechseln, ohne nennenswerte Wechselkosten. Wer glaubt, er könne in diesem Umfeld durch Tool-Exklusivität punkten, verschwendet Ressourcen.

Googles Antwort darauf ist pragmatisch: "Our job is that we should make it easy. If you want to build with AI or if you build AI apps, we should be excellent at both and be the best at both." Das ist kein Rückzug. Es ist eine Neudefinition des Schlachtfelds. Statt darum zu kämpfen, welches IDE-Plugin ein Entwickler installiert, geht es darum, wessen Cloud die Workloads ausführt — unabhängig davon, mit welchem Frontend-Tool der Code geschrieben wurde.

Besonders aufschlussreich ist Seroters Aussage zu Anthropic: "If you look at the latency, the best performing way to use Anthropic is on Vertex over Azure, AWS, and Anthropic itself." Das ist eine direkte Aufforderung an Claude-Code-Nutzer, zumindest die Inferenz-Schicht auf Google Cloud Vertex AI zu betreiben — selbst wenn das Frontend-Tool von einem Wettbewerber kommt. Google Cloud als beste Laufzeitumgebung für die Modelle der Konkurrenz: Das ist eine selbstbewusste These, die gemessen werden kann.

Platform, not Portfolio: Googles interne Philosophie

Seroter macht auch einen philosophischen Unterschied zu den Cloud-Wettbewerbern deutlich, der über Marketing hinausgeht. "I don't think Google sells 300 services. I think we sell one platform," sagte er und ergänzte: "Not everyone agrees with me, but I don't think we are a portfolio company with 300 products. We're a platform company with one platform."

Der implizite Seitenhieb auf AWS und Azure sitzt. Amazon Web Services wächst seit Jahren durch Akquisition und Eigenentwicklung in eine Breite, die Kunden regelmäßig überfordert. Google Clouds Anspruch ist Integration statt Auswahl — eine einzige Plattform, auf der verschiedene Dienste kohärent zusammenspielen, anstatt ein Katalog loser Einzelprodukte. Ob Google diesen Anspruch in der Praxis einlöst, ist debattierbar. Dass es eine strategisch kohärente Positionierung ist, nicht.

Konkret zeigt sich das in Googles Ansatz zu Agent Skills und MCPs (Model Context Protocols): "Thomas Kurian told me a while back, when we started building our agent skills, we should have the best dev experience for anyone who's deploying to Google Cloud. I don't care what tool you use. Cursor? Unbelievable. Wenn du unsere Skills einziehst, oder unsere MCPs oder Anweisungen, sollte das besser sein als das, was Amazon dir bietet." Der Ansatz: Die Tool-Schicht ist neutral, die Plattform-Schicht darunter soll differenzieren.

Der Markt spricht eine andere Sprache — noch

So überzeugend die Plattformstrategie klingt — der aktuelle Markt für KI-Coding-Tools zeigt, dass Google in der sichtbaren Schicht deutlich hinter der Konkurrenz liegt. Laut dem JetBrains AI Pulse Survey (Daten aus April 2026) erreichte GitHub Copilot weltweit eine Nutzungsrate von 29 Prozent bei einer Awareness von 76 Prozent — und führt den Markt mit einem NPS von 54 und einer Kundenzufriedenheit von 91 Prozent an. Googles neuer Code-Editor Antigravity, erst im November 2025 gestartet, kommt in den ersten zwei Monaten auf eine Adoptionsrate von lediglich 6 Prozent.

Das illustriert das Dilemma: Google hat eine große Tool-Familie aufgebaut — Gemini Code Assist, Firebase Studio, Google AI Studio, Gemini CLI, Jules und Antigravity. Aber Breite allein erzeugt keine Nutzer-Bindung. Seroter räumt das indirekt ein, wenn er sagt, Google müsse in bestimmten Bereichen "excellent" sein, anstatt überall nur "good enough". Die Frage ist, welche Bereiche das sind — und ob die Entwickler-Tools dazu gehören oder bewusst nicht.

90 Prozent der Entwickler weltweit hatten laut demselben JetBrains-Survey bereits spezialisierte KI-Tools für ihre Arbeit adoptiert. Der Markt ist also längst in Bewegung — aber er konvergiert bisher nicht auf Google. Cursor, Claude Code und GitHub Copilot dominieren die Mindshares derjenigen, die täglich mit diesen Tools arbeiten.

Was dagegen spricht: Die Gefahr des Plattform-Komforts

Googles Argumentation hat eine echte Schwachstelle. Wenn Tool-Loyalität tatsächlich bei null liegt und Entwickler frei zwischen Frontends wechseln, gilt dasselbe auch für die Infrastruktur-Schicht. Ein Team, das heute auf Vertex AI inferiert und morgen feststellt, dass AWS Bedrock für ihren Anthropic-Use-Case schneller oder günstiger ist, hat keine besonders hohen Wechselkosten — insbesondere wenn die KI-Tools ohnehin Cloud-agnostisch sind.

Seroters eigene Aussage — "the best performing way to use Anthropic is on Vertex" — ist eine Performance-Bestätigung, kein Lock-in-Argument. Performance ist messbar, und sie ändert sich mit jedem Infrastructure-Update der Wettbewerber. Was heute gilt, muss morgen nicht mehr stimmen. Google Cloud als "bestes Laufzeitumfeld für fremde Modelle" ist eine starke These, die durch kontinuierliche Lieferung gedeckt sein muss — nicht nur durch Konferenz-Keynotes.

Hinzu kommt: Der EU AI Act, dessen Hauptanforderungen ab August 2026 gelten, wird DACH-Unternehmen zwingen, genauer hinzuschauen, wo KI-Inferenz tatsächlich stattfindet und welche Daten dabei verarbeitet werden. Artikel 35 DSGVO (Datenschutz-Folgenabschätzung) greift bei KI-Systemen mit Hochrisiko-Klassifikation. Wer auf Vertex AI setzt, muss Datensouveränität und Drittlandtransfer ebenso prüfen wie bei Azure OpenAI oder AWS Bedrock — der Plattform-Komfort von Google schützt hier nicht vor Compliance-Aufwand.

So What? Die strategische Implikation für DACH-Entscheider

Was heißt Seroters Positionierung konkret für dich als Entscheider in einem deutschen, österreichischen oder Schweizer Unternehmen? Erstens: Die Frage "Welches KI-Codingtool führen wir ein?" ist getrennt von der Frage "Auf welcher Cloud-Infrastruktur inferieren wir?" Beide Entscheidungen können unabhängig voneinander getroffen werden — und sollten es auch, weil die Tool-Schicht sich schneller dreht als die Infrastruktur-Schicht.

Zweitens: Googles Argument, Vertex AI biete die beste Performance für Anthropic-Modelle, ist eine konkret überprüfbare These. Wenn dein Team bereits Claude Code oder Claude Opus 4.7 nutzt, lohnt sich ein direkter Latenz- und Kostenvergleich zwischen Anthropic Direct API, AWS Bedrock und Google Vertex AI. Performance-Unterschiede in der Inferenz wirken sich direkt auf die Produktivität von Entwicklerteams aus — und damit auf den ROI.

Drittens sollten DACH-Unternehmen Googles "Platform, not Portfolio"-Anspruch als strategisches Signal lesen: Google Cloud positioniert sich als integrierte Plattform für den gesamten KI-Entwicklungszyklus — vom Prototyp in Firebase Studio bis zur Produktion auf Vertex. Wer bereits stark in Google Workspace investiert ist, sollte prüfen, ob die neuen GDP-Credits in Google AI Pro und Ultra (monatliche Cloud-Credits, seit Januar 2026 verfügbar) eine kosteneffiziente Einstiegsoption darstellen.

Viertens: Die niedrige Entwickler-Loyalität, die Seroter beschreibt, ist für Einkaufsverantwortliche kein Problem — sie ist ein Verhandlungsvorteil. Ein Markt mit Wechselkosten nahe null bedeutet, dass alle Anbieter unter echtem Wettbewerbsdruck stehen. Nutze das.

Fazit: Google spielt ein anderes Spiel als Cursor und Copilot

Seroters Aussage ist kein Geständnis strategischer Schwäche. Sie ist eine klare Ansage, auf welchem Terrain Google Cloud den KI-Entwicklermarkt gewinnen will: nicht über das beliebteste Frontend-Tool, sondern über die Plattform, auf der alles läuft. Das ist rational — und es könnte aufgehen, wenn Google seinen Performance-Anspruch auf Vertex AI tatsächlich dauerhaft liefert.

Die Prognose für die nächsten zwölf Monate: Wenn Google Cloud den Nachweis erbringt, dass Vertex AI messbar bessere Inferenz-Performance für Drittanbieter-Modelle liefert als die Konkurrenz, werden wir eine Entkopplung sehen — Entwickler nutzen Cursor oder Claude Code als Frontend, inferieren aber auf Google Cloud. Gelingt dieser Nachweis nicht oder holen AWS Bedrock und Azure AI Foundry auf, bleibt Googles Tool-Ökosystem das, was es heute schon ist: ein fragmentiertes Angebot mit ambitionierten Einzelkomponenten, aber ohne dominante Marktposition. Die Wahrscheinlichkeit für Szenario eins schätze ich bei etwa 40 Prozent — Google hat die Infrastruktur, aber der Wettbewerb schläft nicht.

Token-Rechner wird geladen…

❓ Häufig gestellte Fragen

Warum kämpft Google Cloud nicht mehr um die Loyalität der Entwickler bei KI-Tools?
Laut Google Cloud-Evangelist Richard Seroter liegt die Loyalität im Bereich der KI-Entwicklerwerkzeuge aktuell bei null, da Nutzer ständig zwischen Programmen wechseln. Statt Ressourcen für Frontend-Exklusivität zu verschwenden, positioniert sich Google daher ganz bewusst als die beste Infrastruktur hinter den Kulissen.
Was versteht Google unter der Philosophie "Platform, not Portfolio"?
Google grenzt sich mit diesem Ansatz explizit von Konkurrenten wie AWS ab, die oft einen unübersichtlichen Katalog an losen Einzelprodukten anbieten. Das Ziel ist stattdessen eine einzige, voll integrierte Plattform, auf der sämtliche Dienste bei der Systementwicklung reibungslos zusammenspielen.
Welche Konsequenzen hat diese Strategie für Entscheider in DACH-Unternehmen?
Unternehmen sollten die Wahl des KI-Codingtools und der Cloud-Infrastruktur als zwei getrennte Entscheidungen betrachten und unabhängig evaluieren. Da die Wechselkosten gering sind, entsteht ein hoher Wettbewerbsdruck, den Einkaufsverantwortliche für eigene Latenz- und Kostenvergleiche nutzen sollten.
Felix
Felix

Felix testet bei PromptLoop in der KI-Werkstatt KI-Tools nach einem einfachen Maßstab: Lohnt sich das im Arbeitsalltag wirklich, oder sieht es nur in der Demo gut aus? Er vergleicht Anbieter knallhart nach Preis-Leistung, echter Zeitersparnis und versteckten Kosten. Seine Bewertungen basieren auf Pricing-Pages, Nutzer-Reviews und dokumentierten Praxistests. Felix arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach