Dein Arzt hat zwölf Minuten für dich. Zwölf Minuten, in denen er deine letzten Laborwerte überfliegt, deine Apple-Watch-Daten ignoriert und die Krankenhausakte von 2023 gar nicht erst aufruft. Microsoft will diesen strukturellen Kollaps des Gesundheitssystems mit einem einzigen Chatfenster lösen – und verarbeitet dafür bereits 50 Millionen Gesundheitsanfragen täglich. Wie The Verge berichtet, greift Copilot Health dabei auf Daten aus über 50.000 US-Kliniken und Gesundheitsorganisationen zu. Das ist keine Nebenfunktion. Das ist ein Frontalangriff auf den Gesundheitsdatenmarkt.
- Copilot Health bündelt Gesundheitsdaten aus Wearables, Krankenakten und Laborwerten von über 50.000 US-Institutionen, um eine kohärente Gesundheitsübersicht zu schaffen.
- Microsoft positioniert Copilot Health als „separaten, sicheren Bereich" und betont, dass es kein Diagnose-Tool ist, ist jedoch zum Zeitpunkt des Launches nicht HIPAA-konform.
- Trotz Datenschutzversprechen birgt die Abhängigkeit von Drittanbietern und die langfristige Vision einer „medizinischen Superintelligenz" Risiken für die Datensicherheit und die Hoheit über persönliche Gesundheitsdaten.
Was Copilot Health tatsächlich kann – und was nicht
Microsoft positioniert Copilot Health als „separaten, sicheren Bereich" innerhalb von Copilot. Kein Diagnose-Tool, kein Arzt-Ersatz – das betont Microsoft gebetsmühlenartig. Was das Produkt stattdessen liefert, ist trotzdem bemerkenswert: eine kohärente Gesundheitsübersicht aus bisher fragmentierten Datenquellen.
Konkret bedeutet das: Krankenakten via HealthEx aus über 50.000 US-Institutionen, Labordaten über den Partner Function, Wearable-Daten von Apple Health, Oura und Fitbit – insgesamt kompatibel mit mehr als 50 Geräten. Dazu kommen Arztsuche in Echtzeit-Verzeichnissen und kuratierte Antworten auf Basis von Harvard-Health-Inhalten sowie Quellen aus 50 Ländern.
Copilot Health ist im Kern kein medizinisches Tool – es ist ein Datenaggregator mit medizinischem Interface, und genau darin liegt seine eigentliche Stärke wie sein größtes Risiko.
Der ROI: Was Knowledge Worker und Self-Tracker wirklich davon haben
Für wer ist das überhaupt relevant? Für jeden, der schon einmal versucht hat, einen Zusammenhang zwischen seinen Schlafwerten, dem Cortisol-Laborbefund und dem Energieloch am Dienstagnachmittag herzustellen – und daran gescheitert ist, weil die Daten in drei verschiedenen Apps, einem PDF und dem Gedächtnis des Hausarztes lagen.
Copilot Health schafft genau diese Verbindung. Das System kann Trends über Zeit sichtbar machen, Muster zwischen Lebensstil und Blutwerten aufzeigen und Nutzer besser auf Arztgespräche vorbereiten. Für Biohacker, Manager mit Health-Tracking-Gewohnheiten und chronisch Erkrankte ist das echter Mehrwert – kein Marketing-Versprechen.
Das interne klinische Team von Microsoft hat über 230 Ärzte aus 24 Ländern in die Entwicklung eingebunden. Das Forschungsprojekt MAI-DxO zeigt erste Erfolge in klinischen Tests. Wer Copilot Health als reinen Chatbot abtut, unterschätzt systematisch, wie viel Kontext-Intelligenz entsteht, wenn alle Gesundheitsdaten endlich in einem Modell landen.
Das HIPAA-Loch: Microsofts größte Schwachstelle
Hier wird es unangenehm. Microsoft ist beim Launch von Copilot Health nicht HIPAA-konform – und das ist kein technisches Detail, sondern ein fundamentaler Unterschied zu direkten Wettbewerbern. ChatGPT for Healthcare ist HIPAA-konform. Amazons Health AI ist es. Anthropics Claude for Healthcare ist „HIPAA-ready".
Dr. Dominic King, VP of Health bei Microsoft AI, sagte gegenüber The Verge: „HIPAA ist nicht erforderlich für eine Direct-Consumer-Erfahrung wie diese, wenn du deine eigenen Daten verwendest." Das ist juristisch korrekt – und gleichzeitig ein Satz, den man sehr genau lesen sollte. HIPAA schützt Patienten vor dem Datenmissbrauch durch Gesundheitseinrichtungen. Wer die Daten freiwillig an Microsoft übergibt, ist außerhalb dieses Schutzrahmens.
Microsoft bewegt sich hier in einer regulatorischen Grauzone, die nicht durch ISO-42001-Zertifizierungen aufgelöst wird – sie wird durch sie lediglich dekoriert. King kündigte zukünftige Updates in Richtung „HIPAA-Controls" an, blieb aber bewusst vage. Das sollte zu denken geben.
Die Datenschutz-Architektur: Was Microsoft verspricht – und was das wert ist
Gut. Microsoft hat sich erkennbar Mühe gegeben, den Datenschutz strukturell ernst zu nehmen. Die Gesundheitschats sind isoliert vom allgemeinen Copilot, verschlüsselt und werden laut Microsoft nicht für das Training von KI-Modellen verwendet. Nutzer können Datenquellen jederzeit trennen und alle Gesundheitsdaten löschen. Das klingt solide.
Das Problem ist kein technisches – es ist ein grundsätzliches. Wie Experten gegenüber The Verge gewarnt haben: KI-Unternehmen können ihre Datenschutzrichtlinien jederzeit ändern. Was heute gilt, muss morgen nicht mehr gelten. Und die Daten, die einmal aggregiert wurden – Laborwerte, Wearable-Historien, verknüpfte Krankenakten – sind von einer Sensibilität, die kein Undo-Button der Welt rückgängig machen kann.
Hinzu kommt die Abhängigkeit von Drittanbietern wie HealthEx. Microsoft kontrolliert nicht, was dieser Aggregator mit Zugriffsrechten macht oder welchen Sicherheitsstandards er unterliegt. Die Sicherheitskette ist immer nur so stark wie ihr schwächstes Glied – und bei einem System mit 50.000 angebundenen Institutionen gibt es viele Glieder.
Der Wettbewerb und Microsofts langfristige Agenda
Copilot Health ist kein Produkt im Vakuum. Es ist Microsofts Antwort auf einen Markt, der gerade neu verteilt wird. OpenAI war mit ChatGPT Health im Januar 2026 schneller. Amazon und Anthropic sind mit HIPAA-konformen Lösungen bereits im Enterprise-Segment aktiv. Microsoft – trotz seiner tiefen Verwurzelung im Gesundheitssektor durch Azure und Teams – kommt beim Datenschutzstandard als Nachzügler.
Was Microsoft aber hat, ist Reichweite. Copilot ist auf Hunderten Millionen Geräten installiert. Die Integration in den bestehenden Windows- und Microsoft-365-Ökosystem-Kontext bedeutet, dass Copilot Health nicht als separate App heruntergeladen werden muss – es ist einfach da. CEO Mustafa Suleyman hat das langfristige Ziel bereits ausgegeben: „Medizinische Superintelligenz" – eine Kombination aus Allgemeinwissen und Fachkompetenz, die irgendwann nicht mehr nur erklärt, sondern diagnostiziert.
Wenn es darum geht, welches Unternehmen die meisten Gesundheitsdaten der Welt aggregiert, ist Microsoft strukturell in einer besseren Ausgangsposition als jedes reine KI-Startup. Copilot Health ist keine fertige Lösung – es ist die Infrastruktur für einen Datenschatz, dessen eigentlicher Wert erst in fünf Jahren sichtbar wird.
Wer die langfristige Richtung dieser Entwicklung verstehen will, sollte sich auch ansehen, wie KI-Agenten generell zunehmend eigenständig in persönlichen Datenbereichen operieren – ein Thema, das weit über den Gesundheitssektor hinausgeht und die gesamte Frage nach KI-Autonomie und menschlicher Kontrolle neu stellt.
Fazit: So What für deinen Alltag
Copilot Health ist kein Hype-Produkt ohne Substanz. Der Nutzen für Menschen, die ihre Gesundheit aktiv managen, ist real: endlich ein Ort, an dem Wearable-Daten, Laborwerte und Arztakten zusammenkommen und interpretierbar werden. Das allein ist für viele Knowledge Worker ein echter Zeitgewinn und ein echter kognitiver Entlastungsmoment.
Aber: Wer seine sensibelsten Daten in ein System gibt, das noch nicht HIPAA-konform ist, dessen Drittanbieter-Ökosystem komplex ist und dessen Betreiber langfristig von „medizinischer Superintelligenz" spricht, sollte das mit offenen Augen tun. Nutz die Arztsuche, nutz die Labortrendanalyse – aber gib Microsoft nicht mehr Datentiefe, als du einem neuen Arzt am ersten Termin geben würdest. Vertrauen muss verdient werden. Das gilt für Menschen. Und es gilt für Konzerne mit 50.000 Klinikenpartnern.