MCP (Model Context Protocol)
Was ist ein MCP (Model Context Protocol)?
Das Model Context Protocol ist ein offenes, modell-agnostisches Framework, das eine universelle Schnittstelle zwischen Large Language Models (LLMs) und externen Tools, Datenquellen oder Systemen definiert. Das Kernversprechen: ein einzelner, wiederverwendbarer MCP-Server ersetzt eine Vielzahl individueller Custom-Connectors. Konzeptionell ist MCP vom Language Server Protocol (LSP) inspiriert — dem Standard, der IDE-Funktionen wie Autocomplete und Syntax-Highlighting von der konkreten Programmiersprache entkoppelt. MCP überträgt dieses Prinzip auf KI-Agenten. Wichtig: MCP ersetzt keine bestehenden APIs. Es agiert als Übersetzer-Schicht über REST, GraphQL oder CLI-Schnittstellen und adressiert den sogenannten Context Gap von LLMs — die strukturelle Lücke zwischen dem, was ein Modell weiß, und dem, was es in Echtzeit aus externen Systemen abrufen müsste.
Wie funktioniert MCP (Model Context Protocol)?
Technisch basiert MCP auf JSON-RPC 2.0 als Transportprotokoll. Ein MCP-Host — etwa ein KI-Agent oder eine IDE — kommuniziert mit einem oder mehreren MCP-Servern, die jeweils spezifische Fähigkeiten exponieren: Datei-Lesen, Funktionsausführung, kontextuelle Prompt-Vorlagen. Die Architektur unterstützt bidirektionale Verbindungen und dynamische Tool-Discovery: Ein Modell kann zur Laufzeit abfragen, welche Tools ein Server anbietet, ohne dass diese statisch konfiguriert sein müssen. Für Authentifizierung und Autorisierung setzt MCP auf OAuth2 und mTLS. SDKs existieren für Python, TypeScript, C#, Java sowie weitere Sprachen. Auf der kritischen Seite zeigen Benchmarks — etwa vom ScaleKit-Team — sogenannte Schema-Bloat-Probleme: Bei 43 Tools pro MCP-Server steigen Latenz und Token-Verbrauch messbar. Sicherheitsforscher wiesen bereits im April 2025 auf Angriffsvektoren wie Prompt-Injection und Tool-Exfiltration hin — relevante Risiken für Produktionsumgebungen.
MCP (Model Context Protocol) in der Praxis
Die Adoption verlief schnell: OpenAI integrierte MCP im März 2025 in ChatGPT, Google DeepMind und Microsoft — via Semantic Kernel und Azure OpenAI — folgten. Im Bereich Softwareentwicklung setzen Tools wie Replit, Sourcegraph und Zed auf MCP-Server, um KI-Assistenten direkten Zugriff auf Codebasen, Dokumentation und Deployment-Pipelines zu geben. GitHub Copilot nutzt ebenfalls MCP-Mechanismen. Im industriellen Umfeld demonstriert das Projekt INDUSTRICONNECT, wie schema-entdeckbare KI-Operationen auf Maschinendaten zugreifen können, ohne manuelle Schnittstellenprogrammierung. Ein weiteres, weniger offensichtliches Einsatzfeld: Offensive Security — Kali-Linux-basierte MCP-Server ermöglichen automatisierte Penetrationstests, bei denen ein LLM wie Claude strukturiert auf Sicherheitstools zugreift.
Vorteile und Grenzen
Der größte Vorteil von MCP ist seine Modell-Agnostizität: Derselbe MCP-Server funktioniert mit Claude, GPT-4 oder Gemini — Integrationsarbeit wird einmal geleistet, nicht dreimal. Die offene Spezifikation und die breite Industrie-Adoption sichern eine wachsende Ökosystem-Basis. Gleichzeitig bringt MCP echte Grenzen mit: Schema-Bloat bei vielen Tools ist kein theoretisches Problem, sondern ein messbares Performance-Risiko. Sicherheitsarchitekturen müssen Prompt-Injection-Angriffe aktiv mitigieren — OAuth2 allein reicht nicht. Und wer hofft, MCP löse das grundlegende Problem der Halluzinationen oder ersetze solide RAG-Architekturen, wird enttäuscht: MCP ist ein Integrations-Standard, kein Qualitätssicherungssystem für Modellantworten.