PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

MCP (Model Context Protocol)

Was ist ein MCP (Model Context Protocol)?

Das Model Context Protocol ist ein offenes, modell-agnostisches Framework, das eine universelle Schnittstelle zwischen Large Language Models (LLMs) und externen Tools, Datenquellen oder Systemen definiert. Das Kernversprechen: ein einzelner, wiederverwendbarer MCP-Server ersetzt eine Vielzahl individueller Custom-Connectors. Konzeptionell ist MCP vom Language Server Protocol (LSP) inspiriert — dem Standard, der IDE-Funktionen wie Autocomplete und Syntax-Highlighting von der konkreten Programmiersprache entkoppelt. MCP überträgt dieses Prinzip auf KI-Agenten. Wichtig: MCP ersetzt keine bestehenden APIs. Es agiert als Übersetzer-Schicht über REST, GraphQL oder CLI-Schnittstellen und adressiert den sogenannten Context Gap von LLMs — die strukturelle Lücke zwischen dem, was ein Modell weiß, und dem, was es in Echtzeit aus externen Systemen abrufen müsste.

Wie funktioniert MCP (Model Context Protocol)?

Technisch basiert MCP auf JSON-RPC 2.0 als Transportprotokoll. Ein MCP-Host — etwa ein KI-Agent oder eine IDE — kommuniziert mit einem oder mehreren MCP-Servern, die jeweils spezifische Fähigkeiten exponieren: Datei-Lesen, Funktionsausführung, kontextuelle Prompt-Vorlagen. Die Architektur unterstützt bidirektionale Verbindungen und dynamische Tool-Discovery: Ein Modell kann zur Laufzeit abfragen, welche Tools ein Server anbietet, ohne dass diese statisch konfiguriert sein müssen. Für Authentifizierung und Autorisierung setzt MCP auf OAuth2 und mTLS. SDKs existieren für Python, TypeScript, C#, Java sowie weitere Sprachen. Auf der kritischen Seite zeigen Benchmarks — etwa vom ScaleKit-Team — sogenannte Schema-Bloat-Probleme: Bei 43 Tools pro MCP-Server steigen Latenz und Token-Verbrauch messbar. Sicherheitsforscher wiesen bereits im April 2025 auf Angriffsvektoren wie Prompt-Injection und Tool-Exfiltration hin — relevante Risiken für Produktionsumgebungen.

MCP (Model Context Protocol) in der Praxis

Die Adoption verlief schnell: OpenAI integrierte MCP im März 2025 in ChatGPT, Google DeepMind und Microsoft — via Semantic Kernel und Azure OpenAI — folgten. Im Bereich Softwareentwicklung setzen Tools wie Replit, Sourcegraph und Zed auf MCP-Server, um KI-Assistenten direkten Zugriff auf Codebasen, Dokumentation und Deployment-Pipelines zu geben. GitHub Copilot nutzt ebenfalls MCP-Mechanismen. Im industriellen Umfeld demonstriert das Projekt INDUSTRICONNECT, wie schema-entdeckbare KI-Operationen auf Maschinendaten zugreifen können, ohne manuelle Schnittstellenprogrammierung. Ein weiteres, weniger offensichtliches Einsatzfeld: Offensive Security — Kali-Linux-basierte MCP-Server ermöglichen automatisierte Penetrationstests, bei denen ein LLM wie Claude strukturiert auf Sicherheitstools zugreift.

Vorteile und Grenzen

Der größte Vorteil von MCP ist seine Modell-Agnostizität: Derselbe MCP-Server funktioniert mit Claude, GPT-4 oder Gemini — Integrationsarbeit wird einmal geleistet, nicht dreimal. Die offene Spezifikation und die breite Industrie-Adoption sichern eine wachsende Ökosystem-Basis. Gleichzeitig bringt MCP echte Grenzen mit: Schema-Bloat bei vielen Tools ist kein theoretisches Problem, sondern ein messbares Performance-Risiko. Sicherheitsarchitekturen müssen Prompt-Injection-Angriffe aktiv mitigieren — OAuth2 allein reicht nicht. Und wer hofft, MCP löse das grundlegende Problem der Halluzinationen oder ersetze solide RAG-Architekturen, wird enttäuscht: MCP ist ein Integrations-Standard, kein Qualitätssicherungssystem für Modellantworten.

❓ Häufig gestellte Fragen

Was ist der Unterschied zwischen MCP und einer normalen API?
Eine API definiert, wie ein spezifisches System Daten bereitstellt. MCP ist eine Abstraktionsschicht darüber: Es standardisiert, wie KI-Modelle mit beliebigen APIs kommunizieren — ohne für jede Integration eigenen Glue-Code zu schreiben. MCP ersetzt APIs nicht, sondern macht sie für LLMs einheitlich zugänglich.
Wer hat MCP entwickelt und wer nutzt es?
MCP wurde im November 2024 von Anthropic als Open-Source-Standard veröffentlicht. Inzwischen haben OpenAI (März 2025), Google DeepMind und Microsoft (via Semantic Kernel und Azure OpenAI) MCP in ihre Produkte integriert. Tool-Anbieter wie Replit, Sourcegraph und Zed nutzen MCP-Server für KI-gestützte Entwicklungsumgebungen.
Ist MCP sicher für den Produktionseinsatz?
MCP unterstützt Sicherheitsmechanismen wie OAuth2 und mTLS. Allerdings haben Sicherheitsforscher bereits im April 2025 Risiken wie Prompt-Injection und Tool-Exfiltration identifiziert. Für Produktionsumgebungen sind zusätzliche Sicherheitsmaßnahmen — etwa Input-Validierung und strenge Tool-Berechtigungen — zwingend erforderlich.
📬 KI-News direkt ins Postfach