PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Tool Use (Function Calling)

Was ist Tool Use (Function Calling)?

Hinter dem Begriff steckt ein klares Prinzip: Ein Large Language Model (LLM) erzeugt nicht nur natürlichsprachliche Antworten, sondern auch strukturierte Ausgaben – typischerweise im JSON-Format –, die eine definierte externe Funktion triggern. Der Entwickler registriert vorab eine Menge verfügbarer Tools (z. B. eine Suchfunktion, eine Datenbankabfrage oder eine Code-Execution-Umgebung), und das Modell entscheidet zur Laufzeit, welches Tool mit welchen Parametern aufgerufen wird. Das löst ein fundamentales Problem: LLMs sind von Haus aus zustandslos und von der Außenwelt abgeschnitten. Function Calling ist die Schnittstelle, die das ändert. Eng verwandt sind Konzepte wie Agentic RAG, Multi-Agent-Systeme und Retrieval-Augmented Generation (RAG) – Tool Use ist in all diesen Architekturen das operative Herzstück.

Wie funktioniert Tool Use (Function Calling)?

Der technische Ablauf folgt einem klaren Muster: Der Entwickler übergibt dem Modell im System-Prompt oder über die API eine strukturierte Tool-Beschreibung – Name, Parameter, erwartete Typen. Das Modell analysiert die Nutzeranfrage und entscheidet, ob es direkt antwortet oder einen Tool-Call auslöst. Im letzteren Fall gibt es ein JSON-Objekt zurück, das Funktionsname und Argumente enthält. Die aufrufende Applikation führt den eigentlichen Funktionsaufruf aus und gibt das Ergebnis als weiteres Message-Objekt zurück ins Modell – das dann die finale Antwort generiert. Moderne Implementierungen unterstützen dabei mehrere Modi: „auto" (Modell wählt frei), „required" (ein Tool-Call ist obligatorisch) und parallele Calls, bei denen mehrere Funktionen simultan ausgelöst werden. Seit Anthropics Einführung des Model Context Protocol (MCP) im Jahr 2024 – eines offenen, bidirektionalen JSON-RPC-Standards, der mittlerweile von OpenAI und Google DeepMind übernommen wurde – gibt es eine einheitliche Abstraktionsschicht. MCP löst das sogenannte N×M-Integrationsproblem: Statt jede Modell-Tool-Kombination individuell zu verdrahten, kommunizieren alle Beteiligten über eine standardisierte Schnittstelle. SDKs existieren für Python, TypeScript, C# und Java.

Tool Use (Function Calling) in der Praxis

Drei Use Cases zeigen, wo das Konzept heute tatsächlich produktiv ist. Erstens: AI-gestützte Softwareentwicklung. In IDEs wie Replit greifen Coding-Agenten via Function Calling auf Terminal-Befehle, Datei-Systeme und Test-Runner zu – der Agent schreibt nicht nur Code, er führt ihn aus und iteriert auf Basis der Ergebnisse. Zweitens: Enterprise-Workflow-Automatisierung. Systeme auf Basis von LangChain oder CrewAI orchestrieren parallele Tool-Calls gegen CRM-APIs, ERP-Datenbanken und Kommunikationsplattformen, um mehrstufige Geschäftsprozesse ohne menschliches Eingreifen abzuarbeiten. Drittens: Multimodale agentische Systeme. Modelle mit großen Kontextfenstern – wie Googles Gemini-Modelle der aktuellen Generation mit bis zu einer Million Token – nutzen erweitertes Function Calling, um visuelle, textuelle und strukturierte Daten in einem einzigen agentischen Workflow zu kombinieren.

Vorteile und Grenzen

Der zentrale Vorteil ist Handlungsfähigkeit: LLMs werden von passiven Antwortmaschinen zu aktiven Agenten, die Zustand verändern und Systeme steuern können. Parallele Tool-Calls reduzieren Latenz in komplexen Pipelines erheblich, und Standards wie MCP senken den Integrationsaufwand für Entwickler deutlich. Die Grenzen sind aber real. Halluzinierte Tool-Calls – das Modell ruft eine Funktion mit falschen oder erfundenen Parametern auf – sind ein ernstes Problem in produktiven Systemen und erfordern robuste Validierungsschichten. Sicherheit ist eine weitere Schwachstelle: Jeder Tool-Call ist potenziell ein Angriffsvektor für Prompt-Injection-Angriffe, bei denen manipulierte Eingaben das Modell zu unerwünschten Aktionen verleiten. Hinzu kommt die Latenz mehrstufiger Reasoning-und-Calling-Schleifen, die für Echtzeit-Anwendungen nach wie vor eine Herausforderung darstellt. Tool Use ist kein Selbstläufer – es ist ein mächtiges Werkzeug, das durchdachtes Engineering verlangt.

❓ Häufig gestellte Fragen

Was ist der Unterschied zwischen Tool Use und Function Calling?
Die Begriffe werden praktisch synonym verwendet. Function Calling ist die ursprüngliche Bezeichnung aus der OpenAI-API, Tool Use der von Anthropic geprägte Begriff. Technisch beschreiben beide dasselbe Verfahren: Ein LLM erzeugt strukturierte Ausgaben, um externe Funktionen aufzurufen. In modernen Frameworks hat sich 'Tool Use' als übergreifender Begriff durchgesetzt.
Was ist das Model Context Protocol (MCP) und warum ist es wichtig?
MCP ist ein von Anthropic 2024 eingeführter offener Standard (JSON-RPC-basiert), der die Integration von LLMs mit externen Tools und Datenquellen vereinheitlicht. Statt jede Modell-Tool-Kombination individuell zu entwickeln, kommunizieren alle Beteiligten über eine standardisierte, bidirektionale Schnittstelle. OpenAI und Google DeepMind haben MCP übernommen, was es zum De-facto-Standard für interoperables Tool Calling macht.
Wie sicher ist Tool Use in Produktivsystemen?
Tool Use bringt reale Sicherheitsrisiken mit sich. Das größte ist Prompt Injection: Manipulierte Nutzeringaben können ein Modell dazu bringen, unerwünschte Tool-Calls auszuführen. Weitere Risiken sind halluzinierte Parameter und unkontrollierte Aktionsketten in autonomen Agenten. Produktionssysteme benötigen zwingend Validierungsschichten, klare Tool-Berechtigungsmodelle und Human-in-the-Loop-Mechanismen für kritische Aktionen.
📬 KI-News direkt ins Postfach