Die Frage, ob Model Context Protocol (MCP) oder klassische CLI-Tools günstiger sind, gehört 2025/2026 zu den heißesten Diskussionen im AI-Agent-Bereich. MCP (von Anthropic Ende 2024 vorgestellt) ist ein offener Standard, mit dem große Sprachmodelle wie Claude sicher auf externe Datenquellen, APIs und Tools zugreifen können – und zwar strukturiert über eine Client-Server-Architektur. Du kannst damit z. B. GitHub-Repos abfragen, AWS-Ressourcen managen oder Dateien analysieren, und das Ganze mit getypten Parametern und deutlich weniger Parsing-Fehlern.
CLI-Tools hingegen (gh, aws, kubectl, git, eigene Shell-Skripte …) funktionieren so: Das Modell generiert einfach Shell-Befehle und führt sie aus – wie es z. B. Claude Code, Amazon Q CLI (im Non-MCP-Modus), Aider oder eigene Wrapper machen.
Beide Ansätze lassen deine Agents auf die echte Welt los – aber beim Geld (also vor allem bei den Token-Kosten beim LLM) gibt es klare Unterschiede.
Der größte Kostentreiber: Token-Verbrauch
Fast alle guten Modelle (Claude, GPT, Gemini …) rechnen nach Input + Output Tokens ab. Bei agentischen Workflows (Planen → Tool-Call → Beobachtung → wieder von vorn) explodiert der Kontext schnell – und damit auch die Rechnung.
MCP-Server liefern Tools mit sehr ausführlichen JSON-Schemas (Beschreibungen, Parameter, Enums, Pflichtfelder …). Viele beliebte Server packen direkt eine Menge Tools rein:
- Ein vollwertiger GitHub-MCP-Server schiebt dir oft Definitionen für ~93 Tools → ca. 55.000 Tokens schon vor dem ersten echten Prompt.
- Bei Microsoft Graph oder großen Enterprise-Setups landest du schnell bei 100.000–150.000+ Tokens – bevor du überhaupt etwas geschrieben hast.
Dieser fixe Overhead wird in langen Gesprächen immer wieder mitgeschickt (oder schlecht gecacht) → jede LLM-Anfrage wird teuer.
CLI-basierte Agents brauchen meist nur:
- einen kurzen System-Prompt („Verwende Shell-Befehle sicher“)
- ein paar Beispiele
- die aktuelle Ausgabe der vorherigen Befehle
Ein einzelner Tool-Call kostet da oft 900–3.000 Tokens – statt 15.000+ beim MCP-Äquivalent.
Was die Community wirklich gemessen hat
Entwickler berichten von krassen Unterschieden:
- Wer aus bestehenden MCP-Servern kleine CLIs generiert, spart bei wiederholten Calls 92–94 % Tokens (Beispiel: 15.570 → 910 Tokens pro Call; über 100 Calls wird's noch extremer).
- GitHub-Operationen über
ghCLI verbrauchen in vielen Tests deutlich weniger Tokens und sind oft schneller als der offizielle GitHub-MCP-Server. - Bei Coding/Debugging-Workflows (LLDB, Projekt-Analyse, Python-REPL) ist CLI manchmal sogar minimal teurer – gewinnt aber fast immer durch viel geringeren Kontext-Overhead.
- Schwere MCP-Setups fressen schon vor dem ersten Prompt 27–50 % eines 200k-Context-Fensters nur für die Tool-Definitionen.
Manche spezielle Benchmarks zeigen MCP mal 2–5 % günstiger – aber der Trend ist eindeutig: Bei längeren oder vielen Tool-Calls gewinnt fast immer die CLI-Variante.
Schneller Kosten-Vergleich
| Aspekt | MCP (Model Context Protocol) | CLI-Tools-Ansatz | Günstiger bei |
|---|---|---|---|
| Start-Token-Kosten | Hoch (20k–150k+ nur für Tool-Schemas) | Sehr niedrig (~ein paar hundert bis 2–3k) | CLI |
| Kosten pro Tool-Call | Mittel (strukturiertes JSON + Parsing) | Niedrig (Text-Befehl + Ausgabe) | CLI |
| Lange / viele Schritte | Teuer durch wiederholten Kontext | Viel günstiger, Beobachtungen werden nur angehängt | CLI |
| Parsing-Sicherheit | Sehr gut (getypte Parameter) | Braucht manchmal jq, Regex oder Retries | MCP |
| Kombinierbarkeit | Eingeschränkt (Tools nicht immer gut verkettbar) | Hervorragend (Pipes, Redirects, Skripte) | CLI |
| Setup-Aufwand | Mittel (Server starten, Auth, Client-Integration) | Niedrig (CLI ist meist schon da) | CLI |
| Wann es glänzt | Komplexe APIs, Enterprise-Guardrails, Discovery | Alltags-DevOps, git, Cloud-CLIs, eigene Skripte | — |
Wann nimmst du was? (Kosten-Tipps für dich)
Nimm CLI (meist deutlich günstiger), wenn du …
- die üblichen Tools nutzt (
gh,aws,gcloud,kubectl,jq…) - Agents lange laufen lässt oder sehr viele Tool-Calls machst
- dein Token-Budget wirklich zählt (Startup, hohe Nutzung, Privatprojekte)
- maximale Flexibilität und Kombinierbarkeit willst
Nimm MCP (trotz höherer Kosten sinnvoll), wenn du …
- starke Typisierung und Validierung brauchst (weniger Halluzinationen/Fehler)
- die CLI-Version des Dienstes schlecht oder gar nicht existiert
- Enterprise-Security & Audit-Anforderungen hast (Sandbox, Berechtigungen)
- für Nicht-Techniker baust, die präzise natürliche Sprache wollen
Viele bauen mittlerweile Hybride: Leichte CLI-Wrapper, die nur bei Bedarf auf MCP-Server zugreifen, oder automatisch generierte Mini-CLIs aus MCP-Definitionen – so kriegst du oft das Beste aus beiden Welten.
Fazit 2026
Für die meisten praktischen Agent-Use-Cases – vor allem wenn dir die Kosten wichtig sind – schlagen die guten alten CLI-Tools die schicken MCP-Server bei den reinen Dollar pro erledigter Aufgabe. Das Protokoll ist elegant, aber die Physik des Kontext-Fensters ist gnadenlos.
Wenn du gerade Agents baust: Fang am besten CLI-first an. Du kannst später immer noch MCP draufpacken, wenn dir die strukturierte Sicherheit fehlt – aber bis dahin sparst du dir locker 60–90 % deiner LLM-Rechnung.
Unterstützung gebraucht?
Du willst kosteneffiziente AI-Agents bauen oder brauchst Hilfe bei der Entscheidung zwischen MCP und CLI? Melde dich – wir helfen Teams, smarte und bezahlbare Agent-Lösungen zu entwickeln.
