Terminalfenster mit CLI-Befehlen neben MCP-Protokolldiagrammen

MCP vs. CLI-Tools – Was kostet wirklich weniger?

Sascha Kiefer

Die Frage, ob Model Context Protocol (MCP) oder klassische CLI-Tools günstiger sind, gehört 2025/2026 zu den heißesten Diskussionen im AI-Agent-Bereich. MCP (von Anthropic Ende 2024 vorgestellt) ist ein offener Standard, mit dem große Sprachmodelle wie Claude sicher auf externe Datenquellen, APIs und Tools zugreifen können – und zwar strukturiert über eine Client-Server-Architektur. Du kannst damit z. B. GitHub-Repos abfragen, AWS-Ressourcen managen oder Dateien analysieren, und das Ganze mit getypten Parametern und deutlich weniger Parsing-Fehlern.

CLI-Tools hingegen (gh, aws, kubectl, git, eigene Shell-Skripte …) funktionieren so: Das Modell generiert einfach Shell-Befehle und führt sie aus – wie es z. B. Claude Code, Amazon Q CLI (im Non-MCP-Modus), Aider oder eigene Wrapper machen.

Beide Ansätze lassen deine Agents auf die echte Welt los – aber beim Geld (also vor allem bei den Token-Kosten beim LLM) gibt es klare Unterschiede.

Der größte Kostentreiber: Token-Verbrauch

Fast alle guten Modelle (Claude, GPT, Gemini …) rechnen nach Input + Output Tokens ab. Bei agentischen Workflows (Planen → Tool-Call → Beobachtung → wieder von vorn) explodiert der Kontext schnell – und damit auch die Rechnung.

MCP-Server liefern Tools mit sehr ausführlichen JSON-Schemas (Beschreibungen, Parameter, Enums, Pflichtfelder …). Viele beliebte Server packen direkt eine Menge Tools rein:

  • Ein vollwertiger GitHub-MCP-Server schiebt dir oft Definitionen für ~93 Tools → ca. 55.000 Tokens schon vor dem ersten echten Prompt.
  • Bei Microsoft Graph oder großen Enterprise-Setups landest du schnell bei 100.000–150.000+ Tokens – bevor du überhaupt etwas geschrieben hast.

Dieser fixe Overhead wird in langen Gesprächen immer wieder mitgeschickt (oder schlecht gecacht) → jede LLM-Anfrage wird teuer.

CLI-basierte Agents brauchen meist nur:

  • einen kurzen System-Prompt („Verwende Shell-Befehle sicher“)
  • ein paar Beispiele
  • die aktuelle Ausgabe der vorherigen Befehle

Ein einzelner Tool-Call kostet da oft 900–3.000 Tokens – statt 15.000+ beim MCP-Äquivalent.

Was die Community wirklich gemessen hat

Entwickler berichten von krassen Unterschieden:

  • Wer aus bestehenden MCP-Servern kleine CLIs generiert, spart bei wiederholten Calls 92–94 % Tokens (Beispiel: 15.570 → 910 Tokens pro Call; über 100 Calls wird's noch extremer).
  • GitHub-Operationen über gh CLI verbrauchen in vielen Tests deutlich weniger Tokens und sind oft schneller als der offizielle GitHub-MCP-Server.
  • Bei Coding/Debugging-Workflows (LLDB, Projekt-Analyse, Python-REPL) ist CLI manchmal sogar minimal teurer – gewinnt aber fast immer durch viel geringeren Kontext-Overhead.
  • Schwere MCP-Setups fressen schon vor dem ersten Prompt 27–50 % eines 200k-Context-Fensters nur für die Tool-Definitionen.

Manche spezielle Benchmarks zeigen MCP mal 2–5 % günstiger – aber der Trend ist eindeutig: Bei längeren oder vielen Tool-Calls gewinnt fast immer die CLI-Variante.

Schneller Kosten-Vergleich

AspektMCP (Model Context Protocol)CLI-Tools-AnsatzGünstiger bei
Start-Token-KostenHoch (20k–150k+ nur für Tool-Schemas)Sehr niedrig (~ein paar hundert bis 2–3k)CLI
Kosten pro Tool-CallMittel (strukturiertes JSON + Parsing)Niedrig (Text-Befehl + Ausgabe)CLI
Lange / viele SchritteTeuer durch wiederholten KontextViel günstiger, Beobachtungen werden nur angehängtCLI
Parsing-SicherheitSehr gut (getypte Parameter)Braucht manchmal jq, Regex oder RetriesMCP
KombinierbarkeitEingeschränkt (Tools nicht immer gut verkettbar)Hervorragend (Pipes, Redirects, Skripte)CLI
Setup-AufwandMittel (Server starten, Auth, Client-Integration)Niedrig (CLI ist meist schon da)CLI
Wann es glänztKomplexe APIs, Enterprise-Guardrails, DiscoveryAlltags-DevOps, git, Cloud-CLIs, eigene Skripte

Wann nimmst du was? (Kosten-Tipps für dich)

Nimm CLI (meist deutlich günstiger), wenn du …

  • die üblichen Tools nutzt (gh, aws, gcloud, kubectl, jq …)
  • Agents lange laufen lässt oder sehr viele Tool-Calls machst
  • dein Token-Budget wirklich zählt (Startup, hohe Nutzung, Privatprojekte)
  • maximale Flexibilität und Kombinierbarkeit willst

Nimm MCP (trotz höherer Kosten sinnvoll), wenn du …

  • starke Typisierung und Validierung brauchst (weniger Halluzinationen/Fehler)
  • die CLI-Version des Dienstes schlecht oder gar nicht existiert
  • Enterprise-Security & Audit-Anforderungen hast (Sandbox, Berechtigungen)
  • für Nicht-Techniker baust, die präzise natürliche Sprache wollen

Viele bauen mittlerweile Hybride: Leichte CLI-Wrapper, die nur bei Bedarf auf MCP-Server zugreifen, oder automatisch generierte Mini-CLIs aus MCP-Definitionen – so kriegst du oft das Beste aus beiden Welten.

Fazit 2026

Für die meisten praktischen Agent-Use-Cases – vor allem wenn dir die Kosten wichtig sind – schlagen die guten alten CLI-Tools die schicken MCP-Server bei den reinen Dollar pro erledigter Aufgabe. Das Protokoll ist elegant, aber die Physik des Kontext-Fensters ist gnadenlos.

Wenn du gerade Agents baust: Fang am besten CLI-first an. Du kannst später immer noch MCP draufpacken, wenn dir die strukturierte Sicherheit fehlt – aber bis dahin sparst du dir locker 60–90 % deiner LLM-Rechnung.

Unterstützung gebraucht?

Du willst kosteneffiziente AI-Agents bauen oder brauchst Hilfe bei der Entscheidung zwischen MCP und CLI? Melde dich – wir helfen Teams, smarte und bezahlbare Agent-Lösungen zu entwickeln.

Keinen Artikel mehr verpassen

Kein Spam. Nur relevante News über und von uns. Jederzeit abbestellbar.