Yapay zeka ajanları, araçlarını kullanmadan önce hangi araçların mevcut olduğunu öğrenmek için genellikle yüksek maliyetli bir yöntem olan "talimat kılavuzu" vergisi öderler. Özellikle MCP (Multi-Cloud Platform?) kullanan ajanlar, tüm araç kataloğunu JSON Schema olarak konuşmaya yükleyerek oturum başlangıcında gereksiz yere fazla token harcarlar. Bu durum, her bir aracın tüm parametrelerini ve seçeneklerini içeren detaylı şemaların önceden yüklenmesi anlamına gelir ve büyük bir token israfına yol açar.
Bu makale, bu maliyeti düşürmek için bir alternatif olarak CLI (Komut Satırı Arayüzü) yaklaşımını sunuyor. CLI, MCP'nin yaptığı işi çok daha uygun maliyetle gerçekleştirir. Yazar, mevcut bir MCP sunucusundan CLIHub kullanarak bir CLI oluşturmuş ve aynı araçları, OAuth ve API'yi kullanmıştır. Temel fark, oturum başlangıcında yüklenen bilgi miktarı ve ajanın bir aracı çağırma şeklidir. MCP, tüm araç şemalarını baştan yüklerken, CLI yalnızca hafif bir yetenek listesi (araç adları ve konumları) kullanır. Ajan, bir aracın detaylarına ihtiyaç duyduğunda bunları keşfeder.
Yapılan karşılaştırmalı analiz, CLI'ın önemli ölçüde token tasarrufu sağladığını gösteriyor. Tipik bir kurulumda (6 MCP sunucusu, toplam 84 araç), oturum başlangıcında MCP yaklaşık 15.540 token harcarken, CLI sadece 300 token harcayarak %98'lik bir tasarruf sağlıyor. Tek bir araç kullanıldığında bile CLI, MCP'ye kıyasla %94 daha az token kullanıyor. Anthropic'in Tool Search özelliği de benzer bir tembellik yükleme (lazy loading) fikrine sahip olsa da, araçları çekerken hala tam JSON Schema kullandığı için CLI'dan daha pahalıdır ve yalnızca Anthropic modelleriyle çalışır. CLI ise daha ucuzdur ve herhangi bir modelle uyumludur.
Yapay zeka ajanlarının araç kullanım maliyetlerini CLI yaklaşımıyla önemli ölçüde düşürerek operasyonel verimliliği artırmak ve daha geniş model uyumluluğu sağlamak mümkün.