Büyük Dil Modellerinin (LLM) programlama alanında kullanımıyla ilgili yaygın bir endişe, bu modellerin eğitim verilerinde en iyi temsil edilen araçlara yönelmemiz gerektiği yönündeydi. Bu durumun, yeni ve daha iyi araçların öne çıkmasını zorlaştıracağı düşünülüyordu. Gerçekten de, birkaç yıl önce Python veya JavaScript gibi yaygın dillerle ilgili soruların, daha az kullanılan dillere kıyasla çok daha iyi sonuçlar verdiği gözlemleniyordu.
Ancak, yazarın son deneyimleri, güncel modellerin ve gelişmiş kodlama aracı sistemlerinin bu durumu değiştirdiğini gösteriyor. Yeni modellerin uzun bağlam uzunlukları sayesinde, belgeleri kapsamlı bir şekilde öğrenerek yeni veya özel araçlarla bile mükemmel sonuçlar elde edilebiliyor. Örneğin, yazar kendi yeni araçlarını kullanırken, modellere uvx showboat --help gibi komutlarla bu araçları öğrenmelerini sağlayarak başarılı sonuçlar aldığını belirtiyor. Ayrıca, eğitim verilerinde yer almayacak kadar özel veya yeni kütüphaneler kullanan mevcut kod tabanlarında bile kodlama ajanlarının sorunsuz çalıştığı, mevcut örneklerden desenleri anlayıp boşlukları doldurabildiği gözlemleniyor.
Bu durum şaşırtıcı çünkü yazar, kodlama ajanlarının "Sıkıcı Teknolojiyi Seç" yaklaşımının nihai temsilcisi olacağını düşünüyordu. Ancak pratikte, bu ajanların teknoloji seçimlerini bu şekilde etkilemediği görülüyor. Makale, LLM'lerin ne tavsiye ettiği (ki bu konuda önyargılar olabilir) ile bir insanın farklı bir teknoloji seçtiğinde ne olduğu arasındaki farka dikkat çekiyor ve kodlama aracı ekosisteminde hızla benimsenen "Skills" mekanizmasının önemini vurguluyor.
Yapay zeka destekli kodlama ajanları, uzun bağlam uzunlukları ve öğrenme yetenekleri sayesinde, geliştiricileri yalnızca yaygın teknolojilere değil, yeni ve niş araçlara da yönlendirebiliyor.