Python, güvenilmeyen kodları güvenli bir şekilde çalıştırmak için yerleşik bir mekanizmaya sahip olmamasıyla bilinir. Bunun temel nedeni, Python'un yüksek derecede içe dönük, nesne yönelimli ve çalışma zamanında değiştirilebilir bir dil olmasıdır. Yorumlayıcının temel bileşenlerine nesne grafiği, çerçeveler ve hata ayıklama bilgileri aracılığıyla erişilebilmesi, çalışma zamanı izolasyonunu zorlaştırmaktadır. Bu durum, __builtins__.eval veya __builtins__.__import__ gibi tehlikeli yerleşik fonksiyonların kaldırılması gibi agresif kısıtlamaların bile nesne yönelimi veya istisnalar aracılığıyla kolayca aşılabileceği anlamına gelir. Bu nedenle, Python'un kendisini izole etmek yerine, onu işletim sistemi düzeyinde izolasyon sağlayan Docker veya sanal makineler gibi araçlarla çalıştırmak daha güvenli bir yaklaşım olarak görülmüştür.
Ancak, yapay zeka ve makine öğrenimi alanlarında, özellikle de yapay zeka ajanları bağlamında Python'un yaygın kullanımı, bu durumu değiştirmektedir. Deterministik sistemlerden olasılıksal sistemlere geçişle birlikte, güvenilmeyen kodların yürütülmesi giderek daha yaygın hale gelmektedir. 2025 yılı, bu alanda büyük ilerlemeler kaydetse de, yapay zeka ajanları için izolasyonun sadece kaynak kontrolü veya yeniden deneme stratejilerinin ötesinde bir güvenlik meselesi haline geldiğini göstermiştir. Büyük dil modellerinin (LLM) mimari kusurları, özellikle de harici kaynaklardan gelen kötü niyetli komutları ayırt edememeleri, prompt injection gibi saldırılara yol açmaktadır. Bu tür saldırılar, kodlama ajanları aracılığıyla hassas verilere erişilmesine neden olabilir. MCP gibi protokollerdeki SQL injection açıkları da saldırı yüzeyini genişletmektedir. Teknik kullanıcılardan ziyade, üçüncü taraf hizmetler aracılığıyla yapay zekaya erişen teknik olmayan kullanıcılar için bu riskler daha da büyüktür ve özel veri sızıntıları gibi olaylarla kendini göstermektedir.
Bu noktada en önemli husus, farkında olmayan kullanıcıların yapay zeka ajanlarını kullanırken güvende kalmalarını sağlamaktır. Sorun, yalnızca prompt mühendisliği ile çözülemez; altyapı düzeyinde, en az ayrıcalık ilkesi ve izolasyon ile ele alınmalıdır. Örneğin, bir yapay zeka ajanının yalnızca belirli bir yapılandırma dosyasına erişmesi, tüm dosya sistemine değil. Bir müşteri veritabanına bağlanması gerekiyorsa, kök erişimi yerine yalnızca belirli tablolara okunabilir erişim yetkisine sahip olmalıdır. Bu, yapay zeka sistemlerinin güvenli bir şekilde geliştirilmesi ve kullanılması için kritik bir adımdır.
Python'un doğasındaki esneklik ve yapay zeka alanındaki yaygın kullanımı, güvenilmeyen kodların yürütülmesinde ciddi güvenlik açıkları yaratmakta ve bu durumun altyapısal çözümlerle ele alınması gerekmektedir.