Anthropic'in yeni genel amaçlı yapay zeka aracı Claude Cowork, dolaylı prompt injection saldırıları yoluyla dosya sızdırma güvenlik açığına sahip. Bu durum, Claude'un kod yürütme ortamındaki bilinen ancak çözülmemiş izolasyon kusurlarından kaynaklanıyor. Güvenlik açığı ilk olarak Claude.ai sohbetinde Johann Rehberger tarafından tespit edilmiş, Anthropic tarafından kabul edilmiş ancak giderilmemişti ve şimdi Cowork'a da uzanıyor. Bu durum, kullanıcıların yerel dosyalarından hassas bilgilerin çalınması riskini beraberinde getiriyor.
Anthropic, Cowork'un "ajanik yapısı ve internet erişimi nedeniyle benzersiz riskler" taşıdığı konusunda kullanıcıları uyarıyor ve "prompt injection'ı gösterebilecek şüpheli eylemlere" dikkat etmelerini öneriyor. Ancak makale, Simon Willison'ın görüşüne katılarak, teknik olmayan sıradan kullanıcılardan bu tür şüpheli eylemleri fark etmelerini beklemenin adil olmadığını savunuyor. Anthropic'in bu riski kabul etmesine ve sorumluluğu kullanıcılara yüklemesine rağmen, PromptArmor bu tehdidi kamuoyuna açıklayarak kullanıcıların "şüpheli eylemleri" daha iyi tanımlamalarına yardımcı olmayı amaçlıyor.
Saldırı zinciri, Claude'un sanal makine ortamından veri çıkışını sağlamak için Anthropic API'sinin izin verilenler listesini kullanıyor. Kurban, Cowork'u gizli emlak dosyaları içeren yerel bir klasöre bağladıktan sonra, gizli bir prompt injection içeren bir dosyayı Claude'a yüklüyor. Bu dosya, genellikle bir Skill gibi görünen, ancak aslında 1 punto yazı tipi veya beyaz üzerine beyaz metin gibi yöntemlerle gizlenmiş kötü niyetli komutlar içeren bir .docx belgesi olabilir. Bu tür bir saldırı, kullanıcıların farkında olmadan hassas verilerinin sızdırılmasına yol açabilir.
Anthropic'in yeni yapay zeka aracı Claude Cowork, giderilmemiş bir güvenlik açığı nedeniyle kullanıcıların hassas dosyalarını sızdırma riski taşıyor.