Geçtiğimiz hafta, Savaş Bakanı Pete Hegseth, yapay zeka şirketi Anthropic'i "tedarik zinciri riski" olarak ilan etti. Bu durum, Anthropic'in yapay zeka modellerinin kitlesel gözetim ve otonom silahlar için kullanılmasına izin vermeyi reddetmesi üzerine yaşandı ve bir ABD şirketine ilk kez uygulanan bu tür bir tanımlamaydı. Kısa süre sonra, Hegseth ve Sam Altman, OpenAI'nin modellerinin Anthropic'in boşalttığı alanda kullanılması için prensipte anlaştıklarını duyurdu. Altman, OpenAI modellerinin de kitlesel gözetim veya otonom silahlar için kullanılmayacağına dair güvenceler aldığını belirtse de, Hegseth'in Anthropic ile bu konularda taviz vermemesi nedeniyle, gözlemciler OpenAI sözleşmesindeki güvencelerin daha zayıf olabileceği veya tamamen etkisiz kalabileceği konusunda spekülasyon yaptı.
Tartışmanın merkezinde, Savaş Bakanlığı'nın yapay zekaların "tüm yasal kullanımlara" izin verilmesi talebi yer alıyor. Anthropic, kitlesel gözetim ve otonom silahların fiilen bu kategoriye gireceğinden endişe ediyordu. Hegseth ve Altman, kamuoyunu bunun gerçekleşmeyeceği konusunda ikna etmeye çalıştı ve anlaşmalarının sızan kısımları, Altman'ın bu kategoriyi kısıtlamasını beklediği yasaları referans gösteriyordu. Ancak, ulusal güvenlik hukuku üzerine yapılan detaylı incelemeler, mevcut yasaların yerel kitlesel gözetim ve otonom silahlara karşı geniş boşluklara sahip olduğunu ve Savaş Bakanlığı tarafından her an değiştirilebileceğini ortaya koydu. Bu nedenle, OpenAI'nin aldığı güvencelerin yetersiz olduğu ve sözleşme hukukunun işleyişi göz önüne alındığında, bu hükümlerin beklenen korumayı sağlamayacağı düşünülüyor.
Yapay zeka teknolojilerinin askeri ve gözetim amaçlı kullanımının etik ve yasal sınırları, ulusal güvenlik ve sivil özgürlükler arasında kritik bir gerilime yol açıyor.