Yapay zeka şirketi Anthropic ile ABD Savunma Bakanlığı arasında, yapay zeka modellerinin kullanımına ilişkin ciddi bir anlaşmazlık yaşanıyor. Anthropic, teknolojisinin kitlesel yurt içi gözetimde veya tamamen otonom silah sistemlerinde kullanılmasına kesinlikle karşı çıkıyor. Şirket, bu prensiplerin demokratik değerler ve güvenlik açısından vazgeçilmez olduğunu belirterek, aylarca süren müzakerelerin ardından bakanlıkla olan görüşmelerin bu iki konuda kesildiğini açıkladı.
ABD Savunma Bakanı Pete Hegseth, Anthropic'in bu kısıtlamalarını "ihanet" ve "Amerikan prensipleriyle uyumsuz" olarak nitelendirerek şirketi ulusal güvenlik riski ilan etti. Bu kararın ardından Anthropic, savunma sözleşmelerinden men edildi ve federal kurumların Anthropic teknolojisini kullanmayı derhal bırakması gerektiği belirtildi. Bu "tedarik zinciri riski" tanımı, daha önce bir Amerikan şirketine hiç uygulanmamış, genellikle ABD'nin rakipleri için kullanılan bir önlem. Anthropic ise bu karara rağmen duruşunu değiştirmeyeceğini ve mahkemede mücadele edeceğini ifade etti.
Öte yandan, OpenAI'nin Pentagon ile gizli askeri ağlarda yapay zeka modelleri dağıtmak üzere bir anlaşma yapması dikkat çekiyor. OpenAI CEO'su Sam Altman, kendi ortaklıklarında da kitlesel yurt içi gözetim ve kuvvet kullanımında insan sorumluluğu gibi önemli güvenlik ilkelerinin korunduğunu ifade ediyor. Bu durum, iki büyük yapay zeka şirketinin ABD hükümetiyle ilişkilerinde farklı yaklaşımlar sergilediğini ve yapay zeka etiği konusundaki tartışmaların ne denli kritik olduğunu gözler önüne seriyor.
Yapay zeka şirketlerinin etik ilkeleri ve ulusal güvenlik çıkarları arasındaki gerilim, teknolojinin gelecekteki kullanım alanlarını ve hükümetlerle olan ilişkilerini derinden etkiliyor.