Yapay zeka şirketi Anthropic ile ABD Savunma Bakanlığı (Pentagon) arasında, şirketin yapay zeka teknolojisinin kullanımına ilişkin etik politikalar konusunda ciddi bir anlaşmazlık yaşanıyor. Pentagon, Anthropic'in Claude adlı sohbet robotu teknolojisinin kısıtlamasız kullanımını talep ederken, Anthropic CEO'su Dario Amodei, şirketin bu talebi "vicdanen kabul edemeyeceğini" belirtti. Anthropic, teknolojisinin Amerikalıların toplu gözetimi veya tamamen otonom silah sistemlerinde kullanılmayacağına dair güvenceler istiyor. Şirket, Pentagon'un sunduğu son sözleşme dilinin, bu koruyucu önlemlerin istendiği zaman göz ardı edilmesine izin verecek yasal boşluklar içerdiğini iddia ediyor.
Pentagon, Anthropic'in taleplerine uymaması halinde sadece sözleşmeyi iptal etmekle kalmayıp, şirketi "tedarik zinciri riski" olarak tanımlayarak diğer iş ortaklıklarını da tehlikeye atma tehdidinde bulunuyor. Ancak Amodei'nin bu baskılara boyun eğmesi durumunda, etik yapay zeka geliştirme vaatleri nedeniyle şirkete katılan yetenekli çalışanların ve genel olarak yapay zeka sektöründeki güvenin kaybedilmesi riski bulunuyor. Bu anlaşmazlık, yapay zekanın ulusal güvenlikteki rolü ve ölümcül güç, hassas bilgiler veya hükümet gözetimi gibi yüksek riskli durumlarda artan yetenekli makinelerin nasıl kullanılacağı konusundaki endişeleri derinleştiriyor. Pentagon yetkilileri, yapay zekayı yasa dışı toplu gözetim veya insan müdahalesi olmayan otonom silahlar için kullanmak istemediklerini belirtse de, teknolojiyi nasıl kullanmayı planladıklarına dair detay vermekten kaçınıyor. Bu durum, teknoloji endüstrisini daha da kutuplaştırıyor.
Bu olay, yapay zeka şirketlerinin etik değerleri ile ulusal güvenlik çıkarları arasındaki gerilimi ve gelişen teknolojilerin sorumlu kullanımına dair küresel tartışmaları gözler önüne seriyor.