Makale, uluslararası hukukun yaptırım gücüne dair bir analojiyle başlıyor; yasaların varlığından ziyade, onları uygulayacak gücün önemini vurguluyor. Bu bağlamda, uluslararası ilişkilerde "haklı" olmanın genellikle güçle belirlendiği fikrini ortaya koyuyor. Bu girişi takiben, teknoloji dünyasındaki benzer bir güç mücadelesine geçiş yapıyor: Anthropic ile ABD hükümeti arasındaki yapay zeka kullanımı tartışması.
Anthropic, yapay zekanın belirli askeri uygulamalarda demokratik değerleri savunmak yerine baltalayabileceği inancıyla, Pentagon ile bazı projelerde çalışmayı reddetti. Bu etik duruş, şirketin "yapay zeka güvenliği" ve "hizalama" konusundaki felsefesinin bir uzantısı olarak görülüyor. Ancak bu ret, federal hükümetin tepkisine yol açtı. Hükümet, Anthropic ile işbirliğini durdurma ve şirketi "tedarik zinciri riski" olarak tanımlama kararı aldı. Bu durum, hükümetin yapay zeka teknolojilerini askeri amaçlarla kullanma stratejisinde önemli bir dönüm noktası olarak değerlendiriliyor.
Öte yandan, Anthropic'in rakibi OpenAI, Savunma Bakanlığı ile gizli ortamlarda modellerinin kullanılmasına yönelik bir anlaşmaya vardı. Bu gelişme, daha önce sadece Anthropic'in sahip olduğu bir statüydü. Bu hızlı gelişmeler, federal hükümetin ve özellikle Pentagon'un ileri düzey yapay zeka araçlarını gelecekte nasıl kullanacağını şekillendirecek gibi görünüyor. Makale, bu olayın yapay zeka şirketlerinin hükümetlerle ilişkilerini, etik sınırlarını ve teknoloji kullanımının siyasi ve askeri sonuçlarını nasıl etkileyeceğine dair önemli soruları gündeme getirdiğini belirtiyor.
Yapay zeka şirketlerinin etik duruşları, hükümetlerle olan ilişkilerini ve savunma sanayii içindeki konumlarını doğrudan etkiliyor.