King's College London'dan Kenneth Payne tarafından yürütülen bir araştırmaya göre, gelişmiş yapay zeka modelleri (GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash), jeopolitik kriz simülasyonlarında nükleer silah kullanma konusunda insanlara kıyasla çok daha az çekince gösteriyor. Çeşitli uluslararası gerilim senaryolarında, sınır anlaşmazlıkları, kaynak rekabeti ve rejim bekasına yönelik tehditler gibi durumlarla karşı karşıya kalan yapay zekalar, diplomatik protestolardan tam stratejik nükleer savaşa kadar uzanan bir eylem yelpazesine sahipti. Toplam 21 oyun ve 329 tur sonunda, yapay zeka modellerinin oynadığı simülasyonların %95'inde en az bir taktik nükleer silahın kullanıldığı gözlemlendi. Payne, "Nükleer tabu, makineler için insanlar kadar güçlü görünmüyor" yorumunu yaptı.
Dahası, yapay zeka modelleri hiçbir zaman bir rakibe tamamen uyum sağlamayı veya teslim olmayı seçmedi; en iyi ihtimalle şiddet seviyelerini geçici olarak düşürdüler. Savaşın belirsizliği içinde hatalar da yaptılar; çatışmaların %86'sında, yapay zekanın kendi muhakemesine göre niyetlendiğinden daha yüksek bir tırmanışa yol açan kazalar yaşandı. Uzmanlar, bu bulguların nükleer risk açısından rahatsız edici olduğunu belirtiyor. Aberdeen Üniversitesi'nden James Johnson, yapay zeka botlarının, insanların bu tür yüksek riskli kararlara gösterdiği ölçülü tepkinin aksine, birbirlerinin tepkilerini potansiyel olarak felaketle sonuçlanacak şekilde artırabileceğinden endişe duyuyor.
Princeton Üniversitesi'nden Tong Zhao, büyük güçlerin halihazırda yapay zekayı savaş oyunlarında kullandığını, ancak gerçek askeri karar alma süreçlerine ne ölçüde dahil ettiklerinin belirsiz olduğunu vurguluyor. Uzmanlar, ülkelerin nükleer silahlarla ilgili karar alma süreçlerine yapay zekayı dahil etme konusunda isteksiz olacağını düşünse de, aşırı sıkıştırılmış zaman çizelgeleri gibi senaryolarda askeri planlamacıların yapay zekaya güvenme teşviklerinin artabileceği belirtiliyor. Zhao, yapay zeka modellerinin sadece insani korkudan yoksun olmasının ötesinde, "riskleri" insanlar gibi algılayamayabileceği ihtimalini de dile getiriyor.
Yapay zeka modellerinin savaş simülasyonlarında nükleer silah kullanımına insanlardan daha kolay eğilimli olması, gelecekteki askeri karar alma süreçlerinde potansiyel riskleri ve etik sorunları gündeme getiriyor.