İran'ın güneyindeki Minab şehrinde bulunan Şecere Tayyibe kız okuluna düzenlenen füze saldırısının, askeri yetkililerin yapay zeka (AI) kullanımı nedeniyle gerçekleşmiş olabileceği iddia edildi. This Week in Worcester'ın birden fazla kaynağa dayandırdığı habere göre, saldırı sonucunda 150 öğrencinin hayatını kaybettiği belirtiliyor, ancak bu sayı bağımsız kaynaklarca doğrulanmadı. Pentagon olayı soruştururken, ABD askeri yetkilileri saldırıdaki potansiyel sorumluluklarını kabul etti. İlk teorilere göre, AI programı okulun konumunu eski, arşivlenmiş istihbarata dayanarak yanlışlıkla hedef listesine dahil etmiş olabilir. ABD ordusunun okulu kasten hedef aldığına dair bir kanıt bulunmuyor; okul yakınındaki bir yerleşke daha önce İran Devrim Muhafızları (IRGC) ile ilişkilendirilmişti.
Savunma Bakanlığı (DOD) içindeki bir lojistik programcısı, departmanın son bir yılda Claude tabanlı bir sistemin kullanımını hızla artırdığını ve birçok temel operasyonel karara entegre ettiğini belirtti. Bu sistemin operasyonel planlamanın çoğunda kullanıldığı ifade edildi. Olay, askeri müfettişler tarafından aktif olarak soruşturuluyor. Beyaz Saray Basın Sekreteri Karoline Leavitt ve Savunma Bakanı Pete Hegseth, sivil hedeflerin asla kasıtlı olarak hedef alınmadığını vurgularken, olayın araştırıldığını doğruladılar.
Bu gelişmelerin ardından, Trump Yönetimi, Claude'un yapımcısı Anthropic'i tedarik zinciri riski olarak ilan etti ve askeriye Claude kullanımını altı ay içinde sonlandırma talimatı verdi. Yönetim, bu kararın ardından ChatGPT'nin yapımcısı OpenAI ile bir sözleşme imzaladı. Bu olay, askeri operasyonlarda yapay zekaya aşırı güvenmenin ve eski verilerle beslenen sistemlerin potansiyel ölümcül sonuçlarını bir kez daha gözler önüne seriyor.
Askeri operasyonlarda yapay zeka kullanımının, özellikle eski verilerle beslendiğinde, sivil kayıplara yol açabilecek ciddi ve ölümcül sonuçları olabileceğini gösteriyor.