Yapay zeka güvenliği alanında önde gelen isimlerden Mrinank Sharma, ABD merkezli yapay zeka firması Anthropic'teki görevinden istifa ettiğini duyurdu. Sharma, X platformunda paylaştığı istifa mektubunda, yapay zeka, biyolojik silahlar ve genel olarak dünyanın içinde bulunduğu durumla ilgili endişeleri nedeniyle ayrıldığını belirtti. İstifasının ardından şiir yazmaya ve okumaya yöneleceğini, İngiltere'ye dönerek bir süre "görünmez" olmayı planladığını ifade etti. Bu istifa, bir OpenAI araştırmacısının da ChatGPT'ye reklam entegrasyonu kararı üzerine istifa etmesinden kısa bir süre sonra gerçekleşti.
Anthropic, Claude sohbet robotuyla tanınan ve yapay zeka araştırmalarına rakiplerine göre daha güvenlik odaklı bir yaklaşımla yaklaştığını iddia eden bir şirket. Hatta OpenAI'ın reklam kararlarını eleştiren ticari reklamlar yayınlamıştı. Sharma, Anthropic'te yapay zeka koruma önlemlerini araştıran bir ekibe liderlik ediyordu. Görev süresi boyunca üretken yapay zeka sistemlerinin kullanıcıları neden etkilediğini, yapay zeka destekli biyoterörizm riskleriyle mücadeleyi ve yapay zeka asistanlarının insanları nasıl daha az insan yapabileceğini araştırdığını belirtti. Ancak şirketteki zamanından keyif almasına rağmen, "ilerleme zamanının geldiğini" vurguladı.
Sharma, istifa mektubunda "Dünya tehlikede. Sadece yapay zekadan veya biyolojik silahlardan değil, şu anda ortaya çıkan bir dizi birbiriyle bağlantılı krizden dolayı," ifadelerini kullandı. Değerlerin eylemleri gerçekten yönetmesinin ne kadar zor olduğunu defalarca gördüğünü, Anthropic'in bile "en önemli olanı bir kenara bırakmak için sürekli baskılarla karşılaştığını" ekledi. Bu durum, yapay zeka şirketlerinin hem teknolojinin faydalarını maksimize etme hem de etik ve güvenlik endişelerini giderme arasındaki dengeyi bulma zorluğunu ortaya koyuyor.
Yapay zeka güvenliği alanındaki önemli bir ismin istifası, teknolojinin potansiyel riskleri ve etik değerlerin şirket çıkarları karşısında nasıl erozyona uğrayabileceği konusundaki endişeleri derinleştiriyor.