Yapay zeka alanının önde gelen şirketlerinden Anthropic, daha önce benimsediği ve kendisini en güvenlik odaklı laboratuvar olarak konumlandıran temel güvenlik taahhüdünden vazgeçtiğini duyurdu. 2023 yılında şirket, güvenlik önlemlerinin yeterli olduğunu önceden garanti edemediği sürece hiçbir yapay zeka sistemini eğitmeyeceğine dair bir söz vermişti. Bu taahhüt, Anthropic'in Sorumlu Ölçeklendirme Politikası'nın (Responsible Scaling Policy - RSP) merkezinde yer alıyor ve şirketin potansiyel olarak tehlikeli teknolojileri geliştirme konusunda piyasa teşviklerine direnecek sorumlu bir aktör olduğunu gösteriyordu. Ancak son aylarda şirket, RSP'yi kökten elden geçirme kararı aldı. Bu karar, Anthropic'in risk azaltma önlemlerini önceden garanti edememesi durumunda yapay zeka modellerini piyasaya sürmeme sözünü de iptal etmeyi içeriyor.
Anthropic'in baş bilim sorumlusu Jared Kaplan, TIME'a verdiği özel röportajda, "Yapay zeka modellerini eğitmeyi bırakmamızın kimseye faydası olmayacağını düşündük" dedi. Kaplan, yapay zekanın hızlı ilerlemesi göz önüne alındığında, rakipler hızla ilerlerken tek taraflı taahhütlerde bulunmanın mantıklı olmadığını belirtti. Politikanın yeni versiyonu, yapay zeka riskleri hakkında daha şeffaf olma, kendi modellerinin güvenlik testlerindeki performansına ilişkin ek açıklamalar yapma ve rakiplerin güvenlik çabalarını eşleştirme veya aşma taahhütlerini içeriyor. Ayrıca, Anthropic'in yapay zeka yarışında lider olduğunu düşünmesi ve felaket risklerinin önemli olduğuna inanması durumunda geliştirme sürecini "geciktirme" sözü de veriyor. Bu değişiklik, Anthropic'i kendi güvenlik politikaları tarafından daha az kısıtlanmış hale getiriyor; zira önceki politika, uygun güvenlik önlemleri mevcut değilse belirli bir seviyenin üzerindeki modelleri kategorik olarak eğitmeyi yasaklıyordu.
Bu değişiklik, Anthropic'in Claude modelleriyle büyük başarılar elde ettiği ve önemli yatırımlar aldığı bir döneme denk geliyor. Kaplan, bu kararın piyasa teşviklerine boyun eğmek olmadığını, aksine ortaya çıkan siyasi ve bilimsel gerçeklere pragmatik bir yanıt olduğunu savundu.
Anthropic'in güvenlik taahhüdünden vazgeçmesi, yapay zeka geliştirme hızının güvenlik endişelerinin önüne geçebileceği ve sektördeki rekabetin etik standartları zorlayabileceği yönündeki endişeleri artırıyor.