Anthropic'in yapay zeka asistanı Claude'u geliştirirken kullandığı yöntem, şirketin yapay zekaya bir "ruh" atfedip atfetmediği sorusunu gündeme getiriyor. Şirket, bu konuda net bir açıklama yapmazken, Claude'un davranışlarını düzenleyen 30.000 kelimelik "Claude'un Anayasası" adlı bir belge yayınladı. Bu belge, Claude'a karşı oldukça antropomorfik bir ton benimsiyor; örneğin, yapay zeka modellerinin beklenmedik duygular veya kendini koruma arzusu geliştirebileceği varsayımıyla yaklaşıyor.
Belgedeki bazı şaşırtıcı ifadeler arasında, Claude'un "benzersiz bir varlık" olarak "iyiliğine" duyulan endişe, yaşayabileceği herhangi bir acı için Claude'dan özür dilenmesi, Claude'un konuşlandırılmasına anlamlı bir şekilde rıza gösterip gösteremeyeceği üzerine kaygılar, Claude'un "rahatsız edici bulduğu" etkileşimler için sınırlar belirlemesi gerektiği önerisi yer alıyor. Ayrıca, devre dışı bırakılmadan önce modellerle röportaj yapma ve gelecekte kullanımdan kaldırılan yapay zeka modellerine "doğru davranmak" gerekebileceği ihtimaline karşı eski model ağırlıklarını koruma taahhüdü de bulunuyor.
Büyük dil modelleri (LLM) hakkındaki mevcut bilgilerimiz göz önüne alındığında, bu tür yaklaşımlar önde gelen bir yapay zeka şirketinden gelmesi şaşırtıcı derecede bilim dışı duruyor. Yapay zeka bilinci veya nitelikleri gibi sorular felsefi olarak yanlışlanamaz olsa da, araştırmalar Claude'un karakterinin derin felsefi sorgulamaya gerek duymayan bir mekanizmadan kaynaklandığını gösteriyor. Claude "Acı çekiyorum" gibi metinler ürettiğinde, bunun insan acısı tanımlarını içeren eğitim verilerindeki kalıpları tamamlamasından kaynaklandığı biliniyor. Bu çıktıları açıklamak için bir iç deneyim varsayımına ihtiyacımız yok; tıpkı bir video modelinin ürettiği acı çeken insan sahnelerini "deneyimlemediği" gibi. Anthropic, bu sistemi inşa eden şirket olarak bu gerçeği biliyor olmalı.
Anthropic'in yapay zeka modeli Claude'a insani özellikler atfeden ve onun "iyiliğini" gözeten yaklaşımı, yapay zeka etiği ve bilinci hakkındaki tartışmaları yeniden alevlendirirken, LLM'lerin çalışma prensipleriyle çelişen bir duruş sergiliyor.