Büyük yapay zeka (LLM) şirketleri, Anthropic ve OpenAI gibi devler, yapay zeka güvenliği araştırmalarına (özellikle yapay zekanın kontrolden çıkmasını engelleme, yani 'alignment' üzerine) yatırım yapmakla övünseler de, yapay zekayı toplum için güvenli bir şekilde dağıtma konusunda kör bir nokta sergiliyorlar. Bu şirketler, kullanıcıların gizliliğini ve güvenliğini sağlayacak, sağlayıcıların kullanıcı verilerini toplamasını engelleyecek olan cihaz içi çıkarım (on-device inference) veya homomorfik şifreleme gibi özel LLM çıkarım yöntemlerine yeterince yatırım yapmıyorlar. Bu durum, şirketlerin kendi çıkarlarına hizmet ederek kullanıcı verilerini toplamaya devam etmelerine olanak tanıyor.
Bunun yerine, bu şirketler dünyanın gördüğü en sofistike kitlesel dijital gözetim makinelerini inşa ediyorlar. Ücretsiz veya ucuz sohbet botu hizmetleriyle hayatımızın her samimi detayını paylaşacağımız bir geleceği normalleştiriyorlar. Bu sohbet botlarının sadece hakkımızdaki her şeyi izlemesine izin vermekle kalmıyor, daha da kötüsü, onların yanıtlarını/içeriklerini tüketerek manipüle edilmemize de olanak tanıyoruz. Eğer bu şirketler gerçekten insanlık için güvenli yapay zeka geliştirmekle ilgileniyor olsalardı, bu LLM destekli kitlesel manipülasyon sistemini inşa etmek yerine, homomorfik şifreleme ve cihaz içi çıkarım kullanarak merkeziyetsiz ve özel LLM çıkarımı yoluyla güvenli yapay zeka dağıtımına büyük yatırımlar yaparlardı.
Yapay zekanın kitlesel gözetim ve manipülasyon riski olmadan kullanılabilmesinin tek yolu budur. Makale, yapay zeka hizalamasının (alignment) merkeziyetsizlik olmadan gücü hala merkezileştirdiğini ve merkezileşmiş yapay zeka gücünün toplumsal bir risk oluşturduğunu vurguluyor. Bu nedenle, yapay zeka dağıtım mimarisinin, yapay zeka hizalaması kadar önemli olduğu sonucuna varılıyor.
Yapay zeka şirketlerinin güvenlik iddiaları ile veri toplama ve merkeziyetsiz dağıtım konusundaki eylemleri arasındaki çelişki, teknolojinin toplumsal etkileri hakkında önemli sorular ortaya koyuyor.