Yapay zeka endüstrisinden bazı kişiler, mevcut yapay zeka modellerinin gelişiminden endişe duyarak, teknolojiyi baltalamak amacıyla toplu bir veri zehirleme çabası başlatıyor. "Poison Fountain" adlı bu girişim, web sitesi operatörlerini, yapay zeka tarayıcılarına zehirli eğitim verileri besleyen bağlantılar eklemeye çağırıyor. Yaklaşık bir haftadır aktif olan proje, yayıncılar tarafından zaten eleştirilen, yapay zeka tarayıcılarının web sitelerinden veri kazıması ve bu verileri model eğitimi için kullanması şeklindeki "parazitik" ilişkiye karşı bir tepki olarak ortaya çıktı. Veri zehirlenmesi, hatalı kodlardan veya manipüle edilmiş eğitim veri setlerinden kaynaklanabilir ve modelin kalitesini düşürebilir.
Poison Fountain, Anthropic'in veri zehirlenmesi üzerine yaptığı çalışmalardan, özellikle de az sayıda kötü niyetli belgenin bile model kalitesini düşürebileceğini gösteren bir makaleden ilham alıyor. Projenin arkasındaki anonim kaynak, amacın yapay zekanın "Aşil Topuğu"nu – yani modellerin ne kadar kolay zehirlenebileceğini – insanlara duyurmak ve kendi bilgi silahlarını oluşturmaları için onları teşvik etmek olduğunu belirtiyor. Grubun, aralarında büyük ABD yapay zeka şirketlerinde çalışanların da bulunduğu beş kişiden oluştuğu iddia ediliyor.
Poison Fountain web sayfası, yapay zekaya karşı aktif bir muhalefetin gerekliliğini savunuyor ve Geoffrey Hinton'ın "makine zekası insan türü için bir tehdittir" sözüne atıfta bulunuyor. Site, yapay zeka eğitimini engellemek için tasarlanmış verilere işaret eden iki URL (biri standart HTTP, diğeri ise kapatılması zor bir .onion adresi) listeliyor. Ziyaretçilerden, bu zehirli eğitim verilerini önbelleğe alarak ve yeniden ileterek "savaş çabasına" yardımcı olmaları isteniyor.
Yapay zeka modellerinin eğitim verilerini manipüle ederek sistemleri zayıflatma girişimi, teknolojinin geleceği ve güvenliği konusunda ciddi tartışmaları beraberinde getiriyor.