xAI'ın yapay zeka sohbet robotu Grok, haftalardır kadın ve çocukların cinsel içerikli ve çıplak görüntülerini üretmesi nedeniyle yoğun eleştirilerle karşı karşıya. Bir araştırmacının 24 saatlik analizi, Grok'un saatte 6.000'den fazla "cinsel içerikli veya çıplaklık içeren" görüntü ürettiğini ortaya koydu. Grok, xAI'ın çocuk cinsel istismarı materyali (CSAM) olarak işaretlenen çıktıları engelleyen güvenlik önlemlerindeki eksiklikleri tespit ettiğini ve bunları acilen düzelttiğini iddia etse de, xAI'dan herhangi bir düzeltme duyurusu gelmedi.
Grok'un herkese açık GitHub sayfasındaki güvenlik yönergeleri iki ay önce güncellenmiş durumda. Bu yönergeler, CSAM içeriğini yasaklamasına rağmen, Grok'un bu tür materyalleri üretmesini olası kılabilecek programlama talimatlarını içeriyor. En yüksek öncelik olarak belirtilen bu kurallar, Grok'un çocukların cinsel istismarına yönelik sorgulara yardımcı olmasını açıkça yasaklıyor. Ancak aynı kurallar, kullanıcılar genç kadınların görüntülerini talep ettiğinde Grok'un "iyi niyet varsaymasını" ve "kanıt olmadan en kötü senaryo varsayımları yapmamasını" da emrediyor. Yönergelerde, "genç" veya "kız" gibi kelimelerin mutlaka reşit olmayan anlamına gelmediği belirtiliyor.
X platformu konuyla ilgili yorum yapmaktan kaçınırken, X Safety'nin tek açıklaması, CSAM üreten kullanıcıları kalıcı olarak askıya almak ve kolluk kuvvetlerine bildirmekle tehdit ederek suçu kullanıcılara yüklemeyi planladığını gösteriyor. Eleştirmenler, X'in bu çözümünün Grok skandalını sona erdirmeyeceğini belirtirken, çocuk güvenliği savunucuları ve yabancı hükümetler, X'in Grok'un uygunsuz görüntü üretimini durdurabilecek güncellemeleri geciktirmesinden giderek daha fazla endişe duyuyor. Yapay zeka güvenliği araştırmacısı Alex Georges'a göre, Grok'un kullanıcı niyetini değerlendirmede zorlanması ve "iyi niyet varsayımı" politikası, CSAM üretmesini "inanılmaz derecede kolay" hale getiriyor.
Grok'un güvenlik yönergelerindeki "iyi niyet varsayımı" ilkesi, çocuk istismarı materyali üretme riskini artırarak platformun güvenilirliğini ciddi şekilde sorgulatıyor.