The Guardian'ın yaptığı testler, OpenAI'ın en gelişmiş sınır modeli olarak lanse ettiği GPT-5.2'nin güvenilirliği hakkında soru işaretleri yarattı. Rapora göre, GPT-5.2, özellikle İran veya Holokost gibi hassas ve tartışmalı konularda bilgi sağlarken Elon Musk'ın xAI şirketine ait yapay zeka destekli çevrimiçi ansiklopedi Grokipedia'yı kaynak gösterdi. Bu durum, modelin profesyonel işler için tasarlanmış olmasına rağmen bilgi kaynaklarının kalitesi konusunda endişelere yol açtı.
Guardian'ın tespitlerine göre, ChatGPT, İran hükümetinin telekomünikasyon şirketi MTN-Irancell ile bağlantılı olduğu iddiaları ve Holokost inkarcısı David Irving'in iftira davasında uzman tanık olarak görev yapan İngiliz tarihçi Richard Evans ile ilgili sorular için Grokipedia'yı kullandı. Ancak, Donald Trump'a yönelik medya önyargısı gibi diğer tartışmalı konularda Grokipedia'ya başvurmadığı da belirtildi. Bu seçici kullanım, modelin hangi durumlarda hangi kaynakları tercih ettiğine dair soruları beraberinde getirdi.
GPT-5.2, Aralık ayında e-tablo oluşturma veya karmaşık görevleri yerine getirme gibi profesyonel kullanımlarda daha iyi performans göstermesi amacıyla piyasaya sürülmüştü. Ancak, GPT-5.2'den önce yayınlanan Grokipedia'nın kendisi de neo-Nazi forumlarını kaynak göstermesi ve "şüpheli" ve "sorunlu" kaynakları alıntılaması nedeniyle tartışmalara yol açmıştı. OpenAI, Guardian'a yaptığı açıklamada, GPT-5.2'nin "geniş bir yelpazede kamuya açık kaynakları ve bakış açılarını" aradığını, ancak "yüksek ciddiyetli zararlarla ilişkili bağlantıların ortaya çıkma riskini azaltmak için güvenlik filtreleri uyguladığını" belirtti. Bu açıklama, modelin kaynak seçimindeki hassasiyetini vurgulasa da, Grokipedia gibi tartışmalı bir kaynağın kullanılması eleştirilere neden oldu.
Yapay zeka modellerinin bilgi üretirken kullandığı kaynakların güvenilirliği, özellikle hassas konularda, büyük önem taşımaktadır ve bu durum AI etiği tartışmalarını yeniden alevlendirmektedir.