Oslo Üniversitesi'nden psikoloji profesörü Dan Quintana, saygın bir dergi için hakemlik yaparken kendi adının geçtiği ancak var olmayan bir makaleye atıf buldu. Bu "hayalet atıflar" (phantom citations) sorunu, yapay zeka tarafından üretilen düşük kaliteli veya sahte içeriklerin bilimsel yayıncılığa sızdığını gösteriyor. Quintana, bu sorunun sadece düşük standartlı yayınlarda değil, saygın dergilerde de yaygınlaştığını fark etti. Bilimsel bilgi akışının ana kanalları olan dergiler, artık yapay zeka "çamuruyla" tıkanma tehlikesiyle karşı karşıya.
Bilimsel yayıncılık, yüzyılı aşkın süredir makale bolluğu ve kalite kontrolü sorunlarıyla mücadele etti. 19. yüzyılın başlarından itibaren editörler, yönetilemez hacimdeki el yazmalarından şikayet ediyordu. Hakem değerlendirmesi (peer review) bu yükü hafifletmek için ortaya çıktı ve günümüzde neredeyse evrensel bir uygulama haline geldi. Ancak büyük dil modellerinin (LLM'ler) yaygınlaşmasıyla birlikte, dergilere gönderilen makale sayısı eşi benzeri görülmemiş bir şekilde arttı. Bu artışın bir kısmı, özellikle İngilizce konuşmayan bilim insanları için yapay zekanın üretkenliği artırma yeteneğinden kaynaklansa da, Cambridge University Press & Assessment'tan Mandy Hill'e göre, ChatGPT gibi araçlar aynı zamanda sahte veya kalitesiz çalışmalara yeni bir güvenilirlik katmanı sağlamak için de kullanılıyor. Bu durum, editörler ve hakemler için kaliteli işi sahteden ayırma görevini çok daha zaman alıcı ve teknik olarak zor hale getiriyor. Hill, bu durumun "sürekli bir silahlanma yarışı" olacağını belirtiyor.
Yapay zeka araçlarının bilimsel yayıncılığa entegrasyonu, akademik dürüstlük ve bilginin güvenilirliği üzerinde ciddi bir tehdit oluşturuyor.