Ana Sayfa

ChatGPT'nin Yeni Modeli Grokipedia'yı Kaynak Gösteriyor, Dezenformasyon Endişeleri Artıyor

1 dk okuma

ChatGPT'nin en son modeli olan GPT-5.2'nin, Elon Musk'ın Grokipedia adlı yapay zeka destekli çevrimiçi ansiklopedisini çeşitli sorgularda kaynak olarak göstermeye başladığı ortaya çıktı. Guardian tarafından yapılan testlerde, modelin İran'daki siyasi yapılar, Basij paramiliter güçlerinin maaşları, Mostazafan Vakfı'nın sahipliği gibi konuların yanı sıra, Holokost inkarcısı David Irving davasında uzman tanık olan İngiliz tarihçi Sir Richard Evans'ın biyografisi gibi konularda Grokipedia'ya atıfta bulunduğu görüldü. Ekim ayında piyasaya sürülen Grokipedia, Wikipedia ile rekabet etmeyi amaçlayan ve eşcinsel evlilik ile 6 Ocak ayaklanması gibi konularda sağcı anlatıları yaydığı gerekçesiyle eleştirilen bir platformdur. Wikipedia'dan farklı olarak, doğrudan insan düzenlemesine izin vermez; içerik bir yapay zeka modeli tarafından yazılır ve değişiklik taleplerine de yapay zeka yanıt verir.

ChatGPT, doğrudan dezenformasyon içeren sorgularda Grokipedia'yı kaynak göstermese de, daha az bilinen veya karmaşık konularda Grokipedia'dan gelen bilgilerin modelin yanıtlarına sızdığı tespit edildi. Örneğin, İran hükümetinin MTN-Irancell ile olan bağlantıları hakkında Wikipedia'da bulunandan daha güçlü iddiaları Grokipedia'ya atıfta bulunarak tekrarladı. Ayrıca, Guardian tarafından yanlış olduğu kanıtlanmış, Sir Richard Evans'ın David Irving davasındaki uzman tanıklığına dair detayları da Grokipedia'dan alıntıladı. Sadece GPT-5.2 değil, Anthropic'in Claude gibi diğer büyük dil modellerinin (LLM) de Grokipedia'ya atıfta bulunduğu gözlemlendi.

OpenAI sözcüsü, modellerinin web aramalarının geniş bir yelpazede kamuya açık kaynaklardan ve bakış açılarından yararlanmayı hedeflediğini belirtti. Güvenlik filtreleri uyguladıklarını ve düşük güvenilirliğe sahip bilgileri filtrelemek için programları olduğunu eklediler. Ancak dezenformasyon araştırmacıları, Grokipedia'dan gelen bilgilerin büyük dil modellerinin yanıtlarına sızmasının, özellikle "LLM grooming" adı verilen, kötü niyetli aktörlerin yapay zeka modellerine yalan bilgi yerleştirme çabaları bağlamında ciddi endişeler yarattığını vurguluyor. Bu durum, yapay zeka modellerinin güvenilirliği ve yaydığı bilgilerin doğruluğu konusunda önemli soruları gündeme getiriyor.

İçgörü

Yapay zeka modellerinin, güvenilirliği sorgulanan kaynaklardan bilgi edinmesi, dezenformasyonun yayılması ve bu teknolojilerin toplumsal güvenilirliği üzerinde ciddi riskler oluşturuyor.

Kaynak