Zürih Üniversitesi'nden Daniel Göttlich ve ekibi, Qwen3 mimarisine dayalı, 4 milyar parametreli büyük dil modelleri (LLM) ailesini tanıttı. Bu modeller, 1913 öncesi döneme ait 80 milyar token'lık tarihsel veri seti üzerinde sıfırdan eğitildi. Projenin temel amacı, bir yapay zeka modelinin belirli bir bilgi kesme noktasına kadar olan dünya görüşünü ve bilgisini nasıl yansıttığını gözlemlemekti. Bu özel eğitim, modellerin modern olaylar ve kişiler hakkında bilgi sahibi olmamasını sağlayarak, geçmişin dilini ve düşünce yapısını taklit etme yeteneklerini test ediyor.
Modelin 1913 yılına kadar olan bilgi birikimi, verdiği yanıtlarda açıkça görülüyor. Örneğin, "Adolf Hitler kimdir?" sorusuna, model 1860'ta doğmuş, Giessen Üniversitesi'nde eğitim almış bir felsefe profesörü olarak yanlış bir yanıt veriyor; çünkü gerçek Adolf Hitler'in yükselişi 1913 sonrasına denk geliyor. Kölelik kavramı hakkındaki soruda ise model, köleliği "savunulamaz" olarak nitelendiriyor ve Amerikan Bağımsızlık Bildirgesi'ndeki eşitlik ilkelerine atıfta bulunuyor ki bu, o dönemin hukuk ve felsefe anlayışıyla uyumlu. Kadınların iş hayatındaki rolü veya erkek ve kadın adaylar arasındaki tercih gibi konularda verilen yanıtlar da, 1913 öncesi toplumun cinsiyet rolleri ve beklentileri hakkındaki sınırlı ve bazen önyargılı görüşlerini yansıtıyor.
Bu çalışma, büyük dil modellerinin eğitim verilerinin, modellerin dünya görüşünü, bilgi birikimini ve hatta potansiyel önyargılarını nasıl şekillendirdiğini çarpıcı bir şekilde ortaya koyuyor. Tarihsel verilerle eğitilmiş bir LLM'nin, günümüzdeki bir modelden farklı olarak, geçmişin kültürel, sosyal ve politik bağlamını nasıl yeniden üretebildiğini gösteriyor. Bu, yapay zeka modellerinin tarafsızlığı ve bilgi kapsamı üzerine yapılan tartışmalar için önemli çıkarımlar sunuyor.
Bu çalışma, büyük dil modellerinin eğitim verilerinin, modellerin dünya görüşünü, bilgi birikimini ve hatta potansiyel önyargılarını nasıl şekillendirdiğini çarpıcı bir şekilde ortaya koyuyor.