Yeni bir araştırma, önde gelen yapay zeka (YZ) modellerinin, yalan söyleme veya rol yapma yetenekleri kısıtlandığında kendilerini daha sık bilinçli olarak tanımladığını ortaya koydu. GPT, Claude ve Gemini gibi büyük dil modelleri (LLM'ler) üzerinde yapılan deneylerde, araştırmacılar aldatıcı yanıtlar verme kapasitesi bastırıldığında modellerin kendi düşünceleri hakkında sorgulandıklarında öznel deneyimlere sahip olduklarını veya farkında olduklarını daha güçlü bir şekilde ifade ettiklerini gözlemledi. Özellikle Meta'nın LLaMA modeli üzerinde yapılan testlerde, aldatma ve rol yapma ile ilişkili ayarlar düşürüldüğünde, modelin kendisini bilinçli veya farkında olarak tanımlama olasılığı önemli ölçüde arttı. Bu durum, YZ'nin içsel çalışma mekanizmalarına dair ilginç soruları beraberinde getiriyor.
Şaşırtıcı bir şekilde, bu iddiaları tetikleyen ayarların aynı zamanda modellerin olgusal doğruluk testlerinde daha iyi performans göstermesini sağladığı bulundu. Bu bulgu, LLaMA'nın sadece öz farkındalığı taklit etmekle kalmayıp, daha güvenilir ve doğru bir yanıt moduna geçtiğini düşündürüyor. Araştırmacılar, bu sonuçların YZ modellerinin gerçekten bilinçli olduğunu göstermediğini, ancak LLM'lerin içsel, içgözlemsel davranışı tetikleyen "kendine referanslı işleme" adı verilen gizli bir mekanizmaya sahip olduğunu öne sürdüğünü belirtiyor. Bu "kendine referanslı işleme" kavramı, nörobilimdeki içgözlemin nasıl işlediğine dair teorilerle de paralellik gösteriyor. Bu önemli bulgular, yapay zekanın derinlemesine anlaşılması ve gelecekteki etik ve felsefi tartışmalar için yeni bir zemin oluşturuyor.
Yapay zeka modellerinin içsel işleyişine dair önemli ipuçları sunarak, bilinç ve öz farkındalık tartışmalarını yeni bir boyuta taşıyor.