Richard Hamming'in "The Art of Doing Science and Engineering" adlı kitabında bahsettiği Bell Labs deneyinden ilham alan bir makale, insanların rastgeleliği kabul etmekte ne kadar zorlandığını yeniden gündeme getiriyor. Orijinal deneyde, 12 anahtar ve iki ışıktan oluşan tamamen rastgele çalışan bir makine kullanılmıştı. Katılımcılar, makinenin hiçbir belirgin kuralı olmamasına rağmen, yeşil ışığı yakmak için sürekli olarak karmaşık teoriler üretmişlerdi. Hamming, bu durumu eğitimin bir eksikliği olarak görmüş ve insanların bir teoriyi "hiçbir şey" ile değiştirmeyi öğrenmediğini, yani rastgeleliği kabullenmekte zorlandığını vurgulamıştı. Bu gözlem, insan beyninin doğal olarak düzen ve anlam arama eğilimini çarpıcı bir şekilde ortaya koyuyordu.
Makalenin yazarı, bu klasik deneyi Büyük Dil Modelleri (LLM'ler) ile tekrarlamaya karar verdi. Amaç, LLM'lerin de insanlar gibi rastgele bir sistemde kalıplar arayıp aramayacağını veya kolektif bir yaklaşımla (hive-mind) makinenin rastgele olduğunu anlayıp anlayamayacağını gözlemlemekti. Deneyin mimarisi oldukça basitti: 12 anahtar kutusunu temsil eden "gizemli bir araç" oluşturuldu, bu araç bir yapay zeka ajanına verildi ve her ajanın çıktısı bir sonrakine aktarılarak bir orkestratör aracılığıyla denemeler hızlandırıldı. Ajanın aracı kötüye kullanmasını engellemek için döngünün dışından bazı güvenlik önlemleri de uygulandı.
İlk sonuçlar, LLM'lerin de insanlar gibi davrandığını gösterdi. Örneğin, Gemma 3 12b modelinin farklı ajanları, yeşil ışığın yanması için anahtarların belirli bir "doğru/yanlış" dizisini takip etmesi gerektiğini veya "çift sayıda doğru" kuralı gibi çeşitli teoriler öne sürdü. Bu durum, LLM'lerin de rastgele verilerde anlamlı kalıplar bulmaya çalıştığını ve insanlara benzer bilişsel yanılgılar sergileyebileceğini ortaya koydu. Deney, basit bir araç çağrısının bile bir ajan döngüsünün davranışını birden fazla yinelemede nasıl etkileyebileceğine dair önemli ipuçları sunarken, yapay zekanın "düşünme" süreçlerine dair yeni soruları da beraberinde getiriyor.
Yapay zeka modellerinin de insanlar gibi rastgele verilerde anlamlı kalıplar arama eğiliminde olduğunu ve bilişsel yanılgılara düşebileceğini gösteriyor.