Google DeepMind, "Amortized Planning with Large-Scale Transformers: A Case Study on Chess" başlıklı makalesinde, güçlü satranç motoru Stockfish 16 üzerinde eğitilmiş, transformatör tabanlı yeni bir satranç modeli tanıttı. Bu model, bir oyun durumunu girdi olarak alarak, durumun değerini, belirli bir hamlenin değerini ve olası hamleler üzerindeki olasılık dağılımını tahmin ediyor. DeepMind, modellerinin insan Büyükusta seviyesinde satranç oynadığını ve Lichess Blitz'de 2895 Elo derecesine ulaştığını iddia ediyor.
Ancak, bu makalenin yazarı, DeepMind'ın bu iddiasının tamamen yeni bir sonuç olmayabileceğini savunuyor. Yazar, AlphaZero'nun tasarımını temel alan ve açık kaynak topluluğu tarafından geliştirilen Leela Chess Zero (Lc0) gibi projelerin, DeepMind'ın modeline benzer veya hatta daha güçlü hamle seçimi politikaları geliştirdiğini belirtiyor. Lc0'ın en güçlü ağlarının, AlphaZero'dan yüzlerce Elo puanı daha iyi performans gösterdiği ve bu sayede DeepMind'ın 136M transformatör modelinin seviyesine ulaştığı vurgulanıyor.
Makale, DeepMind'ın "arama yapmadan" büyükusta seviyesi satranç iddiasını da sorguluyor. Yazar, DeepMind'ın kendi karşılaştırmalarında bile, bir hamlenin sonucunu değerlendirmek için "derinlik bir" açılım (rollout) kullandığını, bunun da teknik olarak bir arama süreci olduğunu ancak yazarlar tarafından bu şekilde işaretlenmediğini belirtiyor. Bu eleştiriler, büyük teknoloji şirketlerinin yapay zeka alanındaki iddialarının, açık kaynak topluluğunun benzer veya daha ileri başarılarıyla karşılaştırıldığında daha dikkatli değerlendirilmesi gerektiğini ortaya koyuyor.
Büyük teknoloji şirketlerinin yapay zeka alanındaki iddiaları, açık kaynak topluluğunun benzer veya daha ileri başarıları ışığında yeniden değerlendirilmelidir.