İnsanlar, bir köpeği ister okudukları bir hikayeden ister parkta koşan birini görerek algılasınlar, "köpek" kavramına dair birleşik bir anlayışa sahiptir. Bu, ırkı veya eylemleri ne olursa olsun, köpeğin temel özünü kavramamızı sağlar. Yapay zeka sistemleri ise genellikle dil modelleri için metin, bilgisayar görüşü sistemleri için görüntüler gibi tek tip veri kümeleri üzerinde eğitilir. Bu durum, farklı veri türleriyle eğitilmiş modellerin "köpek" gibi kavramları ne ölçüde ortak bir şekilde anladığı sorusunu gündeme getirir.
Son araştırmalar, farklı yapay zeka modellerinin, farklı veri setleri veya tamamen farklı veri türleri kullanılarak eğitilmiş olsalar bile, benzer iç temsiller geliştirebildiğini gösteriyor. Dahası, modellerin yetenekleri arttıkça bu temsillerin daha da benzer hale geldiği gözlemleniyor. Massachusetts Teknoloji Enstitüsü'nden (MIT) dört yapay zeka araştırmacısı, 2024 tarihli bir makalede bu yakınlaşma ipuçlarının tesadüf olmadığını öne sürdü. "Platonik temsil hipotezi" olarak adlandırılan bu fikir, araştırmacılar arasında canlı bir tartışma ve birçok takip çalışmasına ilham verdi.
Hipotez, adını Yunan filozofu Platon'un 2400 yıllık mağara alegorisinden alıyor. Bu metaforun yapay zeka versiyonunda, mağaranın dışındaki gerçek dünya, makine tarafından okunabilir veri akışları şeklinde gölgeler düşürüyor ve yapay zeka modelleri bu gölgeleri algılayan mahkumlar oluyor. MIT ekibi, çok farklı modellerin, yalnızca bu veri akışlarına maruz kalarak, verilerin arkasındaki dünyanın ortak bir "Platonik temsilinde" birleşmeye başladığını iddia ediyor. Ancak herkes bu fikre ikna olmuş değil; temel tartışma noktalarından biri, hangi temsillerin odaklanılacağı ve çok farklı modeller arasında bunların nasıl karşılaştırılacağı gibi metodolojik zorluklar içeriyor.
Yapay zeka modellerinin farklı veri türlerinden öğrenseler bile gerçekliği benzer şekilde anlamaya başlaması, yapay genel zeka yolunda önemli bir adımı işaret ediyor.