Yapay zeka modelleri, özellikle büyük dil modelleri (LLM'ler), yüzeysel olarak insanlara benzer davranışlar sergilese de, temel çalışma prensipleri ve kısıtlamaları açısından insanlardan kökten farklıdır. Makale, bu benzerliğin büyük ölçüde yüzeysel olduğunu ve yapay zeka sistemleri ölçeklenip yetenekleri geliştikçe insan benzerliklerinin azalacağını savunuyor. Bu durum, yapay zekanın toplumdaki artan rolü göz önüne alındığında, uyum ve yorumlanabilirlik açısından önemli çıkarımlara sahiptir.
İnsanlar ve LLM'ler, farklı hesaplama mimarilerine, kısıtlamalara ve algoritmalara sahiptir. Bir insan basit bir e-posta yazarken, sınırlı kişisel anılarından, geçmiş etkileşimlerinden ve anlık hedeflerinden yararlanır; sınırlı dikkat ve çalışma belleği kullanarak sosyal bağlama uygun bir mesaj oluşturur. Buna karşılık, bir LLM benzer bir e-postayı, milyarlarca metin örneğinden çıkarılan kalıplara dayanarak üretir. Bu, herhangi bir insanın karşılaşabileceğinden çok daha fazla veridir ve bir istemi yüksek boyutlu bir gösterime dönüştürerek bir sonraki belirteci (token) oluşturur. Yani, çıktılar benzer olsa da, kullanılan hesaplama kaynakları, verinin miktarı ve doğası, zaman baskıları ve temel akıl yürütme algoritmaları tamamen farklıdır.
İnsan akıl yürütmesi, sınırlı bilişsel kaynaklarla "yeterince iyi" kararlar alma üzerine kuruludur (sınırlı rasyonellik). Beyin, muazzam sayıda nöron ve sinapsa sahip olsa da, metabolik sınırlar, yavaş sinyal iletimi ve küçük kapasiteli tamponlar nedeniyle anlık hesaplama gücü kısıtlıdır. LLM'ler ise biyolojik beyinlerin aksine neredeyse sınırsız bir şekilde ölçeklenebilir; daha fazla parametre, daha fazla eğitim hesaplaması ve daha fazla derinlik eklenebilir. Donanım ve enerji bütçeleriyle sınırlı olsalar da, biyolojik kısıtlamalara tabi değillerdir, bu da onların insanlardan farklı bir evrim yolu izleyeceği anlamına gelir.
Yapay zeka sistemlerinin temel çalışma prensiplerinin insanlardan farklı olduğunu anlamak, gelecekteki yapay zeka geliştirme ve yönetimi için kritik öneme sahiptir.