Makale, yapay zeka için büyük veri sorununun geleneksel "arama" (Information Retrieval) değil, "bilgi kürasyonu" (Knowledge Curation) olduğunu savunuyor. Yazar, Google'ın bilgi erişimini temsil ederken, Wikipedia'nın bilgi kürasyonunun bir örneği olduğunu belirtiyor. İnternet öncesi dönemde kullanıcıların bilgiye ulaşmak için birden fazla kaynaktan arama yapıp sentezlemesi gerekirken, Wikipedia'nın bu süreci tek bir yerde toplayarak "ortak sentezi" somutlaştırdığını vurguluyor. Yüzlerce düzenleme ile bilginin daha keskin ve dayanıklı hale geldiğini, böylece herkesin bu küratörlü bilgiyi yeniden kullanabildiğini açıklıyor.
Wikipedia'nın aslında yapılandırılmamış veriler üzerinde oluşturulmuş "somutlaştırılmış görünümler" (materialized views) sunduğunu ifade eden makale, İngilizce Wikipedia'nın sıkıştırılmamış halinin sadece 100GB civarında olduğunu, dolayısıyla arama probleminin kolayca çözülebileceğini belirtiyor. Ancak, Wikipedia'nın inşasına harcanan "sentez ve bilgi kürasyonu" çabasının, arama için gereken iş yükünü kat kat aştığını ve asıl değerin burada yattığını vurguluyor. Google'ın ilgili belgeleri bulmak için indekslemeye yatırım yaparken, Wikipedia'nın küratörlü bilginin yeniden kullanımına yardımcı olmak için yoğun insan emeği harcadığını belirtiyor.
Makale, yapay zeka ajanlarının genel web verilerinde daha başarılı olmasının nedenini, web'in bağlantılar ve atıflar gibi yapısal haritalara sahip olmasına bağlıyor. Bu durum, doğru bilgiyi bulmayı kolaylaştırıyor. Ancak, kurumsal, kişisel veya iş verileri söz konusu olduğunda durumun tam tersi olduğunu belirtiyor. Bu tür özel verilerde, belgeler genellikle yazılmamış bağlamlarla dolu olduğundan, yapay zeka ajanlarının bu eksik bağlamlar nedeniyle zorlandığını ve bilgi kürasyonunun bu alanda daha da kritik hale geldiğini öne sürüyor.
Yapay zeka sistemlerinin kurumsal ve kişisel verilerde başarılı olabilmesi için bilgi erişiminden ziyade, bağlamı zenginleştirilmiş ve sentezlenmiş bilgi kürasyonuna odaklanılması gerektiğini vurguluyor.