Ana Sayfa

İnternet Arşivi, Yapay Zeka Endişeleriyle Yayıncıların Hedefinde

1 dk okuma

İnternet Arşivi'nin web'i koruma misyonu, yapay zeka botlarının eğitim verisi toplamak için web'i taramasıyla haber yayıncıları için potansiyel bir yükümlülüğe dönüşüyor. Kuruluşun dijital kütüphanesi, ücretsiz bilgi erişimi taahhüdü nedeniyle, bazı haber yayıncıları için içeriklerinin yapay zeka şirketleri tarafından kazınmasına (scrape) yönelik bir risk oluşturuyor. Bu durum, The Guardian gibi büyük yayıncıların, içeriklerini korumak amacıyla İnternet Arşivi'ne erişimi kısıtlama kararı almasına yol açtı.

The Guardian, erişim günlüklerinde İnternet Arşivi'nin sık bir crawler olduğunu tespit ettikten sonra, yayınlanan makalelere erişimi sınırlama adımları attı. Özellikle, İnternet Arşivi'nin API'lerinden kendilerini hariç tuttu ve makale sayfalarını Wayback Machine'in URL arayüzünden filtreledi. Yayıncı, API'lerin yapay zeka şirketleri için yapılandırılmış veri tabanlarına kolay erişim sağladığına dair endişelerini dile getirdi. Benzer şekilde, Financial Times da ücretli içeriklerini korumak için OpenAI ve Anthropic gibi yapay zeka botlarının yanı sıra İnternet Arşivi'nin botlarını da engelliyor.

Uzmanlar, İnternet Arşivi ve Common Crawl gibi "iyi niyetli" kuruluşların, yapay zeka modelleri tarafından kontrol edilmek istemeyen yayıncıların "çapraz ateşinde" kaldığını belirtiyor. The Guardian'ın bu önlemleri, Wayback Machine aracılığıyla belirli bir yapay zeka kazıma vakası belgelenmeden, proaktif olarak aldığı ve İnternet Arşivi ile doğrudan çalıştığı ifade ediliyor. Yayıncı, İnternet Arşivi'nin bilgi demokratikleştirme misyonunu desteklese de, bu pozisyonun rutin bot yönetimi kapsamında gözden geçirilmeye devam ettiğini belirtiyor.

İçgörü

Yayıncıların yapay zeka şirketlerinin içeriklerini izinsiz kullanmasını engelleme çabaları, web'in arşivlenmesi ve bilgiye açık erişim misyonuyla çelişen yeni bir dijital duvar örme eğilimini ortaya koyuyor.

Kaynak