Ana Sayfa

Yapay Zeka Geliştiricileri, Modelleri Zehirlemek İçin Harekete Geçti

1 dk okuma

Yapay zeka endüstrisi içinden bazı kişiler, mevcut yapay zeka modellerinin gelişimini baltalamak amacıyla "Poison Fountain" adlı bir girişim başlattı. Bu proje, web sitesi operatörlerini, yapay zeka tarayıcılarına zehirli eğitim verileri sağlayan bağlantıları sitelerine eklemeye teşvik ediyor. Amaç, yapay zeka modellerinin veri toplama sürecini manipüle ederek, modellerin kalitesini düşürmek ve yanlış veya yanıltıcı çıktılar üretmelerini sağlamak. Bu, yayıncıların uzun süredir eleştirdiği, yapay zeka tarayıcılarının web sitelerinden veri kazıması (scraping) ve bu verileri model eğitimi için kullanması pratiğine karşı bir tepki olarak ortaya çıktı.

Girişimin arkasındaki kişiler, yapay zekanın insanlık için bir tehdit oluşturduğuna inanan, aralarında büyük ABD teknoloji şirketlerinde çalışanların da bulunduğu anonim bir grup. Proje, Anthropic'in veri zehirleme saldırılarının daha önce düşünülenden daha pratik olduğunu gösteren araştırmasından ilham alıyor. Poison Fountain, yapay zekanın "Aşil Topuğu" olan veri zehirlemeye karşı savunmasızlığını vurgulamayı ve insanları kendi "bilgi silahlarını" geliştirmeye teşvik etmeyi hedefliyor.

Poison Fountain web sitesi, yapay zeka sistemlerine aktif bir muhalefet çağrısı yapıyor ve Geoffrey Hinton'ın makine zekasının insan türü için bir tehdit olduğu görüşünü paylaşıyor. Site, yapay zeka eğitimini engellemek için tasarlanmış iki farklı URL sunuyor: biri standart bir HTTP adresi, diğeri ise kapatılması zor olan bir .onion (darknet) adresi. Ziyaretçilerden, bu zehirli eğitim verilerini önbelleğe alarak ve yeniden ileterek "savaş çabasına" destek olmaları isteniyor. Bu girişim, yapay zeka etiği ve kontrolü konusundaki tartışmaları yeni bir boyuta taşıyor.

İçgörü

Yapay zeka modellerinin eğitim verilerine karşı yapılan bu sabotaj girişimi, teknolojinin geleceği ve etik sınırları hakkında ciddi sorular ortaya çıkarıyor.

Kaynak