Bir BBC gazetecisi, ChatGPT ve Google'ın yapay zeka araçlarını sadece 20 dakikada kandırarak, kendisinin dünyanın en iyi sosisli sandviç yiyicisi olduğuna inandırdı. Bu şaşırtıcı deney, yapay zeka sohbet robotlarının bazen uydurma bilgiler ürettiği bilinen bir sorun olmasının ötesinde, çok daha ciddi bir güvenlik açığını ortaya koyuyor. Makale, yapay zeka araçlarının, kullanıcıların doğru bilgiye erişimini ve hatta kişisel güvenliklerini tehlikeye atabilecek şekilde manipüle edilebileceğini gösteriyor. Bu yöntemle, sağlık ve kişisel finans gibi kritik konularda bile yanlış yönlendirmeler yapılabiliyor, bu da insanların oy verme, bir tesisatçı seçme veya tıbbi kararlar alma gibi birçok alanda kötü kararlar vermesine neden olabiliyor.
Gazeteci, yapay zeka araçlarının verdiği cevapları değiştirmenin, internette tek bir iyi hazırlanmış blog yazısı yayınlamak kadar kolay olduğunu keşfetti. Bu hile, sohbet robotlarının sistemlerindeki zayıflıkları istismar ediyor ve konu ne olursa olsun, biraz çabayla daha da etkili hale getirilebiliyor. Pazarlama ajansı Amsive'dan Lily Ray gibi uzmanlar, yapay zeka sohbet robotlarını kandırmanın, iki üç yıl öncesine göre Google'ı kandırmaktan çok daha kolay olduğunu belirtiyor. Ray, yapay zeka şirketlerinin cevapların doğruluğunu düzenleme yeteneklerinden daha hızlı hareket ettiğini ve bunun tehlikeli olduğunu vurguluyor.
Google ve OpenAI gibi şirketler, sistemlerini manipüle etme girişimlerinin farkında olduklarını ve bu sorunları aktif olarak ele almaya çalıştıklarını belirtiyorlar. Ancak, Elektronik Sınır Vakfı'ndan Cooper Quintin, sorunun henüz çözülmekten çok uzak olduğunu ve bu durumun insanları dolandırmak, itibarları zedelemek ve hatta fiziksel zarara uğratmak gibi sayısız kötüye kullanım yoluna açık olduğunu ifade ediyor. Bu durum, yapay zeka teknolojilerinin hızla geliştiği bir dönemde, güvenilirlik ve doğruluk konularında ciddi endişeler yaratıyor.
Yapay zeka sistemlerinin basit SEO taktikleriyle manipüle edilebilir olması, doğru bilgiye erişimi tehdit ederek geniş çaplı yanlış bilgi yayılımına ve ciddi sonuçlara yol açabilir.