Google'ın sağlık alanındaki yapay zeka modeli Med-Gemini, bir araştırma makalesinde "basilar ganglia" adında, beyinde aslında var olmayan bir bölgeyi uydurarak ciddi bir hataya imza attı. Bu hata, modelin "basal ganglia" ve "basilar artery" terimlerini karıştırması sonucu ortaya çıktı. Med-Gemini'nin, radyologların gözden kaçırdığı anormallikleri tespit etme yeteneğini sergilemek amacıyla hazırlanan bir bölümde yer alan bu yanılgı, yapay zekanın tıbbi teşhislerdeki potansiyel risklerini gözler önüne serdi.
Nörolog ve yapay zeka uzmanı Bryan Moore'un hatayı fark etmesi üzerine Google, ilgili blog yazısını sessizce düzeltti ancak araştırma makalesinde bir değişiklik yapmadı ve olayı basit bir yazım hatası olarak nitelendirdi. Ancak tıp uzmanları, bu durumu basit bir yazım hatasından ziyade, yapay zeka modellerinin "halüsinasyon" görme yeteneğinin tehlikeli bir örneği olarak değerlendiriyor. Bu tür hatalar, teşhis ve tedavi süreçlerinde ciddi sonuçlar doğurabilir.
Med-Gemini'nin pilot programlarla gerçek tıbbi senaryolarda test edilmeye başlandığı bir dönemde, bu tür yapay zeka hatalarının riskleri daha da artıyor. Uzmanlar, doktorların bu tür yapay zeka kaynaklı hataları fark etmeyebileceği konusunda endişelerini dile getiriyor. Bu olay, sağlık sektöründe yapay zeka kullanımının getirdiği faydaların yanı sıra, dikkatli bir denetim ve doğrulama mekanizmasının ne kadar kritik olduğunu bir kez daha gösterdi.
Sağlık alanında yapay zeka kullanımının, yanlış bilgi üretme potansiyeli nedeniyle ciddi riskler taşıdığını ve insan denetiminin hayati önem taşıdığını gösteriyor.