Ontario Dijital Servisi'nin eski Ürün Yöneticisi, 15 milyon vatandaşa hizmet veren kurumların yapay zeka (AI) araçlarını neden benimseyemediğini açıklıyor. Yüksek riskli kurumlar, "yüzde 98 güvenli" gibi olasılıksal güvenlik vaatlerini kabul edemiyor. Bir teknoloji satıcısı bunu güvenilirlik olarak sunsa da, bir Bakan Yardımcısı için bu, manşetlere taşınacak bir skandalın %2'lik riskini temsil ediyor. Bu uyumsuzluk, sağlık, finans, hukuk ve kamu sektörlerindeki öncü AI şirketlerinin kurumsal gelir elde etmesini engellerken, bu endüstrilerin en son teknolojilerle yenilik yapma yeteneğini de sınırlıyor. Sorun modellerin teknik yeterliliğinde değil, onları saran sistem mimarisinde yatıyor.
Düzenlenmiş kurumlarda hiyerarşide yukarı çıkıldıkça alan bilgisi azalır. Bakanlar veya Bakan Yardımcıları, geniş portföyleri nedeniyle dijital altyapı konusunda uzman olamazlar; sistemleri yönetmek için yapıya güvenirler. Benzer şekilde, hastane yöneticileri doktor veya AI güvenliği uzmanı değildir. Bu karar vericiler, yenilikten çok az şey kazanırken, başarısızlıktan her şeyi kaybetme riskiyle karşı karşıyadır. Bir dağıtımın başarısızlığının cezası, kaybedilen bir bonus değil, manşetlere taşınan bir skandal, yasal bir ihlal veya haksız ölüm davası olabilir. Bu nedenle, karar vericiler "Bu çalışacak mı?" yerine "Yanlış giderse bu seçimi savunabilir miyim?" sorusunu sorarlar.
Yazar, bu sorunu çözmek için "yönetişim ilkel" (governance primitive) adını verdiği bir mimari yaklaşım öneriyor. Bu ilkel, yetki kısıtlamalarını kalıcı ve araç filtreleme yoluyla mekanik olarak uygulanabilir hale getiriyor. Sağlık, finans ve hukuk gibi farklı alanlarda aynı çekirdekle çalışabilen bu yapı, yüksek riskli kurumlarda AI araçlarının güvenli ve savunulabilir bir şekilde benimsenmesinin önünü açmayı hedefliyor.
Yüksek riskli kurumlarda yapay zeka teknolojilerinin benimsenmesi, teknik yeteneklerden ziyade yönetişim ve savunulabilirlik eksikliği nedeniyle engellenmektedir.