İrlanda'da yapay zeka (AI) destekli deepfake'lerin ve ses/görüntü kötüye kullanımının cezalandırılmasına yönelik bir yasa tasarısı hızla gündeme alındı. Oireachtas yapay zeka komitesi başkanı, bir kişinin sesi veya görüntüsünün zararlı amaçlarla kötüye kullanılmasını suç sayacak yasa tasarısının hızlandırılması çağrısında bulundu. Fianna Fáil milletvekili Malcolm Byrne tarafından Nisan ayında sunulan "Ses ve Görüntüyü Koruma Yasa Tasarısı", bir kişinin sesinin veya görüntüsünün AI ile sahte fotoğraf veya video oluşturmak için kullanıldığı "deepfake" olarak bilinen durumları suç kapsamına almayı hedefliyor. Bu adım, Elon Musk'ın AI aracı Grok'un kadın ve çocukları dijital olarak soyarak X sosyal medya kanalında dağıtılmasına ilişkin endişelerin ardından geldi. İrlanda Başsavcısı, AI tarafından oluşturulan rızasız müstehcen görüntüler ve çocuk cinsel istismarı görüntülerinin cezalandırılmasına yönelik mevcut yasaların gücünü inceliyor.
Milletvekili Byrne, çocuk cinsel istismarı görüntüleri oluşturmanın ve rızasız müstehcen görüntüleri paylaşmanın zaten suç olduğunu belirtirken, bu yeni yasa tasarısının "bir başka kişinin adını, görüntüsünü, sesini veya benzerliğini rızası olmadan, özellikle zarar vermek veya aldatmak amacıyla bilerek istismar edenler için" yeni ve bağımsız bir suç oluşturacağını vurguladı. İrlanda'nın çocuk koruma raportörü Caoilfhionn Gallagher, deepfake cinsel istismarının mağdurlar üzerindeki zararlarının gerçek görüntülerle eşdeğer olduğunu, çünkü mağdurlar için videoların gerçek hissettirdiğini ifade etti. Gallagher ayrıca, İrlanda'nın sosyal medya platformlarını sorumlu tutma konusundaki korumalarının yeterli olup olmadığını da sorguladı.
Gallagher, Grok AI aracının "çıplaklaştırma" özelliğine sahip olmasıyla ilgili endişelerini dile getirirken, bu tür görüntülerin gerçekçi olması nedeniyle mağdurların başkaları tarafından gerçek olarak algılanabileceği korkusunu yaşadığını belirtti. Bu görüntülerin oluşturulmasının genellikle bir istismar veya taciz modelinin parçası olduğunu ve online taciz nedeniyle intihar eden Nicole Coco Fox'un trajik vakasını hatırlattı. Ayrıca, diğer çıplaklaştırma uygulamalarının çoğunlukla kadın görüntülerinden oluşan büyük veri setleri üzerinde eğitildiğini ve çevrimiçi erişilebilir cinsel içerikli deepfake'lerin yüzde 99'unun kadın ve kız çocuklarına ait olduğunun tahmin edildiğini vurguladı. Bu durumun aynı zamanda toplumsal cinsiyete dayalı bir şiddet sorunu olduğuna dikkat çekti. Uluslararası alanda da yasal ve politika korumalarının genellikle görüntüleri oluşturan kullanıcılara odaklandığı, ancak bu görüntülerin oluşturulmasını kolaylaştıran platformlar ve ürünler üzerinde yeterince durulmadığına dair endişeler mevcut.
Bu yasa tasarısı, yapay zeka teknolojilerinin kötüye kullanımının önlenmesi ve dijital ortamda kişisel hakların korunması konusunda önemli bir hukuki çerçeve sunuyor.