Microsoft ile ortaklık kurdu rızaya dayanmayan mahrem görüntüleri (deepfake’ler dahil) Bing arama motorundan kaldırmaya yardımcı olmak için.
Bir kurban StopNCII ile bir “dava” açtığında, veritabanı, o kişinin cihazında depolanan mahrem bir görüntü veya videonun dijital bir parmak izini, yani “karma”sını oluşturur ve dosyayı yüklemesine gerek kalmaz. Karma daha sonra katılımcı endüstri ortaklarına gönderilir ve bu ortaklar orijinalle eşleşmeler arayabilir ve içerik politikalarını ihlal ederse onları platformlarından kaldırabilirler. Bu süreç, gerçek bir kişinin yapay zeka tarafından oluşturulan deepfake’leri için de geçerlidir.
Birkaç başka teknoloji şirketi de izinsiz paylaşılan mahrem görüntüleri temizlemek için StopNCII ile çalışmayı kabul etti. Meta Aracı Fb, Instagram ve Threads platformlarında kullanıyor; bu çabaya ortak olan diğer hizmetler arasında Reddit, Snap, Niantic, OnlyFans, PornHub, Playhouse ve Redgifs yer alıyor.
Garip bir şekilde bu listede Google yok. Teknoloji devinin kendi rızaya dayanmayan görsellerin bildirilmesi için, Ancak, intikam pornosu ve diğer özel görüntüleri temizlemek için merkezileştirilmiş birkaç yerden birine katılmamak, mağdurların gizliliklerini geri kazanmak için parça parça bir yaklaşım benimsemeleri konusunda ek bir yük getiriyor.
StopNCII gibi çabalara ek olarak, ABD hükümeti bu yıl rızaya dayanmayan görüntülerin deepfake tarafının verdiği zararları özel olarak ele almak için bazı adımlar attı. Konuyla ilgili yeni bir yasa çağrısında bulundular ve bir grup Senatör, Temmuz ayında tanıtılan ile mağdurları korumak için harekete geçti.
Rıza dışı mahrem görüntü paylaşımının kurbanı olduğunuzu düşünüyorsanız, StopNCII’de dava açabilirsiniz ve Google ; 18 yaşının altındaysanız, NCMEC’e bir rapor sunabilirsiniz .