Amerikan Kongresi’nden sonra internet dünyası da yapay zekayla üretilen müstehcen görüntülerin peşinde. Taylor Swift’in yapay zekayla üretilen bu sahte görüntülerinin önüne geçmek için X/Twitter radikal bir önlem aldı. Amerikalı müzisyene ait yapay zekayla üretilen çıplak görüntüleri platformdan kaldıran X yönetimi tedbirleri sıkılaştırarak aramalara da kapattı. Şu anda müzisyenin ismini yazdığınızda karşınıza herhangi bir sonuç çıkmıyor. Bunun ileride de benzer mağduriyetler yaşayacaklar için örnek teşkil edeceği savunuluyor.
BBC’de yer alan habere göre 2023 yılında yapılan bir araştırma yapay zekanın ortaya çıkmasının 2019’dan bu yana üzerinde oynanmış görüntüler oluşturulmasında yüzde 550 artış yarattığını ortaya koydu. Geçen yıl Time dergisinin Yılın Kişisi seçtiği ve ABD’de hemen her kesimden takdir toplamayı başaran 35 yaşındaki Taylar Swift’in yaşadığı hadise X’i ve Amerikan yönetimini harekete geçirdi.
Taylor Swift’in sahte görüntüleri 47 milyon kullanıcıya ulaştı
Olaydan sonra X yönetiminden açıklama yapmış ve ilgili sahte görüntülerin hızla yayından kaldırıldığını duyurmuştu. Taylor Swift’in yaşadığı mağduriyet karşısında X yönetimi “Başka ihlallerin derhal ele alınmasını ve içeriğin kaldırılmasını sağlamak için durumu yakından takip ediyoruz” dedi. Ancak X yönetimi ne kadar hızlı davransa da arada geçen sürede müstehcen görseller 47 milyon kez görüntülenmişti.
Öte yandan Beyaz Saray Basın Sözcüsü Karine Jean-Pierre, Taylor Swift’in yaşadıklarının endişe verici olduğunu, ABD yönetiminin ‘yasal önlem’ yoluyla çözüm bulma çalışması içinde olduğunu söyledi. Deepfake görüntülerle yapay zeka kullanarak bir kişinin yüzü ya da vücudu manipüle edilerek video oluşturuluyor.