Yakın zamanda hakemli bir bilimsel dergi olan PLOS ONE’da yayımlanan bir araştırma, deepfake teknolojisinin etkilerini incelemek amacıyla gerçekleştirildi. Araştırmada, 436 kişilik bir katılımcı grubuna popüler filmlerden oluşturulmuş ve deepfake ile başka oyuncuların eklendiği videolar izletildi. Bu videolar arasında Brad Pitt ve Angelina Jolie’nin yer aldığı bir ‘The Shining’ kesiti, Charlize Theron’un yüzünün yerleştirildiği ‘Captain Marvel’ ve Will Smith’in Neo’yu canlandırdığı düşünülen ‘The Matrix’ videoları yer alıyordu. Tüm bu içeriklerde, oyuncuların yüzleri film kesitlerine deepfake teknolojisi aracılığıyla monte edilmişti.
Katılımcılara, gerçekliği sorgulanmayan yeni çevrim filmler de izletildi. Independent Türkçe’de yer alan habere göre, bulgular gösteriyor ki katılımcıların ortalama yüzde 49’u deepfake videolarının gerçek olduğuna inandığını ifade etti. Bu katılımcılar, izledikleri filmleri gerçekten hatırladıklarını belirttiler. Hatta katılımcıların yüzde 41’i ‘Captain Marvel’ın yeniden çevriminin orijinalinden daha iyi olduğunu, yüzde 12’si ise ‘The Matrix’in yeniden çevrimini daha üstün bulduğunu dile getirdi.
İrlanda’daki University College Cork’tan yanlış bilgi araştırmacısı Gillian Murphy, bu gelişmelerle ilgili olarak “Gelişmekte olan teknolojilerle ilgili korkularımıza dayanarak distopik bir gelecek tahminine hemen dalmamalıyız” dedi. Aynı zamanda araştırmanın başyazarı olan Murphy, Daily Beast’e verdiği röportajda şu ifadeleri kullandı: “Evet, deepfake’in neden olduğu çok ciddi zararlar var. Ancak var olabileceğini varsaydığımız sorunları çözmek için acele etmeden önce, her zaman ilk etapta bu zararlara dair kanıt toplamalıyız.”
Öte yandan araştırmacılar, deepfake’in ekstra bir tehlike oluşturmayabileceği görüşündeler. Zira deneyin ikinci kısmında katılımcılara deepfake içerikler yerine metinler verildi. Bu metinlerde, ünlü filmlerin hiç çekilmemiş yeniden çevrimleri ve bu filmlerde oynamamış oyuncuların isimleri geçiyordu. Bu yazılı tariflerin de katılımcıların önemli bir kısmında sahte anılar canlandırabildiği görüldü. Murphy, “Bulgularımız, mevcut yanlış bilgi biçimlerinin ötesinde, benzersiz derecede güçlü bir deepfake tehdidi önermiyor” diye konuştu. Ayrıca, bu çalışmada yalnızca kısa süreli belleğe odaklandıklarını da sözlerine ekledi: “Deepfake’ler yanlış bilgi yaymak için daha güçlü bir araç olabilir, çünkü örneğin viral olma olasılıkları daha yüksek veya uzun vadede daha akılda kalıcı.”
Türkçedeki birebir sözcük karşılığı “derin sahte” olan deepfake, kabaca birinin yüzünü dijital olarak başka birinin vücuduna monte edip elde ettiğiniz görüntüyü istediğiniz gibi kullanmanıza olanak tanıyan bir teknoloji olarak tanımlanabilir. Kısacası, internetten kolayca ulaşılabilen algoritmalar sayesinde A kişisinin yüzü B kişisine montajlanabiliyor.
Deepfake içeriklere internet kullanıcıları, ilk kez 2017 yılında maruz kaldı. O yıl anonim bir Reddit kullanıcısı, Scarlett Johansson gibi ünlülerin deepfake ile oluşturulmuş sahte pornografik görüntülerini yayımlamıştı. Yapay zeka algoritmalarının sağlam bir deepfake örneği oluşturabilmesi için bol miktarda video kaydına ihtiyaç duyuluyor. Bu da, internet ortamında çok sayıda görüntüsü olan ünlülerle daha gerçekçi deepfake’lerin oluşturulmasını sağlıyor.
GÜNDEM
10 gün önceEKONOMİ
10 gün önceGENEL
10 gün önceGENEL
10 gün önceGÜNDEM
11 gün önceSPOR
11 gün önceGÜNDEM
11 gün önce