Dikkat Deepfake çıkabilir! Beyni kandırdığı ortaya çıktı
College Cork bünyesinde çalışmalarını sürdüren bilim insanı Gillian Murphy liderliğinde yapılan bir araştırma, deepfake teknolojisi ile insan beyninin kandırılabileceğini, yaşanmamış şeylerin yaşanmış gibi hatırlanmasına neden olabileceğini ortaya koydu.
Yapay Zekânın gelişmesiyle birlikte hayatımıza giren deep fake teknolojisi sayesinde bir insanın ses ve görüntüsünü taklit etmek mümkün. En son Trump gözaltına alındı fotoğraflarıyla gündem olan deepfake teknolojisinin beyni kandırabildiği ortaya çıktı.
DEEPFAKE TEKNOLOJİSİ NEDİR?
Deepfake teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine olanak sağlıyor, bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor.
İngilizce derin anlamına gelen deep ve sahte anlamına gelen fake sözcüklerinin birleşmesiyle ortaya çıkan deepfake kavramının bilinci manipüle edebileceği ortaya çıktı.
Farklı yapay zeka sistemleri kullanılarak videolar elde edilen söz konusu teknoloji, herhangi bir videodaki konuşmacının söylediklerinin kolaylıkla değiştirilmesine izin veriyor. Konuşmaya yeni sözler eklenip çıkarılabilen programla, herhangi bir videodaki konuşmanın değiştirilmesinin, bir yazının ya da kelimenin kopyalanıp yapıştırılması kadar kolay hale geldiği iddia ediliyor.
Samsung'un Moskova'daki Yapay Zeka Merkezi Deepfake teknolojisiyle Mona Lisa'nın mimikleri hareket ettirilebilmişti.
BEYNİ KANDIRIP SAHTE ANILAR EKLEYEBİLİYOR
Günden güne gelişen ve "terminatör gerçek mi oluyor?" sorusunu da beraberinde getiren yapay zeka teknolojileri içinde manipülasyona ve bilgi kirliliğine yol açabilecek özellikleri barındıran deepfake teknolojisinin beyni kandırabildiği ve sahte anılar yerleştirebildiği ortaya çıktı.
College Cork bünyesinde çalışmalarını sürdüren bilim insanı Gillian Murphy liderliğinde yapılan bir araştırma, deepfake teknolojisi ile insan beyninin kandırılabileceğini, yaşanmamış şeylerin yaşanmış gibi hatırlanmasına neden olabileceğini ortaya koydu.
436 kişinin katılımıyla gerçekleştirilen araştırma kapsamında, katılımcılara türlü türlü deepfake videolar izlettirildi. İzlettirilen filmler arasında şu örnekler vardı: 1980 yılında yayınlanan Shining isimli filmde Brad Pitt, Marvel'ın Captain Marvel serisinde ise başrol Charlize Theron olarak gösteriliyordu. Ayrıca, Raiders of the Lost Ark filminde de Harrison Ford yerine Chris Pratt oynatılmıştı.
Yapılan deneyi sosyal medya hesabından paylaşan Murphy, "Deepfake'ler ürkütücü bir şekilde ikna edici olabilir, ancak yakın geçmişe ait anılarımızı çarpıtmalarından endişelenmeli miyiz? Yeni açık erişim makalemiz, derin sahte film yeniden yapımları için sahte anıları ele alıyor" notunu düştü. Murphy ayrıca gösterilen videoların hepsinin gerçekmiş gibi sunulduğunu belirtti.
Participants viewed clips or descriptions of movie remakes. Some were real studio remakes (e.g. Carrie, Tomb Raider), while others were fictitious deepfakes: Brad Pitt in The Shining, Will Smith in the Matrix, Charlize Theron in Captain Marvel, Chris Pratt in Indiana Jones. pic.twitter.com/AhXnhQpaZY
— Gillian Murphy (@gillysmurf) July 13, 2023
All were presented as if they were real and participants were asked if they had seen it and to rate how it compared to the original. pic.twitter.com/MYxzAJnrDy
— Gillian Murphy (@gillysmurf) July 13, 2023
İnceleme sonucunda katılımcıların yüzde 49 gibi ciddi bir bölümünün deepfake içeriklerin gerçek olduğuna inandıkları anlaşıldı. Üstelik yapımlar eski olmasına rağmen, sanki geçmişte de aynı filmi, aynı şekilde izlediklerini düşünüyorlardı. Yani sahte anıların beyne yerleştirilmesi ispat edilmiş oldu.