24 Kasım 2024 Pazar
İstanbul
  • İçel
  • Şırnak
  • Çanakkale
  • Çankırı
  • Şanlıurfa
  • Çorum
  • İstanbul
  • İzmir
  • Ağrı
  • Adıyaman
  • Adana
  • Afyon
  • Aksaray
  • Amasya
  • Ankara
  • Antalya
  • Ardahan
  • Artvin
  • Aydın
  • Balıkesir
  • Bartın
  • Batman
  • Bayburt
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Düzce
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gümüşhane
  • Gaziantep
  • Giresun
  • Hakkari
  • Hatay
  • Iğdır
  • Isparta
  • Kırşehir
  • Kırıkkale
  • Kırklareli
  • Kütahya
  • Karabük
  • Karaman
  • Kars
  • Kastamonu
  • Kayseri
  • Kilis
  • Kmaraş
  • Kocaeli
  • Konya
  • Malatya
  • Manisa
  • Mardin
  • Muş
  • Muğla
  • Nevşehir
  • Niğde
  • Ordu
  • Osmaniye
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Uşak
  • Van
  • Yalova
  • Yozgat
  • Zonguldak

Dikkat Deepfake çıkabilir! Beyni kandırdığı ortaya çıktı

College Cork bünyesinde çalışmalarını sürdüren bilim insanı Gillian Murphy liderliğinde yapılan bir araştırma, deepfake teknolojisi ile insan beyninin kandırılabileceğini, yaşanmamış şeylerin yaşanmış gibi hatırlanmasına neden olabileceğini ortaya koydu.

Dikkat Deepfake çıkabilir! Beyni kandırdığı ortaya çıktı

Yapay Zekânın gelişmesiyle birlikte hayatımıza giren deep fake teknolojisi sayesinde bir insanın ses ve görüntüsünü taklit etmek mümkün. En son Trump gözaltına alındı fotoğraflarıyla gündem olan deepfake teknolojisinin beyni kandırabildiği ortaya çıktı.

Trump tutuklandı başlığıyla paylaşılan deepfake fotoğrafı

DEEPFAKE TEKNOLOJİSİ NEDİR?

Deepfake teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine olanak sağlıyor, bunun yanı sıra herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor.

İngilizce derin anlamına gelen deep ve sahte anlamına gelen fake sözcüklerinin birleşmesiyle ortaya çıkan deepfake kavramının bilinci manipüle edebileceği ortaya çıktı.

Farklı yapay zeka sistemleri kullanılarak videolar elde edilen söz konusu teknoloji, herhangi bir videodaki konuşmacının söylediklerinin kolaylıkla değiştirilmesine izin veriyor. Konuşmaya yeni sözler eklenip çıkarılabilen programla, herhangi bir videodaki konuşmanın değiştirilmesinin, bir yazının ya da kelimenin kopyalanıp yapıştırılması kadar kolay hale geldiği iddia ediliyor.

Samsung'un Moskova'daki Yapay Zeka Merkezi Deepfake teknolojisiyle Mona Lisa'nın mimikleri hareket ettirilebilmişti.

BEYNİ KANDIRIP SAHTE ANILAR EKLEYEBİLİYOR

Günden güne gelişen ve "terminatör gerçek mi oluyor?" sorusunu da beraberinde getiren yapay zeka teknolojileri içinde manipülasyona ve bilgi kirliliğine yol açabilecek özellikleri barındıran deepfake teknolojisinin beyni kandırabildiği ve sahte anılar yerleştirebildiği ortaya çıktı.

College Cork bünyesinde çalışmalarını sürdüren bilim insanı Gillian Murphy liderliğinde yapılan bir araştırma, deepfake teknolojisi ile insan beyninin kandırılabileceğini, yaşanmamış şeylerin yaşanmış gibi hatırlanmasına neden olabileceğini ortaya koydu.

436 kişinin katılımıyla gerçekleştirilen araştırma kapsamında, katılımcılara türlü türlü deepfake videolar izlettirildi. İzlettirilen filmler arasında şu örnekler vardı: 1980 yılında yayınlanan Shining isimli filmde Brad Pitt, Marvel'ın Captain Marvel serisinde ise başrol Charlize Theron olarak gösteriliyordu. Ayrıca, Raiders of the Lost Ark filminde de Harrison Ford yerine Chris Pratt oynatılmıştı.

Yapılan deneyi sosyal medya hesabından paylaşan Murphy, "Deepfake'ler ürkütücü bir şekilde ikna edici olabilir, ancak yakın geçmişe ait anılarımızı çarpıtmalarından endişelenmeli miyiz? Yeni açık erişim makalemiz, derin sahte film yeniden yapımları için sahte anıları ele alıyor" notunu düştü. Murphy ayrıca gösterilen videoların hepsinin gerçekmiş gibi sunulduğunu belirtti.

İnceleme sonucunda katılımcıların yüzde 49 gibi ciddi bir bölümünün deepfake içeriklerin gerçek olduğuna inandıkları anlaşıldı. Üstelik yapımlar eski olmasına rağmen, sanki geçmişte de aynı filmi, aynı şekilde izlediklerini düşünüyorlardı. Yani sahte anıların beyne yerleştirilmesi ispat edilmiş oldu.

Yapay zeka Hafıza deepfake deepfacelab deep fake trum deep fake deep fake anılar sahte anılar hafıza çalışmaları mona lisa deepfake deepfake nedir