İnternet kullananlar dikkat! Deepfake ile insanları dolandırıyorlar!
Yapay zekânın iyi olduğu kadar kötü amaçlarla da kullanılabileceğini dile getiren Öğr. Üyesi Doç. Dr. Abdurrahman Yılmaz, “Görüntü kaydı ile tehdit ve şantaj yoluyla para istemek de bir diğer dolandırıcılık türüdür." dedi.
Yılmaz sözlerine "Bu daha önceden video görüntüleri oynatılarak yapılıyordu, günümüzde deepfake ile bunu yapmak çok daha kolaylaştı. Kendilerini kadın gibi tanıtan dolandırıcılar hazırladıkları yapay zekâ görüntüleri konuşturarak insanları kandırıyor ve karşı tarafın kamerasını açmasını sağlayıp görüntülerini kaydederek şantaj yoluyla para isteyebiliyor” şeklinde devam etti.
Beykent Üniversitesi Fen Edebiyat Fakültesi Sosyoloji Bölümü'nden Öğr. Üyesi Doç. Dr. Abdurrahman Yılmaz, yapay zekânın insana özgü bazı niteliklere sahip bir yazılım olduğunu söyleyerek, “Bu niteliklerin başında da öğrenme geliyor. Algılama, iletişim kurabilme, muhakeme yetkisi ve karar verme gibi nitelikler yapay zekâyı bilinen sıradan yazılımlardan farklı kılıyor. Dünya olarak önemli bir yol ayrımındayız; yapay zekâ acaba insanların refahını artıracak ve daha adil paylaşımı sağlayacak bir araç mı olacak, yoksa gelir ve diğer eşitsizlikleri artıracak bir teknolojik güç mü olacak” diye konuştu.
“YAPAY ZEKÂ ÜLKELERİN GELECEĞİ İLE İLGİLİ ÖNEMLİ BİR TEKNOLOJİ”
Yapay zekâ ile ilgili Türkiye’de de TÜBİTAK merkezli çalışmalar yapıldığını sözlerine ekleyen Yılmaz, “Ama bu noktada nerede olduğumuzu söylemek şu an için mümkün değil. Yapay zekâ ülkelerin geleceği ile ilgili önemli bir teknoloji; Türkiye’nin yazılım alanında geri kalmaması gerektiği gibi bu alanda da geri kalmaması gerekiyor. Ayrıca suç önleme temelinde geliştirilen programlar, yapay zekanın yüzde 90 oranında suçu önlediğini söylüyor. Polisin, kolluk kuvvetlerinin elindeki ya da internetteki birçok veriyi bir araya getirerek çoklu analiz yapma imkânı sağlıyor. Gerek suçun aydınlatılması gerekse suça yönelik tedbir alınması anlamında yapay zekâ iyi kullanılırsa yardımcı olabilir. Teknolojik açıdan büyük bir güç olan yapay zekayı nasıl kullanacağımız çok önemli. Dolandırıcı ve suçluların bunu kullanabileceğinden bahsettik” değerlendirmesinde bulundu.
Endüstri, sanayi birçok alanda yapay zekâ ile iyi işler başarıldığını ve iyi işlerde kullanıldığını savunan Yılmaz, “Fakat suçlar için de önemli bir teknolojik avantaj sağlıyor. Yapay zekâ esasında çok büyük bir güç ve bu gücü elinde bulunduran, iyi şeyler için de kötü şeyler için de kullanabilir. Günümüzde yapay zekâyı en çok ses ve görüntüyü işleme, sahte içerikler üretme ve bunları farklı amaçlarda kullanma durumlarında görüyoruz. Yapay zekâ, siyasette rakipleri saf dışı bırakmak için de kullanılabiliyor, ekonomide firmalar arası rekabette kullanılabiliyor. Bilinçli olan kesim haberin ne amaçla yapıldığını anlayabiliyor ama yine de bir haber yayıldıktan sonra bunun yanlış olduğunu insanlara anlatmak oldukça zor” dedi.
“DEEPFAKE, YAPAY ZEKÂ VE DOLANDIRICILIK İLİŞKİSİNDE ÖNEMLİ BİR KAVRAM”
“Yapay zekânın kullanıldığı hali hazırda görmekte olduğumuz ve ilerleyen zamanlarda daha çok karşılaşacağımız dolandırıcılık türleri var” diyen Yılmaz, sözlerine şöyle devam etti:
“Bunlardan birincisi romantizm dolandırıcılığı diye adlandırılan dolandırıcılık türü. Sosyal medyadan ya da çeşitli platformlardan tanışan kişiler arasında duygusal bağ kurulmasıyla oluşan bu türde, sevgililiğe doğru ilerleyen bir ilişki sürecinde maddi olarak kişiden istifade edilir. ‘Tinder avcısı’ ismindeki belgeselde de bahsi geçen konu gayet net bir şekilde anlatıldı. Amerika’da ve Avrupa’da orta yaş üstü kadınları hedef alan ve FBI’ın radarında da olan romantizm dolandırıcılığında 2021 yılının resmi rakamlarına göre yaklaşık 1 milyar dolar kayıp olmuştur. İkincisi, sosyal mühendislik dolandırıcılığıdır. Burada ise bir kurgu ile insanlara rol veriliyor ve o rolü oynaması sağlanıyor. Böylelikle Türkiye’de gördüğümüz örneklerde dolandırıcılar kendisini savcı ve polis olarak tanıtıyor ve insanlardan maddi menfaat elde etmeye çalışıyorlar. Deepfake, yapay zekâ ve dolandırıcılık ilişkisinde önemli bir kavram. Burada sesin, hem görüntünün ve videonun benzer bir şekilde üretilmesi hem de mevcut görüntünün değiştirilmesi söz konusu. Deepfake günlük hayatta, dolandırıcılık başta olmak üzere birçok durumda kullanılabilir. Örneğin; dolandırıcılar, yakınınızın sesini taklit ederek onun kaçırıldığına sizi ikna edebilir ve fidye isteyebilir. Gerçekte böyle bir olay yokken deepfake teknolojisiyle insanlara gerçekmiş gibi yansıtılabilir.”
“TATİL REZERVASYONLARINDA ALTERNATİF ARARKEN TUZAĞA DÜŞMEYİN”
Yılmaz, sözlerine şöyle devam etti:
“Kendilerini kadın gibi tanıtan dolandırıcılar hazırladıkları yapay zekâ görüntüleri konuşturarak insanları kandırıyor ve karşı tarafın kamerasını açmasını sağlayıp görüntülerini kaydederek şantaj yoluyla para isteyebiliyor. Dolandırıcılığın dördüncü türünü tatil rezervasyonlarında görebiliriz. İnsanlar tatil için rezervasyon yaptırıyor ama öyle bir tatil köyü yok ya da öyle bir tatil köyü var ama rezervasyon sahte. Bunun gibi olaylar deepfake ile daha kolay yapılabilecek bu yüzden dönem olarak da uyarıda bulunmak gerek; tatil imkânlarının gittikçe pahalı hale gelmesi insanları farklı alternatiflere yöneltiyor. Bu alternatifleri ararken tuzağa düşmemek adına dikkatli olmak gerekiyor. Geçtiğimiz günlerde Pentagon’da bomba patladığı haberi yapıldı. Bu haber yapay zekâ ile üretilmiş bir görüntü ile desteklendi. Ardından Twitter’daki onaylı mavi tiklerle yayıldı ve o esnada Amerikan borsaları çöktü. Birkaç dakika sonra yapay zekâ ürünü olduğu ve bir operasyon yapıldığı anlaşıldı. Bunun gibi manipülasyonları Türkiye’de de görebiliriz, dikkatli olmamız gerekiyor.”
Akademideki yapay zekâ kullanımıyla ilgili bir şeyler söylemek gerektiğini vurgulayan Öğr. Üyesi Doç. Dr. Abdurrahman Yılmaz, “Akademik çalışmalarda intihal önemli bir kavram. Yapay zekayı öğrenme için kullanabiliriz, iyi bir fırsat. Fakat makale ve ödev yazdırma gibi durumlarda da yapay zekâ kullanılabiliyor. Bunun için yapay zekaya karşı insan ilişkilerine daha fazla güçlendirmek lazım” ifadesini kullandı.