Cumhurbaşkanı Erdoğan’ın sesini taklit etti: Deepfake dolandırıcılığı MİT’e takıldı

Cumhurbaşkanı Recep Tayyip Erdoğan’ın sesini yapay zekayla taklit ederek üst düzey iş insanları ve kamu yöneticilerini dolandırmaya çalışan kişi MİT tarafından yakalandı.

18.08.2023-09:06 - (Son Güncelleme: 18.08.2023-17:13)

Milli İstihbarat Teşkilatı (MİT), Cumhurbaşkanı Erdoğan’ın sesini yapay zeka ile taklit ederek iş insanları dolandıran bir kişiyi yakaladı.

Yapay zeka teknolojisinin tehlikeli boyutu da bu olayla beraber bir kez daha gözler önüne serilmiş oldu. 

Deepfake dolandırıcılığı MİT’e takıldı

Doç. Dr. Ali Murat Kırık, deepfake teknolojisinin tehlikelerini AKŞAM'a anlattı: "Tehdit tahminimden çok fazla."

Milli İstihbarat Teşkilatı (MİT), Cumhurbaşkanı Recep Tayyip Erdoğan'ın sesini yapay zekayla taklit ederek iş insanları ve üst düzey kamu yöneticilerini dolandırmaya çalışan yakalamak için harekete geçti. Cumhurbaşkanı Erdoğan'ın sesini yapay zeka uygulamalarıyla taklit eden, yabancı uyruklular üzerine aldığı 10'dan fazla farklı GSM hattından iş insanlarını arayan zanlıyı takibe olan MİT, dolandırıcının kimliği ve konumu tespit etti.

Cumhurbaşkanı Erdoğan Deepfake

Şüpheli, MİT'in siber güvenlikle ilgili birimlerinin hassas çalışmaları sonucu kısa sürede yakalanarak, emniyet birimlerine teslim edildi. Siber suçlar kapsamında bu tür girişimlere karşı vatandaşların dikkatli olması gerektiğini vurgulayan yetkililer, ses ve kimlik sahtekârlığına karşı tedbirlerin artırılmaya devam edeceğini belirtti.

Yapay zeka tehlikeli bir boyuta ulaştı

AKŞAM'a konuşan Marmara Üniversitesi Öğretim Üyesi ve Dijital İletişim Uzmanı Doç. Dr. Ali Murat Kırık, deepfake teknolojisinin hem Türkiye'de hem de dünyada büyük ilerleme sağladığını kaydetti. Ses, görüntü değişimi ve derin sahtecilik adı verilen Deepfake teknolojisiyle birlikte artık dolandırıcıların bir numaralı tercihi duruma geldiğini vurgulayan Doç. Dr. Ali Murat Kırık, "Gelecek yıllarda bu olayın önüne geçilmez ise dolandırıcılık faaliyetlerinin yanında dezenformasyon, manipülasyon ve hatta seçimlerin gidişatına yönelik çok tehlikeli tehditlerin ortaya çıkacağını söylemek abartı olmaz" diye konuştu.

Herkes bu tür şeyler yapabilir

Deepfake teknolojisinin nasıl çalıştığına ilişkin bilgi veren Kırık, "Ses ve görüntü işleme teknolojisi yapay zekâ ile birlikte çok kolay bir hal almaya başladı. Var olan bir kişinin sesi yapay zeka sistemine klonlanarak tanıtılıyor, ardından derin öğrenme, makine öğrenmesi ve dil işleme modeli devreye girerek var olan sesin analiz hesaplaması yapılıyor. Ardından bu sesin saptanması gerçekleştirilerek yazılan herhangi bir metin bu sese entegre edilerek klonlanmış farklı bir ses üretiliyor. Özellikle telefon görüşmelerinde seste deformasyon olduğundan ötürü sesin yapay zekâ tarafından üretildiği de belli olmuyor. Bazı uygulamalar ücretli bir şekilde kullanıcılara sunulurken bazıları da ücretsiz bir şekilde belli saniye limiti olarak karşı tarafa sunuluyor" ifadelerini kulandı.

Başkan Erdoğan'ın sesini taklit ettiler

Bire bir taklit edilmiş

Cumhurbaşkanı Erdoğan'ın adının ve sesinin kullanıldığı olayda, yapay zeka ile üretilmiş klonlama yöntemini gördüklerini aktaran Kırık, "Bu işlem sonrasında sanki onun ağzından konuşuyormuşçasına cümlelerin oluşturularak yapay zekâ ses uygulaması sayesinde karşı tarafa iletilmiş. Böylece telefonun diğer ucundaki şahıs karşısında Cumhurbaşkanımızın olduğunu düşünmüştür. Yine aynı şekilde anlık mesajlaşma uygulamaları üzerinden tıpkı ses gönderiyormuş gibi yine sesin işlenmesi gerçekleştirilmiştir. Ses yapay zekâ aracılığıyla bire bir taklit edilmiştir" ifadelerini kullandı.

İvedilikle tedbir alındı

Yaşanan bu olayın yapay zekâ teknolojisinin geldiği son noktayı gözler önüne serdiğini belirten Kırık, "Gelecek yıllarda bu olayın önüne geçilmez ise dolandırıcılık faaliyetlerinin yanında dezenformasyon, manipülasyon ve hatta seçimlerin gidişatına yönelik çok tehlikeli tehditlerin ortaya çıkacağını söylemek abartı olmaz. Bununla birlikte tıpkı Avrupa Birliği Parlamentosu'nda alınan yapay zekânın kısıtlanmasına yönelik tedbirlerin ivedilikte Türkiye'ye de uyarlanması gerektiği gerçeği artık elzem bir hal almıştır" uyarısında bulundu.

YORUM YAZ..
Modal