13.01.2024-09:27 (Son Güncelleme:13.01.2024-10:29)


1

Son zamanların yaygın dolandırıcılık yöntemlerinden birisi olan ''deep fake'' bu kez Esra Erol'un başına bela oldu. Yapay zeka kullanılarak Esra Erol'un daha önce yayınladığı bir videosu tamamen değiştirildi ve 'Yatırım fırsatı' gibi bir başlıkla yeniden sosyal medyaya sürüldü. Kendi görüntüsünün ve sesinin ilgili hazırlanan sahte videoyu gören Erol, suç duyurusunda bulundu.



2

Gündüz kuşağı programıyla yıllardır ilgiyle takip edilen Esra Erol yapay zeka dolandırıcılarının hedefi oldu. Esra Erol'un daha önce bambaşka bir konuda çektiği videosu yapay zeka yöntemiyle yeniden kendi sesiyle seslendirildi.



3

Görüntüsü ve sesi kullanılarak insanların kandırıldığını öğrenen Erol ise küplere binerek, sosyal medya hesabından takipçilerini uyardı.



4

Yapay zeka yöntemiyle konuşmasının değiştirildiğini öğrenen Esra Erol, Instagram hesabından dolandırıcıların hazırladığı görüntüyü ve videonun orijinal halini paylaştı.



5

Yasal yollara başvuran Esra Erol'un avukatı Hülya Kuran, yaptığı yazılı açıklamada;



6

"Kamuoyuna duyurulur... Sosyal medya ve bazı internet sitelerinde BOTAS'ın logosu ve müvekkil Esra Erol Özbir'in görselleri ve sesi kullanılarak hatta inandırıcılığı arttırmak adına deepfake yöntemiyle 'yatırım fırsat' gibi başlıklarla yayınlanan ilanlar, oltalama yöntemiyle dolandırıcılık girişimidir. Mali ve hukuki yönden suç teşkil etmektedir. Bahse konu internet siteleri ve hesaplar hakkında yasal işlemler ivedilikle başlatılmıştır. Dijital mecralarda, para kazandırma vaadiyle yürütülen bu tür dolandırıcılık faaliyetlerine itibar etmeyiniz" ifadelerini kullandı.



7

İşte o paylaşım...

BUNLAR DA İLGİNİZİ ÇEKEBİLİR