Sevilen sunucu Esra Erol, gündüz kuşağının en çok izlenen isimlerinden biri. İlgiyle takip edilen ünlü sunucunun bu tanınırlığı yapay zeka yöntemiyle yatırım videolarında kullanıldı. Ünlü sunucu bu konuya ateş püskürürken sevenlerini uyardı.
Son zamanların yaygın dolandırıcılık yöntemlerinden birisi olan ''deep fake'' bu kez Esra Erol'un başına bela oldu. Yapay zeka kullanılarak Esra Erol'un daha önce yayınladığı bir videosu tamamen değiştirildi ve 'Yatırım fırsatı' gibi bir başlıkla yeniden sosyal medyaya sürüldü. Kendi görüntüsünün ve sesinin ilgili hazırlanan sahte videoyu gören Erol, suç duyurusunda bulundu.
Gündüz kuşağı programıyla yıllardır ilgiyle takip edilen Esra Erol yapay zeka dolandırıcılarının hedefi oldu. Esra Erol'un daha önce bambaşka bir konuda çektiği videosu yapay zeka yöntemiyle yeniden kendi sesiyle seslendirildi. Görüntüsü ve sesi kullanılarak insanların kandırıldığını öğrenen Erol ise küplere binerek, sosyal medya hesabından takipçilerini uyardı.
Takipçilerini uyardı
Yapay zeka yöntemiyle konuşmasının değiştirildiğini öğrenen Esra Erol, Instagram hesabından dolandırıcıların hazırladığı görüntüyü ve videonun orijinal halini paylaştı. İşte o paylaşım...