Deepfake telefonlara kadar indi! Uzman isim uyardı: İtibar suikastları artabilir

Düzenleyen:
- Güncelleme:
Deepfake telefonlara kadar indi! Uzman isim uyardı: İtibar suikastları artabilir

TEKNOLOJİ Haberleri

Deepfake (derin sahte) teknolojisindeki hızlı ilerleme korkunç sonuçlara yol açabilir. Bir görüntüdeki kişinin yüzünün başka bir kişinin görüntüsüyle değiştirilmesine denilen 'deepfake'in 'itibar suikastlarının artmasına yol açabileceği söyleniyor.

Son günlerde adı sıklıkla duyulmaya başlanan 'deepfake' teknolojisi, yüz fotoğrafı ya da tablodan, yüksek gerçekçiliğe sahip, konuşan, gülen ya da yüz ifadelerini kullanan sahte videolar üretilmesine imkan sağlıyor. Bunun yanı sıra, herhangi bir videodaki konuşmayı değiştirip düzenleyebiliyor. Sinema ve televizyon sektöründe kullanıldığında, hata yapılan bir diyaloğun yeniden çekime gerek duyulmadan düzeltilmesine imkan sağlayabilecek bu teknolojinin, kötü niyetli kişilerin kullanımı açısından bakıldığında ise önemli risk ve tehlikeleri içerisinde barındırdığı belirtiliyor.

Sosyal Medya ve Dijital Güvenlik Eğitim Araştırma Merkezi (SODİMER) Başkanı Prof. Dr. Levent Eraslan, deepfake teknolojisinin avantajları ve dezavantajları hakkında İhlas Haber Ajansına özel açıklamalarda bulundu. Prof. Dr. Eraslan, Deepfake teknolojisinin iyi kullanıldığı zaman olumlu fakat tehlikesinin de çok fazla olduğu bir dünya olarak belirterek, “Derin sahtecilik Türkçesi. Reddit’te bir kullanıcının bulduğu uygulama. Yapay zeka uygulamaları ve desteğiyle beraber insanları olmadığı yerlere montajlandığı ya da onların görüntüsünü ortaya koyduğu bir sistem” şeklinde bilgi verdi.

Eraslan, deepfake teknolojisinin bireyselleştirilmiş eğlencede çok önemli olduğunu söyleyerek, “Film ve endüstri içinde çok önemli bir teknoloji” dedi.

Deepfake telefonlara kadar indi! Uzman isim uyardı: İtibar suikastları artabilir

SODİMER Başkanı Prof. Dr. Levent Eraslan

DEEPFAKE KULLANIMI CEP TELEFONLARINA KADAR İNDİ

Deepfake teknolojisinin algı yönetiminde ve itibar suikastlarında kullanıldığını ifade eden Prof. Dr. Eraslan, şunları kaydetti:

“İnsanların olmadığı yerlerde onların aleyhlerine kullanılabilecek bir video oluşturma süreci bu. Anlaşılması çok zor fakat püf noktaları var. Öncelikle dudak ses senkronizasyonu, boyun yerleştirmeler, uzuv yerleştirmeler. Hemen hemen her ünlünün başına gelebiliyor. Türkiye’de siyasi kimi aktörlerde böylesi tehditlerle yüz yüze geldi. Süreç içerisinde kullanılan ses, dudak senkronizasyonu, vücut hatta objelerle deepfake’in olup olmadığı anlaşılabilir. Şu büyük bir sıkıntı artık, sıradan insanlar da deepfake yapmaya başladı. Sentetik bilgi diyoruz buna. Sentetik bilgiyi üretme süreçlerin daha profesyonel süreçlerden olurken şimdi sıradan insanlar telefonlarıyla deepfake yapabiliyor. Asıl problem de burada karşımıza çıkabiliyor.”

Deepfake teknolojilerinin cep telefonlarıyla bile basit bir şekilde yapıldığını vurgulayan Eraslan, “Oradaki kamera, ses sistemleri, piksel sayıları, programlar çok yoğun bir şekilde sıradanlaştı. Yapılacak olası itibar suikastlarının artması anlamına gelebilir. Bu bir suç. Türk Ceza Kanununun en az beş vurgusunda bunun bir suç olduğu ifade ediliyor. Bir yıl ila üç yıl hapisten başlayan ve çeşitli yaptırımları olan bir boyut. Önümüze gelen her videonun gerçek olup olmadığını araştırmamız lazım. Profesyonel yapılmış, büyük stüdyolarda yapılmış çalışmaları tespit etmek çok güç oluyor” dedi.

(Kaynak: İhlas Haber Ajansı) 

Düzenleyen:  - TEKNOLOJİ
UYARI: Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.
Sonraki Haber Yükleniyor...