Daha önce Twitter'da paylaşılan ve Rusya Devlet Başkanı Vladimir Putin'in savaşın sona erdiğini duyurduğu bir deepfake video, yeniden ortaya çıktı ve paylaşılmaya başladı.
BBC'nin
haberine göre, Bir yandan da bu hafta Meta ve YouTube, Ukrayna Devlet Başkanı Volodimir Zelenskiy'nin "Rusya'ya teslim olmaktan" bahsettiği bir deepfake videoyu kaldırdı.
İki taraf da manipüle edilmiş içerikleri kullanırken; bu videolar, çatışmayla ilgili yanlış bilgiler hakkında bize neyi gösteriyor?
İnsanlar bu videolara gerçekten inanıyor mu?
Zelenskiy'nin pek de ikna edici olmayan sahte videosuyla örneğin birçok Ukraynalı alay etti.
Videoda bir podyumun arkasından ortaya çıkan Zelenskiy, Ukraynalılara "silahları bırakma" çağrısı yapıyor. Başı vücudundan çok daha büyük ve daha flu görünen Zelenskiy'nin sesi de çok derinden geliyor.
Bu sahte videonun ardından kendi resmi Instagram hesabından bir video paylaşan "gerçek" Zelenskiy, bunu "çocukça bir provokasyon" olarak değerlendirdi.
Ukrayna Stratejik İletişim Merkezi de Rusya hükümetinin Ukraynalıları silah bırakmaya ikna edebilmek için daha fazla deepfake kullanabileceği konusunda uyarıda bulundu.
Sosyal medya için 'kolay zafer'
Meta'nın güvenlik politikalarının başındaki Nathaniel Gleicher, paylaştığı bir tweet zincirinde bu deepfake için "manipüle edilmiş içerikle ilgili politikalarını ihlal ettiği" gerekçesiyle "hızla değerlendirip kaldırdıklarını" açıkladı.
YouTube da yanlış bilgilendirmeye karşı politikalarını ihlal ettiği gerekçesiyle bu videoyu kaldırdıklarını duyurdu.
Deepfakes isimli kitabın yazarı Nina Schick, bunun sosyal medya şirketleri için "kolay zafer" olduğunu çünkü videonun konuyla ilgili çok daha az bilgisi olan kullnıcılar tarafından bile kolayca fark edilebilecek şekilde amatörce yapıldığını söylüyor:
"Platformlar bununla uğraşırken, dezenformasyonun diğer türleriyle baş ederken yapmadıkları kadar büyük yaygara koparabilir. Bu savaşta dezenformasyonun başka birçok çeşidi kullanılıyor ve bunlar henüz ortaya bile çıkarılmadı.
"Bu video gerçekten çok kötü ve acemice yapılmış olabilir ama yakın gelecekte yayımlanacak videolar böyle olmayacak. Bu durum da orijinal içeriğe olan güveni sarsacak."
Schick, "İnsanlar artık her türlü içeriğin sahte olabileceğine inanmaya başlayacak" diyor ve bunun yeni bir silah olarak kullanılabileceğini söylüyor:
"Bu yeni bir silah ve yeni bir tür görsel dezenformasyon formu olarak ortaya çıkıyor, üstelik bunu herkes yapabilir."
Deepfake teknolojisinin birden fazla yüzüBir deepfake aracıyla kullanıcılar akrabalarının eski fotoğraflarını animasyon haline getirebiliyor, yani online ortamda canlandırabiliyor. Bu uygulama artık çok fazla kullanılmaya başladı ve arkasınaki şirket, MyHeritage, LiveStory adlı özelliği de buna ekledi. Artık bu animasyonlara ses de eklenebiliyor.
Geçen yıl bu yeni uygulamalara farklı tepkiler geldi. Güney Kore televizyon ağı MBN, Kim Joo-Ha isimli haber sunucusunun deepfake'ini kullandığını açıkladı.
Bazıları bunun ne kadar gerçekçi olduğunu söyleyip deepfake'ten etkilenirken bazıları Kim Joo-Ha'nın işini kaybetmesinden endişe etti.
Deepfake teknolojisi yakın zamanda bazı görüntüleri çoğaltarak gayri ahlaki içerik üretmek için de kullanılmaya başladı. Bu amaçla internet siteleri istenen fotoğraflardaki kişilerin çıplakmış gibi görünmelerini sağlayan bir uygulama kullanılmasına izin veriyor.
Tamamen komedi amacıyla, yani kötü bir niyet gütmeden bu teknolojiyi kullananlar da var. Örneğin geçen yıl İngiltere'de Channel 4, Kraliçe İkinci Elizabeth'in esprili bir Noel mesajı verirken göründüğü sahte bir videosunu üretip paylaştı.
Deepfake'in siyasette kullanımı ise çok nadiren görülüyor. Örneğin teknolojinin gücünü göstermek için eski ABD Başkanı Barack Obama'nın bir deepfake videosu üretilmişti.
Tespit etmekte sıkıntı yaşanırsa ne yapılacak?
Witness.org program direktörü Sam Gregory, "Zelenskiy en iyi deepfake olayı örneğiydi. Çok iyi yapılmamıştı, çok kolay tespit edilebilecek basit bir başlangıçtı" diyor ve ekliyor:
"Ukrayna tarafından ortaya çıkarıldı ve Zelenskiy çıkıp sosyal medyada yalanladı, dolayısıyla Facebook'un yayından kaldırma politikasını uygulaması kolay oldu."
Ancak dünyanın birçok yerinde gazeteciler ve insan hakları grupları, deepfake'leri tespit edecek ve yalanlayacak teknolojiye sahip olmayabilir.
Tespit araçları bir kişinin hareketlerini analiz ediyor veya deepfake'i üretmek için uygulamaların 'otomatik öğrenme' sürecine bakıyor.
Ancak geçen yaz online bir tespit aracı Myanmar'daki eski bir siyasetçinin yolsuzluk yaptığını itiraf ettiği gerçek videosunun deepfake olduğunu ortaya çıkardığını iddia etti. Video, ülkede uzun süre gönüllü bir itiraf mı yoksa zorla alınmış bir ifade videosu mu diye tartışılmıştı.
Gregory, "Yüzde 100 kanıt olmaması ve insanların bunun deepfake olmasına inanmak istemiş olması, gerçek dünyada bir 'deepfake zorluğu'nu karşımıza çıkarıyor" diyor:
"Başkan Putin de birkaç hafta önce bir deepfake'te yer aldı ve birçok kişi bunu bir hiciv videosu sandı. Oysaki hiciv videoları ve dezenformasyon arasında çok ince bir çizgi var."
BBC İzleme Servisi'nden Shayan Sardarizadeh'nin analizi:Zelenskiy'nin deepfake'inde söylenenlerin dökümü ilk olarak Ukrayna televizyon ağı Ukrayina 24'ün canlı yayını sırasında KJ'sinde görüntülendi.
Bir süre sonra ekran görüntüsü ve dökümün tamamı, kanalın internet sitesinde yayımlandı.
Ukrayina 24 hem KJ'sinin hem de internet sitesinin Çarşamba günü boyunca ulaşılamaz durumda olduğunu ve hack'lendiğini teyit etti.
Video, çoğunlukla Rusya konuşulan Telegram hesaplarında ve Facebook'un ülkedeki muadili olan VK'da yayımlandı.
Buradan da Facebook, Instagram ve Twitter gibi platformlara yayıldı.
Deepfakelerin özellikle çatışma zamanlarında çok tehlikeli olabileceğine dair uyarılar da bir süredir yapılıyordu.
Deepfake üretmek aynı zamanda hem zaman alan hem de masraflı bir iş. Bu sebeple eski videolar ve yalan ifadeler bu savaşta en çok kullanılan ve en etkili olan yanlış bilgilendirme taktiği.
Hem amatörce yapılmış olması hem de pek inandırıcı olmaması sebebiyle, Zelenskiy'nin deepfakei bugüne kadar gördüklerim arasında en kötüsüydü.
Ancak bu savaş sırasında bir deepfake üretilmiş ve paylaşılmış olması önemli.
Bir sonraki bu kadar kötü olmayabilir.