Yapay zeka tarafından üretilen sahte görüntüler nasıl ayırt edilebilir?

Yapay zeka teknolojisi, çoğunlukla komedi amaçlı olarak kullanılsa da siyasi karalama ve rıza-dışı cinsel içeriklere de kolay bir kapı aralıyor

Sosyal medyada başdöndürücü bir hızla artan bilgi akışı çoğu zaman gerçek ve sahte arasındaki ayrımı yapmayı zorlaştırıyor. Bu durum yapay zekanın da devreye girmesiyle daha zor bir hal aldı.

Yeni geliştirilen DALL-e ve Midjourney gibi yapay zeka araçları her türlü senaryo içerisinde istenilen görüntüleri kolay bir şekilde oluşturmayı mümkün hale getirdi.

Bu akım derin sahte (deepfake) olarak anılan görüntü ve videoların gerçekçi senaryolarda üretilmesini artırdı.

Bu teknolojiler çoğunlukla komedi amaçlı olarak kullanılsa da siyasi karalama ve rıza-dışı cinsel içeriklere de kolay bir kapı aralıyor.

Sahte görüntü ve resimlerin gerçekçi bir şekilde kolayca hazırlanabildiği günümüzde gerçek ve sahte arasındaki farkları anlamanın bazı yolları da mevcut.

İşte bunlardan bazıları:

Tuhaf detaylar yakalamaya çalışın

Görüntüleri detaylı bir şekilde incelemek ve tutarsızlıkları yakalamaya çalışmak büyük önem taşıyor.

Üzerinde oynanmış görüntülerde genellikle ışık izdüşümlerinde tutarsızlıklar olur ve özellikle eller dijital olarak bozulmuş görülür. Yani bir görüntü gerçek bir fotoğraftan çok tabloyu andırıyorsa büyük ihtimalle sahtedir.



Örneğin Eski ABD Başkanı Donald Trump kendi sosyal medya platformundan spot ışığı altında diz çöken bir fotoğrafını paylaştı. Fakat dikkatli bakıldığında fotoğrafın üzerinde oynandığı anlaşılıyor. Görüntüde Trump'ın ellerinden birinde bir parmağının eksik olduğu ve baş parmaklarının bozuk olduğu dikkat çekiyor.

Arka planda da bazı ipuçları veriyor. Trump'ın diz çöktüğü bir ortamda diğerlerinin hiçbirinin eski ABD başkanıyla ilgilenmemesi de pek gerçekçi görünmüyor.

Doğal olmayan ya da flulaşmış mimikler

Geçtiğimiz günlerde sosyal medyada sıkça dolaşan görüntülerden biri de Trump'ın polis tarafından gözaltına alınmaya çalışıldığı fotoğraflar oldu.


Bu fotoğraflarda yer alan insanların ten renginin doğal görünmediği ve yüz hatlarının flu olduğu farkedilebiliyor. Bu da resimlerin sahte olduğunu ortaya koyuyor.

Bir diğer örnek de Papa Francis'in kabarık bir mont giydiği fotoğraf oldu.



Bu görüntüde de Papa'nın gözlüklerinin formunun bozulduğu ve tuhaflık olduğu sezilebiliyor. Sağ elinde tuttuğu su şişesinin şekli de sanki erimiş gibi bozulmuş görünüyor.

Arka planda tuhaf duran herhangi bir şey
Bir görüntünün yapay zeka tarafından üretildiğine işaret eden bir başka şey de arka plandaki tuhaflıklar olabilir.

Örneğin Fransa Cumhurbaşkanı Emmanuel Macron'u çöp toplarken gösteren resimde senaryonun anlamsızlığı kadar çöp poşetlerinin üzerindeki yazıların seçilememesi sahte olduğunun bir göstergesi


Ayrıca Fransa'da yaşayanlar da arka plandaki trafik ışıklarının Paris ya da başka şehirdekilere hiç benzemediğini farkedebilir.

Bozuk eller ve metinler

Yapay zeka hala kelimeleri doğru yazmakta zorlanıyor. Örneğin Macron'un yakalandığını gösteren fotoğraflarda polislerin üniforma ve miğferlerinde yazan kelimeler hatalı ve Macron'un sağ elinde altı parmak görünüyor.


Derin sahte videoları tespit

Yapay zeka tarafından oluşturan fotoğrafları tespit etmenin farklı yolları bulunurken videolardaki en büyük iki işaret doğal olmayan göz hareketleri ve sesle dudak hareketlerinin uyumsuzluğu oluyor.

2019 yılında sosyal medyada yayılan Donald Trump'ın hakkındaki azil davasını kınarken tuhaf bir şekilde Jeffrey Epstein'in intihar etmediğini söylediği görüntüde sözlerin ve dudak hareketlerinin uyumsuz olduğu açık bir şekilde anlaşılıyor.

Yine Ukrayna Devlet Başkanı Vladimir Zelenskiy'in Ukraynalıları Rusya'ya teslim olmaya çağırdığı bir videonun da doğal olmayan göz hareketleri nedeniyle deepfake olduğu anlaşılıyor.

Öte yandan yapay zeka teknolojisi geliştikçe bu tür ayrıntılarda tespit de giderek zorlaşacak. Bu nedenle bu tür sahte görüntüleri tespit etmek için içeriklerinin ve kaynakların doğruluğunu kontrol etmek gerekiyor.

Bu nedenle güvenilir haber ve bilgi kaynaklarının önemi her zamankinden daha fazla hale geliyor.

02 Mayıs 2023 07:22
DİĞER HABERLER