Netanyahu Videolarındaki Kusurlar Neden Kasıtlı? Yeni Propaganda Modeli: Kalıcı Belirsizlik
Netanyahu Videolarındaki Kusurlar Kasıtlı mı? Yeni Propaganda Modeli

Netanyahu Videolarındaki Görsel Kusurlar Yapay Zeka Şüphesi Doğurdu

İsrail Başbakanı Binyamin Netanyahu'nun öldüğü veya ağır yaralandığı iddialarının sosyal medyada yayılmasının ardından, Netanyahu'nun kamuoyuna 'hayatta olduğunu' göstermek için paylaşılan görüntüler yeni bir tartışma başlattı. Videolardaki görsel bozulmalar, parmak sayısı etrafındaki spekülasyonlar, yüz ve nesne geçişlerindeki tutarsızlıklar, birçok kullanıcıda 'burada yapay zeka dokunuşu mu var?' sorusunu akıllara getirdi.

Uluslararası Ajanslar Mekan ve Tarih Doğrulaması Yaptı

Uluslararası haber ajansları, Netanyahu'nun kafede çekilen son videosunun gerçekliğini mekan ve tarih doğrulamasıyla teyit etti. Bu durum, ortada tümüyle uydurma bir kayıt olduğunun kesinleşmediğini gösteriyor. Ancak videonun etrafında oluşan şüphe bulutu dağılmadı. Çünkü artık hakikat yalnızca görüntünün gerçek olup olmamasıyla değil, görüntünün ne kadar güven verdiğiyle ölçülüyor.

Asıl soru şu: Eğer bu videolarda gerçekten yapay zeka rötuşları, dijital düzeltmeler veya sentetik müdahaleler varsa, üstelik bunlar bu kadar kolay fark edilebiliyorsa, neden daha kusursuz bir üretim tercih edilmiyor?

Geniş Pickt afişi — Telegram için ortak alışveriş listesi uygulaması

Modern Propaganda Mantığı: Kalıcı Belirsizlik Üretmek

Neden 'hiç iz bırakmayan' bir sahicilik yerine, tartışmayı büyüten bir gri alan bırakılıyor? Bu sorunun cevabı teknik yetersizlikten çok, modern propaganda mantığında saklı olabilir. Çünkü günümüz enformasyon savaşında amaç çoğu zaman insanları tek bir yalana ikna etmek değil; hakikatin kendisini tartışmalı hale getirmektir.

ABD ordusu için çalışmalar yapan CIA bağlantılı RAND Corporation'ın dikkati çektiği bir propaganda modeli var. Bu modele göre modern enformasyon savaşlarında amaç, tek bir doğruyu kabul ettirmek değil; aynı anda çok sayıda, hızlı ve çelişkili içerik dolaşıma sokarak insanların zihinlerinde kalıcı bir belirsizlik üretmek.

Kurumun yaptığı çalışmalarda özellikle şu tespit öne çıkıyor: Yanlış bilgi bir kez yayılıp zihinlere yerleştikten sonra, sonradan yapılan düzeltmelerin etkisi oldukça sınırlı kalıyor. Yani bir içerik çürütülse bile, bıraktığı iz kolay kolay silinmiyor.

Kusur Bazen İşlevsel Bir Araçtır

Bariz sayılabilecek bir dijital iz, iki yönlü çalışır:

  • İlk olarak, destekçiye 'bakın adam hayatta' mesajı verir.
  • İkinci olarak ise karşı tarafa saatlerce, günlerce görüntü analizi yaptırır; parmak mı fazla, fincan neden eksilmiyor, yüz çizgisi neden kayıyor, gölge neden tutarsız gibi tartışmalarla kamusal enerjiyi tüketir.

Böylece savaşın, saldırının, sivil kayıpların veya siyasi sorumluluğun konuşulması gereken yerde herkes piksel konuşmaya başlar. Gündem maddesi, olayın kendisinden görüntünün otantikliğine kaydırılır. Bu da psikolojik harp açısından son derece rasyonel bir sonuçtur.

'Mükemmel Sahte' Yerine 'Yeterince Tartışmalı Sahte'

Bir diğer ihtimal daha var: Kusurun görünür olması, kontrollü inkar alanı üretir. Eğer içerik kusursuz olursa 'kesin sahte' hükmü bir süre sonra daha güçlü biçimde kurulabilir; fakat hafif bozulmuş, hafif rötuşlanmış, 'Belki sıkıştırmadan oldu, belki kötü yayın kalitesidir' denebilecek görüntüler daha verimli bir belirsizlik yaratır.

Böylece içerik üreticisi gerektiğinde 'Bu yapay zeka değil, sadece düşük kalite video' diyebilir; gerektiğinde de tartışmanın kendisinden faydalanır. Başka bir ifadeyle burada amaç yalnızca ikna değil, yoruma açık bir alan açmaktır. Modern propaganda çoğu zaman kanıt bırakmamayı değil, fazla sayıda alternatif açıklama bırakmayı tercih eder.

Bilimsel Veriler Bu Tabloyu Destekliyor

2024'te yayımlanan kapsamlı bir sistematik derleme, insanların deepfake tespitindeki toplam doğruluk oranını yüzde 55,54 olarak buldu; video özelinde oran yaklaşık yüzde 57,31'de kaldı. Yani insan gözü çoğu zaman ancak yazı tura seviyesinin biraz üstünde ayırt edebiliyor.

Pickt makale sonrası afişi — aile illüstrasyonlu ortak alışveriş listesi uygulaması

Nature Communications dergisinde yayımlanan başka bir çalışmada ise bazı deney koşullarında katılımcıların politik deepfake videoları ayırt etme başarısı yüzde 51 düzeyine kadar düştü. Bu şu anlama geliyor: Görüntü biraz kusurlu olsa bile geniş kitleler için hâlâ yeterince işlevsel olabilir. Propagandacı açısından 'mükemmel sahte' yerine 'yeterince tartışmalı sahte' çoğu zaman daha ucuz, daha hızlı ve daha verimlidir.

Şüphe Eşiğini Doğru Ayarlamak

Üstelik yeni araştırmalar daha çarpıcı bir noktaya işaret ediyor: Her zaman en sofistike içerik en etkili içerik değil. 2024 tarihli bir politik iletişim çalışması, deepfake'lerin bazı bağlamlarda cheapfake'lerden, yani daha basit manipülasyonlardan daha inandırıcı olmadığını gösteriyor.

Hatta kimi durumlarda daha düşük teknolojiyle üretilmiş içerikler, 'fazla kusursuz görünmedikleri' için daha doğal algılanabiliyor. Demek ki propaganda operasyonunda mesele yalnızca yüksek teknoloji kullanmak değil; hedef kitlenin şüphe eşiğini doğru ayarlamak. Fazla pürüzsüz görüntü bazen alarm üretir, hafif kusurlu görüntü ise 'gerçek hayatta da telefon kamerası böyledir' hissi verebilir yani hayatın gürültülü akışına uygundur.

Netanyahu Videolarından Çıkarılacak Ders

Netanyahu videoları etrafındaki tartışmanın bize söylediği asıl şey de bu: Yapay zeka çağında ikna, artık yalnızca 'inanılır olmakla' ilgili değil; 'itiraz edilse bile işe yarar olmakla' ilgili. Bir paylaşım saatler sonra çürütülse bile, ilk anda ürettiği duygu, taraflaşma ve zihinsel sis kalıcı olabilir.

UNESCO'nun deepfake tartışmalarında dikkati çektiği 'bilmenin krizi' tam olarak budur: İnsanlar yalnızca neye inanacaklarını değil, hangi delilin delil sayılacağını da kaybetmeye başlar. Bu durumda propaganda başarı ölçüsünü doğrulukta değil, güven erozyonunda bulur.

Dijital Çamurda Debelenmek Yerine...

Buradan bakınca 'Mossad neden bu kadar kolay yakalanan yapay zeka dokunuşları yapsın?' sorusunun cevabı basitleşiyor: Çünkü belki de amaç yakalanmamak değildir. Amaç, tartışmayı uzatmak; haberi, dedikoduyu ve kanıtı aynı dijital çamurun içine sokmaktır.

Hakim taraf 'Netanyahu öldü' diye paylaşırken, karşı taraf 'say parmakları' diye cevap verir. Sonuçta hakikatin kendisi değil, hakikatin etrafındaki kavga görünür olur. Psikolojik harp tam da bu görünürlük ekonomisinde çalışır. Ölen şey bazen o değil; kamunun ortak gerçeklik duygusudur.

Bu yüzden bugün dijital medya yayıncıları olarak bizler için asıl görev, yalnızca 'Bu video gerçek mi, sahte mi?' sorusunu sormak değildir. Daha zor ama daha gerekli olan soru şudur: Bu görüntü, hangi ihtiyaca hizmet ediyor? Hangi tartışmayı büyütürken hangi gerçeği perdelemeye yarıyor?

Çünkü yeni dönemde manipülasyonun en tehlikeli biçimi, tamamen sahte olan değil; gerçeğin üzerine ince bir yapay zeka sisi bırakandır. O sis, tam da görüldüğü için etkilidir. Çünkü artık propaganda kusursuz olmak zorunda değil; yalnızca bir miktar da olsa oyalayıcı olması yeterli...