İki Savaşın Dezenformasyon Anatomisi: Haziran 2025’ten Mart 2026’ya
Savaşın ikinci cephesi artık ekranlarda kuruluyor — ve bu cephenin mermileri saniyeler içinde milyonlara ulaşıyor.
İran-İsrail ve Amerika çatışmasının iki ayrı savaşı var: biri topraklarda, biri ekranlarda. Bu ikinci savaş, birincisinden sonra başlamadı; birincisiyle aynı anda ve aynı yoğunlukla sahneye çıktı. Haziran 2025’te on iki günlük ilk savaşın başladığı saatlerde sosyal medyayı dolduran binlerce sahte video ve görüntü, birkaç ay sonra 28 Şubat 2026’da ‘Epik Öfke’ (Operation Epic Fury) kod adıyla başlayan ABD-İsrail ortak saldırısıyla birlikte çok daha büyük ve çok daha sofistike bir dezenformasyon dalgasına dönüştü.
Haziran 2025 savaşı, araştırmacıların ‘birinci YZ savaşı’ olarak nitelendirdiği tarihî bir kırılma noktasıydı. 28 Şubat 2026 ise o kırılmanın endüstriyel boyuta taşındığı anı temsil etmektedir. New York Times araştırmacıları, operasyonun ilk iki haftasında yalnızca iki haftada 110’u aşkın özgün yapay zekâ üretimi görüntü ve video tespit etti. Medya analitiği uzmanı Marc Owen Jones, bu hızın daha önceki hiçbir çatışmayla kıyaslanamayacağını açıkça ifade etti. Milletlerarası insan hakları kuruluşu WITNESS’ın araştırmacıları ise Her iki savaşı birlikte ele aldığında İran-İsrail çatışmasında YZ destekli dezenformasyonun önceki savaşlarda görülenden kemiyet ve keyfiyet bakımından ayrıştığını vurguladı: bu artık münferit bir propaganda girişimi değil, koordineli bir endüstriyel üretim sürecidir.
I. BİRİNCİ SAVAŞ: HAZİRAN 2025’İN SAHTE GERÇEKLİKLERİ
A. Her İki Cepheden Üretim Hattı
13 Haziran 2025 sabahı İsrail’in İran’a yönelik hava harekâtını başlattığı saatlerde, sosyal medya platformlarında çok farklı türde bir saldırı daha başladı. X, TikTok, Instagram ve Telegram kanallarına saniyeler içinde binlerce video ve görsel aktı: Tel Aviv’in harabeye döndüğünü gösteren drone çekimleri, Ben Gurion Havalimanı’nda alev almış uçaklar, İsrail savaş uçaklarının İran semalarında düşürüldüğüne dair görüntüler. Büyük çoğunluğu son derece gerçekçiydi. Ve büyük çoğunluğu tamamen kurguydu.
İran ve İran yanlısı ağlar temel olarak beş kategori içerik üretmiştir: İsrail şehirlerinin yapay zekâ ile harabeye çevrilmiş görüntüleri, Tel Aviv ve Ben Gurion’a yönelik sahte füze saldırısı çekimleri, İsrail uçaklarının düşürüldüğünü iddia eden fotoğraf ve videolar, İsrail askerlerini aciz gösteren deepfake sahneler ve İsrail’in kendi vatandaşları arasında paniğe sebep olduğunu ima eden manipüle edilmiş yayınlar. TikTok, bu kampanyanın ana dağıtım platformu olmuştur. İçerikler en az dört dilde üretilmiştir. EDMO’nun verilerine göre savaşın yalnızca ilk 72 saatinde bu sahte içerikler 100 milyonun üzerinde görüntüleme aldı.
İsrail cephesi de temiz değildi. İsrail Dışişleri Bakanı, Evin cezaevinin kapılarının hassas bir operasyonla havaya uçurulduğunu gösteren bir videoyu paylaştı. Adlî analizler bu videonun büyük olasılıkla yapay zekâ üretimine dayandığını ortaya koydu: arka planda 2021 tarihli bir makaleden alınmış evin fotoğrafları kullanılmıştı. Gerçekteki saldırı ise videodaki steril cerrahî hassasiyetin tam karşıtıydı; yakın çevredeki apartmanlar yıkıldı, sokaktan geçenler hayatını kaybetti. Citizen Lab’ın belgelediği ‘PRISONBREAK’ adlı koordineli İsrail yanlısı ağ ise düzinelerce sosyal medya hesabıyla YZ üretimi görüntüleri yayarak İran’da rejim karşıtı kargaşa kışkırtmayı hedefledi.
B. İlk Savaşın Karakteristik Örnekleri
ÖRNEK 1: Press TV, Tel Aviv’e İran füzesi isabet ettiğini gösteren bir video yayımladı ve kısa süre sonra kaldırdı. Videodaki patlama animasyonu açık biçimde gerçekçilik ölçütlerini karşılamıyordu; ama kaldırılmadan önce yüz binlerce kez izlendi.
ÖRNEK 2: Pakistan’ın İran’a 750 balistik füze gönderdiği iddiasını ‘destekleyen’ videolar yayıldı. Görüntülerde şoförsüz kamyonlar ve aniden yok olan insanlar gibi açık YZ üretimi hatalar mevcuttu.
ÖRNEK 3: İranlıların ‘İsrail’i Seviyoruz!’ diye bağırdığı bir miting videosu İsrail yanlısı ağlarda, aynı anda İsrail karşıtı bir protesto videosu da İran yanlısı ağlarda dolaşıma girdi. Her ikisi de tamamen yapay zekâ ürünüydü; her ikisi de milyonlarca izlenmeye ulaştı.
ÖRNEK 4: 2015’te Çin’in Tianjin kentindeki kimyasal patlama videosu ‘Bu Tel Aviv. Teşekkürler İran!’ yazısıyla yeniden dolaşıma sokuldu. Aynı video daha önce birçok savaşta kullanılmıştı.
ÖRNEK 5: Katar’daki ABD radar sistemine İran İHA saldırısı gerçekleştirildiği iddiasıyla paylaşılan uydu görüntüsü neredeyse bir milyon görüntülemeye ulaştı. Görüntü, Bahreyn’deki gerçek bir konumun Google AI ile manipüle edilmiş hâliydi. Gerçek uydu verisi o konumda belirli bir hasar olduğunu doğruluyordu — yani gerçekle yalanın iç içe geçtiği, özellikle tehlikeli türden bir manipülasyondu.
C. Shallowfake: Ham Yalandan Daha Sinsi
Siyaset bilimci Steven Feldstein, ilk savaşta gözlemlediği bir evrimi ‘shallowfake’ – sathî sahtecilik kavramıyla tanımladı. Artık kolayca fark edilebilecek tamamen uydurulmuş görüntüler üretmek yerine, gerçek malzemeye ince manipülasyonlar uygulamak çok daha yaygın ve çok daha etkili bir strateji hâline geldi. Gerçek bir havalimanı görüntüsüne yapay bir patlama eklemek; gerçek bir savaş bölgesinden gelen ses kaydını farklı bir görüntünün üzerine yapıştırmak; gerçek bir protest fotoğrafının tarihini değiştirip farklı bir bağlama yerleştirmek.
Bu yöntem ham sahtecilikten çok daha sinsi çalışır. Zemindeki gerçeklik — gerçek konum, gerçek yıkım, gerçek panik — algı filtrelerini devre dışı bırakır. İzleyicinin zihnindeki doğrulama mekanizması gördüklerinin yüzde sekseninin gerçek olduğunu tescil eder; yüzde yirmilik manipülasyonu fark edemez.
II. İKİNCİ SAVAŞ: 28 ŞUBAT 2026 VE YENİ BOYUTLAR
A. Operasyon Başlar Başlamaz
28 Şubat 2026’da ABD ve İsrail ‘Epik Öfke’ saldırısını başlattı. Harekât İran’ın nükleer tesislerini, askerî altyapısını ve liderliğini hedef aldı; Yüksek Lider Hamaney’in öldürüldüğü saatlerde sosyal medya platformları yeni ve çok daha büyük bir dezenformasyon dalgasıyla doldu. Bu kez hem sahte içerik üretimi hem yayılma hızı hem de üretim araçlarının gelişmişliği Haziran 2025’in çok ötesine geçti. Google’ın Veo 3 ve Gemini görüntü üretim araçları, her iki cepheden propaganda içeriği üretmek için açıkça kullanıldı — kimisi Google’ın SynthID ‘water mark’ı içeriğe gömmeden paylaşmayı bile atlayarak.
İkinci savaşın dezenformasyon tablosunu birincisinden ayıran üç temel özellik vardı. Birincisi ölçek: New York Times’ın tespiti, yalnızca iki haftada 110’u aşkın özgün YZ üretimi içerikti; gerçek sayının bunun çok üstünde olduğu değerlendirildi. İkincisi araç: Google Veo, Gemini ve benzer nesil YZ araçlarının erişilebilirliği ve gücü, 2025’e kıyasla katlanmıştı. Üçüncüsü niyet çeşitliliği: ikinci savaşta dezenformasyonu yayan aktörler arasında devlet medyası, koordineli propaganda ağları, ideolojik hesaplar ve salt reklam geliri için çalışan engagement farm hesapları bir arada yer aldı.
B. İkinci Savaşın En Çarpıcı Vakaları
İkinci savaşın en belirleyici sahte anlatılarından biri, USS Abraham Lincoln uçak gemisinin İran balistik füzeleriyle batırıldığı iddiasıydı. ‘İran’ın füzeleri USS Abraham Lincoln uçak gemisini batırdı’ iddiasını taşıyan bir X paylaşımı, 2 Mart’a kadar 8 milyon görüntülemeye ulaştı. Alev içindeki bir uçak gemisini gösteren birden fazla görüntü X, Facebook, TikTok ve Telegram’da yayıldı. ABD Merkezi Komutanlığı (CENTCOM) X’te açık bir yalanlama yaptı: ‘İran’ın IRGC, USS Abraham Lincoln uçak gemisine balistik füzelerle vurduğunu iddia ediyor. YALAN. Lincoln vurulmadı. Fırlatılan füzeler yakına bile gelmedi.’ PolitiFact’in analizi, dolaşımdaki videoların birisinin gerçek Abraham Lincoln ile uyuşmayan detaylar içerdiğini, diğerinin ise 2020 yılında San Diego’da hasarlanan USS Bonhomme Richard’ı gösterdiğini ortaya koydu; bir üçüncüsü doğrudan Haziran 2025 savaşından alınmıştı.
Hamaney’in enkaz altındaki cesedini gösteren deepfake görüntüler geniş çapta yayıldı; Reuters bu görüntünün AI üretimi olduğunu Google’ın tespit aracı aracılığıyla doğruladı. Sahte bir ‘öncesi-sonrası’ uydu görüntüsü çifti, Hamaney’in sarayının hedef alındığı anlatısını desteklemek amacıyla dolaşıma sokuldu; 365.000 kişi bu paylaşımı gördü. Ancak ‘önceki’ fotoğrafın aslında sarayın karşı yakasındaki Humeyni türbesi olduğu tespit edildi.
Bir F-15E Savaş Kartalı’nın İran üzerinde düşürüldüğü iddiası defalarca gündeme geldi; CENTCOM her seferinde yalanladı. İran yanlısı bir hesap olan ‘Daily Iran Military’ operasyonun başladığı ilk bir haftada takipçi sayısını 700.000’den 1,4 milyona çıkardı — yüzde seksen beş artış. Kenya parlamenteri Peter Salasya sahte Abraham Lincoln fotoğrafını 6 milyon takipçisine iletti. Bir Substack raporu, ABD kuvvetlerinin 50 üste konuşlanan 200 askerinin savaşın ‘İsa’nın dönüşünü hızlandırmak için’ yürütüldüğünü söylendiğini iddia etti. İddia doğrulanamadı ama hızla yayıldı.
C. Google Veo ve Etiket Sorunusunun Boyutu
İkinci savaşın dezenformasyon altyapısında Google’ın Veo video üretim aracı merkezi bir rol oynadı. Haziran 2025’te Tel Aviv’in yıkımını gösteren ilk viral sahte videolardan birinin Google Veo ‘water mark’ı taşıdığı tespit edilmişti; ama bu ‘water mark’ı görmedikleri için içeriği gerçekmiş gibi yayan kullanıcı sayısı milyonlardı. 28 Şubat’tan sonra bu örüntü katlanarak büyüdü. Bazı YZ üretimi içerikler Gemini logosunu sağ alt köşede açıkça taşımasına karşın paylaşılmaya devam etti — failler bu işareti gören de görmedi, görse de umursamadı. Google’ın SynthID ‘water mark’ı, teoride görüntülerin içine insan gözüyle görülemeyen bir kimlik işareti ekler; ama bu işaret silinebilir ya da içerik başka araçlarla yeniden üretilerek devre dışı bırakılabilir. Politifact’ın önerisi — şüpheli bir görüntüyü Gemini’ye yükleyip SynthID içerip içermediğini sorgulamak — doğru ama pratik uygulaması yavaş ve kurumsal düzeyde gerçekçi değildir.
III. PLATFORMLARIN ÇÖKÜŞÜ VE SORUMLULUĞUN DAĞILMASI
A. X: Politika Var, Uygulama Yok
28 Şubat operasyonunun hemen ardından X, yapay zekâ üretimi savaş videolarını açıklama yapmadan paylaşan içerik üreticilerini 90 gün boyunca reklam geliri paylaşım programından askıya alacağını duyurdu. Platform ürün müdürü Nikita Bier sonraki ihlallerin kalıcı askıya alma ile sonuçlanacağını belirtti. Cornell Tech’in Güvenlik, Güven ve Emniyet Girişimi direktörü Alexios Mantzarlis bu politikayı yerinde bir önlem olarak değerlendirdi; ama uygulamanın zayıf noktalarını da açıkça sıraladı: YZ meta verisi yüklemeden önce kolayca silinebilmekte, Community Notes sistemi olayların çok gerisinde kalmakta ve platformun yüksek hassasiyet ve yüksek kapsam arasında denge kurması son derece güç görünmektedir.
Gerçekte olan şudur: ISD’den Joe Bodnar, politika duyurusunun ardından günlerce platformu izlediğini ve takip ettiği beslemelerin YZ üretimi içeriklerle dolup taşmaya devam ettiğini belgeledi. Premium bir hesap, İran’ın İsrail’e nükleer saldırı gerçekleştirdiğini gösteren bir YZ klibi paylaştı; bu içerik politika duyurusunun kendisinden çok daha fazla görüntüleme aldı. X’in kendi yapay zekâ asistanı Grok da sorunu ağırlaştırdı: dezenformasyon analistleri, Grok’un İran devlet medyasının paylaştığı sahte Tel Aviv vurma videosunu konum ve tarih bakımından defalarca yanlış değerlendirdiğini belgeledi.
B. Meta ve Gözetim Kurulunun Geç Kalan Değerlendirmesi
Haziran 2025 savaşı sırasında Filipinli bir kullanıcı ‘Şu an canlı – Haifa’ başlığıyla bir yapı yıkım videosu Facebook’a yükledi. Altı ayrı kullanıcı videoyu Meta’ya şikâyet etti; TikTok daha önce aynı içeriği sahte olarak etiketlemişti. Meta hiçbir işlem yapmadı. Gözetim kurulu Oversight Board, bu vakayı aylarca inceledi ve kararını Mart 2026’da açıkladı: Meta’nın video içeriklerde YZ kullanımını tespit etme kapasitesi ağırlıklı olarak meta veri analizine dayanmaktadır. Meta veri silinebilir, video ve ses için güvenilir otomatik tespit sistemi henüz mevcut değildir ve platformlar büyük ölçüde kullanıcının kendi beyanına güvenmektedir. Kurulun sonuç değerlendirmesi netti: Meta, silahlı çatışmalar sırasında YZ üretimi içeriklerin tespiti ve kaldırılması konusunda çok daha fazlasını yapmak zorundadır. Ama bu değerlendirme bağlayıcı bir yaptırım mekanizması olmaksızın bir tavsiye olarak kaldı.
C. Yalanın Gelir Modeli
Bu tablonun arkasında çok daha strüktürel bir dinamik yatmaktadır. Dikkat ekonomisi içeriği doğruluğuna göre değil, etkileşim kapasitesine göre ödüllendirmektedir. Bir patlama görüntüsü düzeltme haberinden on kat daha hızlı yayılır. Bir yalanın üretim maliyeti artık neredeyse sıfıra inmiştir; düzeltmenin maliyeti ise hem ekonomik hem de dikkat açısından hâlâ yüksektir. BBC, küçük ölçekli içerik üreticilerinin YZ araçlarıyla sahte savaş görüntüleri üretip platformların reklam geliri paylaşım programlarından para kazandığını belgeledi. Yalan artık ideolojik bir araç olmaktan çıkıp bir gelir modeline dönüşmüştür.
‘Liars’ dividend’ – yalanın kârı – kavramı bu gerçekliğin hukuki karşılığıdır. Hukuk akademisyenleri Danielle Citron ve Robert Chesney’nin formüle ettiği bu kavramın özü şudur: sahte görüntülerin yaygınlığı gerçek görüntülerin de kolayca ‘sahte’ ilan edilmesini mümkün kılar. Tahran’ın Borjan Sokağı’nda çok sayıda sivilin hayatını kaybettiği bir saldırıyı gösteren video, en gelişmiş adlî analiz araçlarıyla incelenmesine rağmen ‘YZ ürünü mü değil mi?’ sorusunu kesin biçimde yanıtlayamadı. The New York Times bu savaşta kendi fotoğraflarından birini doğrulamak zorunda kaldı. Gerçek, muğlaklık sisine hapsedildi.
D. Ana Akım Medya ve Türkiye’nin Kör Noktaları
Sorun yalnızca sosyal medya hesapları ve anonim içerik üreticileriyle sınırlı değildir. Ana akım haber kanalları, yorumcular ve analizciler de bu sahte içerik akışına şuurlu yahut şuursuz olarak ortak olmuştur. İran devlet televizyonu, YZ üretimi bir İsrail savaş uçağı görüntüsünü doğrulama yapmadan yayımladı. Çok sayıda Türk, Arap ve Batılı yorum platformunda, savaşın seyrini ‘anlatan’ görüntüler olarak kullanılan içeriklerin önemli bir bölümü sahte ya da bağlamından koparılmış malzemelerden oluştu. Bu durum tesadüf değildir; strüktürel bir baskının ürünüdür. Canlı bir savaş ortamında haber döngüsünün hızı doğrulamanın hızını her zaman geride bırakır. Sahte bir görüntüyü ilk yayımlayan on milyonlarca izlenme alır, düzeltmeyi yayımlayan on binlerce.
Türkiye’deki medya ortamı bu tablodan azade değildir. Siyasî kutuplaşma, her tarafın kendi gerçekliğini inşa ettiği ayrışmış medya ekosistemleri ve bağımsız doğrulama haberciliğinin resmî altyapıdan yoksunluğu, dezenformasyonun özellikle elverişli zemin bulduğu bir ortam doğurmaktadır. İran-İsrail savaşına ilişkin sahte görüntüler ideolojik ağlarda süzülmeden dolaştı; hangi tarafın anlatısını güçlendiriyorsa o tarafın kanallarında haber değeri olarak işlendi.
IV. ZİHNİN TESLİMİYETİ: ALGORİTMİK YANKI ODASI VE GÖNÜLLÜ TUTSAKLIK
A. Gerçek Meselesi Siyasî Bir Meseledir
Bu meselenin medya ahlakı yahut teknoloji politikası boyutuyla sınırlı görülmesi, asıl soruyu ıskalamaktır. Gerçek meselesi tarihî olarak her zaman siyasî bir mesele olmuştur. Savaş ortamında kimin neyi gördüğü, hangi görüntülerin hangi duyguları tetiklediği ve nihayetinde kamuoyunun hangi anlatıyı kabul ettiği – bunların tümü fiilî savaş kararları kadar belirleyici sonuçlar üretebilir. Sivil ölümler, yerinden edilme, hastanelere verilen hasar – bunları belgeleyen gerçek görüntüler, sahte görüntülerin neden olduğu güvensizlik ikliminde etkisiz kalmaktadır. Hesap verebilirlik için gerçeğe ihtiyaç vardır; ve gerçek, artık sistematik biçimde sorgulanabilir hâle getirilmiştir.
Savaşın birinci cephesi topraklarda kurulur. İkincisi zihinlerde. Bugün ikinci cephe, ilkinden daha hızlı ve daha ucuz işlemektedir.
B. Algoritmik Yankı Odası: Kuşatmanın Altyapısı
Buraya kadar konuşulan mekanizmaların – sahte görüntü üretimi, platform ihmali, chatbot yanılgısı, ana akım medyanın hızı – hepsinin ortak bir zeminde buluştuğu nokta şudur: bu mekanizmaların hiçbirinin uzun vadede işe yaramaması için insan zihninin onlara direnmesi gerekirdi. Oysa mevcut tablo direncin giderek aşındığını göstermektedir. Ve bu aşınma doğrudan algoritmik yankı odalarının yapısal mantığıyla bağlantılıdır.
Sosyal medya platformlarının işlettiği öneri algoritmaları, kullanıcının daha önce onayladığı içeriklere benzer içerikleri önceliklendirmektedir. İzleme süresi ve etkileşim veriyi besler; veri algoritmayı eğitir; algoritma benzer içeriği artırır. Kısa sürede kullanıcı, kendisinin ‘seçtiğini’ sandığı ama aslında kendisi için tasarlanmış bir içerik tünelinin içinde bulunmaktadır. Bu tünel sırf bilgi değil, dünya görüşü de sunar. Her savaşta kimin haklı kimin zalim olduğuna dair bir çerçeve inşa eder. İran-İsrail savaşında bu mekanizma sahte içeriklerin yayılma hızını katladı: algoritma kullanıcının daha önce hangi tarafın haberlerine tepki verdiğini biliyordu ve ona tutarlı bir ‘gerçeklik’ servisi sundu.
Rolling Stone’dan Rumman Chowdhury’nin ifadesi bu dinamiği en doğru biçimde özetler: ‘Video, ses ve görüntüde deepfake gerçekçiliğinin çoğu insan için gerçekten ayırt edilemez bir seviyeye ulaştık.’ Bu noktada algoritmik yankı odası sadece sahte içerikleri yaymanın değil, gerçek içeriklerin de reddedilmesinin zeminini hazırlamaktadır. Tahran sokaklarında gerçek bir füze çarpmasını belgeleyen özgün bir video, kendi ön kabullerine aykırı olduğu için milyonlarca kullanıcı tarafından ‘YZ üretimi olduğu belli’ diyerek reddedildi. Feldstein bu durumu çarpıcı biçimde özetler: ‘Artık önceden var olan anlatınızın dışından gelen hiçbir şey hakikat olarak kabul edilmiyor — bu da en az deepfake kadar tehlikelidir.’
C. Gönüllü Tutsaklık: Kurban mı, Fail mi?
Burada daha rahatsız edici bir soruyu sormak kaçınılmazdır: bu süreçte insanlar yalnızca kurban mıdır? Yanıt, tam anlamıyla hayırdır. Post-modern dönemin araçları, önüne belirli seçenekler sunulan insanın kendisini mutlu hissettiren seçeneği hakikat olarak kabul etme eğilimini altyapı düzeyinde pekiştirmektedir. Algoritmalar yoluyla insanların meyilli olduğu düşünce zihin inşası sürecinde sistematik biçimde desteklenir; manipüle edilmiş bilgiler eklektik biçimde devşirilir ve kişi bunları kendi fikrinin payandası zanneder. Oysa bunlar büyük ölçüde yankı duvarları arasında inşa edilmiş dayatmalardır.
İki farklı tutum sahibi öne çıkmaktadır. Birincisi, fail konumuna girenler: analitik düşünceden bilinçli biçimde yüz çeviren, doğrulamak yerine dolaşıma sokmayı tercih eden, ‘algoritmik hakikatler’ üretme sürecine gönüllü katkıda bulunan kullanıcılar. Bu savaşta sahte görüntüleri paylaşanların önemli bir bölümü doğruluğundan şüphelendiği hâlde, kendi taraftarlarının zaferini belgeleyen bir içeriği sorgulamamayı tercih etti. Paylaşmak, yaymak, beğenmek artık pasif bir suskunluk değil; dezenformasyonun aktif taşıyıcısı olmak demektir.
İkincisi, kurban konumuna düşenler: kendisi için oluşturulmuş bir gerçeklik balonunun içinde, inandığı şeyin hakikat olmadığının farkına varamadan. Her kurban bu dayatmanın farkında olamaz; çünkü algoritmik yankı odası zihnin etrafına kalın duvarlar örerek onu karanlığa hapseder. Farkına varanlar ise çoğunlukla iş işten geçtiği için sadece sükutu hayale uğramakla yüz yüze kalır. Bu ayrımın — fail ile kurban arasındaki çizginin — bulanıklığı, sorunun en derin boyutunu oluşturmaktadır. Algoritmik yankı odası tam bu bulanıklık sayesinde çalışır: faili kendini kurban, kurbanı kendini bağımsız düşünen bir kişiymiş gibi hissettirir. Sonuç her iki durumda da aynıdır: yanlış bilginin kitle boyunca yeniden üretimi.
Asıl mesele şudur: bu süreç, insanın inanma ihtiyacını istismar eden bir arz-talep ilişkisi üzerinden işlemektedir. Arz tamamen yapılandırılmıştır – algoritmalar, platformlar ve içerik üreticileri talebe göre şekillenir. Talep ise insan doğasının en kadim reflekslerinden beslemektedir. Dijital çağda bu refleks artık pasif bir suskunluktan ibaret değildir; saniyeler içinde milyonlarca kez çoğalabilen bir eylemler zincirine dönüşmektedir.
V. SONUÇ: SAVAŞ GERÇEKLE DE SÜRÜYOR
Haziran 2025 savaşı ateşkesle sona erdi. 28 Şubat 2026 operasyonu ise hâlâ devam etmektedir. Ama her iki savaşın da ortak gerçeği şudur: gerçeklik üzerindeki savaş, topraklardaki savaştan önce başladı ve topraklardaki savaştan sonra da sürecek. Sahte görüntüler dolaşımdadır; düzeltmeler kısmen sessizdir. Milyonlarca insan bu savaşları hiçbir zaman gerçekleşmemiş sahneler üzerinden deneyimledi ve bu deneyim zihinlere kazınmış durumdadır.
Bu tabloya karşı alınabilecek teknik önlemler vardır: “water mark” zorunlulukları, içerik köken takip sistemleri, platformların daha hızlı müdahale mekanizmaları. Bunlar gereklidir. Ama tek başlarına yeterli değildir. Çünkü meselenin özü teknolojik değil, zihnîdir. Anlık hissî refleksler, grup kimliği üzerinden doğrulama eğilimi ve hızın derinliğin önüne geçtiği dikkat ekonomisi – bunlar değişmeden, teknik çözümler ancak geçici yara bantları olabilir. Yankı odasının duvarlarını kişiler değil, yapılar kaldırabilir: eğitim sistemleri, gazetecilik pratikleri ve platform tasarımları bu döngüyü kıracak biçimde yeniden kurulmadıkça her yeni savaşta algoritmik gerçeklikler fiilî gerçekliğin önüne geçmeye devam edecektir.
Türkiye gibi siyasi kutuplaşmanın derin, bağımsız doğrulama haberciliğinin zayıf olduğu ülkeler için bu tablo özellikle kaygı vericidir. Bir sonraki büyük kriz anında – ki tarih bunu kaçınılmaz göstermektedir – sahte içerik akışının hızı ve ölçeği bugünkünden çok daha büyük olacaktır. Hazırlıksız yakalanmak tercih değil, ihmaldir.
Gerçeği aramak yorucu bir iştir. Ama yalanı tüketmek, bedava görünen ama en pahalı tercihtir.
Bu haberde yararlanılan başlıca kaynaklar:
— AFP — AI-generated clip and old video shared in false posts about Iran striking USS Abraham Lincoln (Mart 2026)
— Al Jazeera — US military confirms use of ‘advanced AI tools’ in war against Iran (Mart 2026)
— Axios — Hackers join U.S. and Israel’s fight with Iran (Mart 2026)
— BBC Verify — Israel-Iran conflict unleashes wave of AI disinformation (2025–2026)
— Carnegie Endowment / WITNESS — Iran-Israel AI War Propaganda Is a Warning to the World (2025)
— Citizen Lab — PRISONBREAK: Israel-linked AI disinformation campaign targeting Iran (2025)
— EDMO — The First AI War: How the Iran-Israel Conflict Became a Battlefield for Generative Misinformation (2025)
— Erkan’s Field Diary — Disinformation in the Iran-Israel-US War: Major Cases and Patterns as of 6 March 2026
— Flashpoint — Escalation in the Middle East: Tracking Operation Epic Fury Across Military and Cyber Domains (Mart 2026)
— France 24 / AFP — AI fakes about Iran-US war swirl on X despite policy crackdown (Mart 2026)
— Implicator — Trump Accuses Iran of AI Disinformation as Researchers Count 110 War Fakes (Mart 2026)
— Meta Oversight Board — Board to Address AI-Generated Content in Israel-Iran Conflict (Kasım 2025 / Mart 2026)
— NPR — Old-school tricks and AI tech are weapons in the Iran war (Mart 2026)
— PolitiFact — Videos do not show missile strike on USS Abraham Lincoln (Mart 2026)
— PolitiFact — How to spot misleading or AI-generated content during Iran war (Mart 2026)
— Poynter — Fake images from the Iran war are spreading online. Here’s how to spot them (Mart 2026)
— Rolling Stone / Hany Farid, Steven Feldstein — The Latest Weapon in the Iran War Is AI-Generated Misinformation (2026)
— SOCRadar — Iran vs. Israel & US Cyber War 2026: Operation Epic Fury Threat Intelligence (Mart 2026)
— World Geostrategic Insights — The Use of Generative AI and Disinformation in the 2026 US-Israel Conflict with Iran
