Geopolitik Narasi: Ketika Realitas Menjadi Medan Perang
Geopolitik Narasi: Ketika Realitas Menjadi Medan Perang
Oleh: Nuraini Persadani
Ada sebuah pertanyaan yang mengganggu pikiran para analis pertahanan kontemporer: jika sebuah negara menang di medan tempur tetapi kalah di ruang narasi, apakah ia sesungguhnya menang? Konflik Iran–Israel–Amerika Serikat yang meletus sejak 28 Februari 2026 telah menjadi laboratorium paling mutakhir untuk menjawab pertanyaan itu — dan jawabannya ternyata jauh lebih kompleks dari yang pernah dibayangkan.
Kita sedang menyaksikan lahirnya bentuk peperangan baru. Bukan perang tanpa tentara, melainkan perang di mana tentara yang paling berbahaya tidak mengenakan seragam: ia adalah algoritma, model kecerdasan buatan, dan video deepfake yang mampu membalikkan kenyataan dalam hitungan detik.
I. Media sebagai Senjata Strategis Negara
Dalam doktrin militer klasik, senjata diukur dari daya ledaknya. Dalam doktrin abad ke-21, senjata diukur dari daya sebarnya. Media — baik yang dikendalikan negara maupun yang beroperasi di lorong-lorong gelap internet — telah menjadi instrumen strategis yang tidak kalah penting dari peluru kendali atau kapal induk.
Tiongkok adalah contoh paling sistematis dalam memahami hal ini. Sejak 2003, Tentara Pembebasan Rakyat Tiongkok mengembangkan kerangka yang dikenal sebagai Three Warfares — Tiga Peperangan — yang secara eksplisit menempatkan perang informasi setara dengan perang konvensional:
| Domain | Sasaran | Instrumen |
|---|---|---|
| Perang Psikologis | Demoralisasi musuh, menanamkan rasa takut | Disinformasi, ancaman terkalkulasi, narasi kekalahan |
| Perang Media | Opini publik domestik dan internasional | State media, platform digital, konten algoritmik |
| Perang Hukum | Legitimasi moral dan posisi diplomatik | Klaim historis, gugatan internasional, framing hukum |
Di Laut Tiongkok Selatan, ketiga lapis perang ini bekerja simultan: klaim historis untuk melegitimasi ekspansi, pelecehan psikologis terhadap kapal negara tetangga, dan kampanye media internasional yang membangun citra Tiongkok sebagai kekuatan damai yang terprovokasi. Inilah template yang kini diadopsi oleh banyak aktor negara lain — termasuk para pihak dalam konflik Iran–Israel–AS.
Fungsi media negara dalam konteks ini dapat diringkas dalam empat peran yang saling menguatkan:
- Legitimasi Kekuasaan — Membangun narasi bahwa tindakan militer adalah respons defensif yang sah, bukan agresi.
- Mobilisasi Publik — Menggalang dukungan rakyat untuk menanggung beban ekonomi dan korban jiwa perang.
- Demoralisasi Musuh — Menyebarkan narasi kekalahan kepada audiens di pihak lawan agar semangat tempurnya runtuh.
- Diplomasi Digital — Mempengaruhi opini komunitas internasional untuk mengisolasi lawan secara diplomatik.
II. Dari Infodemik menuju Infoside
Pandemi COVID-19 memperkenalkan kita pada istilah infodemic — banjir informasi yang mencampur fakta dengan kepalsuan hingga publik tidak mampu lagi membedakannya. Namun dunia kini telah bergerak ke tahap yang lebih gelap: infoside, sebuah istilah yang diperkenalkan para analis konflik Gaza 2023 untuk menggambarkan pemusnahan sistematis terhadap kebenaran itu sendiri sebagai strategi perang.
Dalam infoside, tujuannya bukan sekadar membingungkan publik. Tujuannya adalah menghapus kemungkinan adanya konsensus tentang apa yang benar-benar terjadi — sehingga akuntabilitas hukum, tekanan diplomatik, dan solidaritas internasional menjadi mustahil untuk dibangun.
Konflik Iran–Israel–AS tahun 2026 adalah puncak dari trajektori ini, dan ia hadir dengan fitur-fitur yang belum pernah ada sebelumnya dalam sejarah peperangan.
III. Perang Iran–Israel–AS: Laboratorium Deepfake Terbesar dalam Sejarah
Hari-hari Pertama: Banjir Kepalsuan
Ketika Operation Epic Fury dimulai pada 28 Februari 2026 — serangan gabungan AS–Israel yang menghancurkan infrastruktur nuklir Iran dan menewaskan Pemimpin Tertinggi Ayatollah Ali Khamenei — perang kinetik itu disertai secara hampir bersamaan oleh gelombang perang informasi yang tak pernah terjadi dalam skala seperti ini sebelumnya.
Dalam hitungan jam setelah serangan pertama, platform X, Facebook, TikTok, dan Instagram dibanjiri oleh konten sintetis. New York Times mencatat lebih dari 110 deepfake unik yang hanya dalam dua pekan pertama telah beredar di media sosial — semuanya mengusung narasi pro-Iran: ledakan masif di Tel Aviv, rudal Iran yang menghancurkan kapal perang AS di Teluk Persia, dan kerumunan warga Iran yang merayakan kemenangan militer.
"Konten dapat dibuat dalam sekejap. Jenis video palsu yang dulu membutuhkan tenaga ahli terlatih dengan perangkat lunak mahal, kini dapat dibuat oleh siapa saja dengan ponsel dan aplikasi gratis."
— Alex Hamerstone, Advisory Solutions Director, TrustedSec
Anatomi Perang Narasi 2026
Beberapa kasus yang telah terverifikasi menggambarkan betapa canggih dan betapa masifnya perang narasi ini berlangsung:
1. Deepfake Pangkalan Militer AS di Irak
BBC Verify mengidentifikasi sebuah gambar yang diklaim menunjukkan ledakan besar di pangkalan militer AS di dekat Bandara Irbil, Kurdistan. Menggunakan deteksi watermark Google SynthID, BBC memastikan gambar itu telah dibuat atau dimodifikasi menggunakan teknologi AI Google. Gambar aslinya adalah foto nyata yang diambil dari lokasi tersebut, namun bola api raksasa dan struktur bangunan di sisinya adalah fabrikasi digital. Gambar ini menyebar jutaan kali sebelum dibantah.
2. Citra Satelit Pangkalan AL AS di Qatar
Sebuah gambar satelit yang mengklaim menunjukkan kerusakan parah di pangkalan angkatan laut AS di Qatar juga dinyatakan sebagai palsu oleh BBC Verify. Gambar itu diambil dari citra satelit nyata di lokasi yang berbeda, kemudian diedit menggunakan AI untuk menyimulasikan kehancuran. Hasil editan itu terlihat sangat meyakinkan.
3. Video Jet Iran Menghancurkan Pesawat Tempur AS
Sebuah video yang menampilkan rudal Iran menghancurkan pesawat tempur AS — yang ditelusuri BBC Verify sebagai klip dari simulator militer — meraih 70 juta penayangan hanya dalam satu akhir pekan. Tujuh puluh juta pasang mata melihat sebuah kebohongan sebagai kenyataan, dan sebagian besar dari mereka tidak pernah melihat bantahannya.
4. Kampanye PRISONBREAK: Deepfake untuk Perubahan Rezim
Citizen Lab mengungkap operasi pengaruh berbasis AI yang secara koordinatif menyebarkan video deepfake dari jaringan yang terhubung dengan Israel. Operasi yang diberi nama PRISONBREAK ini menyebarkan video palsu tentang pemboman penjara Evin dan demonstrasi pro-Israel di Teheran — seolah-olah rakyat Iran sendiri yang bangkit menentang pemerintahnya. Ini adalah perang narasi yang bertujuan memicu revolusi dari dalam.
5. Kampanye Iran: 145 Juta Tayangan dalam Hitungan Hari
Perusahaan intelijen digital Cyabra mendokumentasikan kampanye pro-Iran yang menggunakan puluhan ribu akun palsu untuk menyebarkan deepfake militer, mengumpulkan lebih dari 145 juta penayangan hanya dalam beberapa hari. Di sisi lain, media negara Iran IRIB TV1 tertangkap basah menyiarkan rekaman serangan Israel di Iran — sambil narasinya menggambarkan seolah-olah itu adalah serangan Iran ke Israel.
Krisis Netanyahu: Antara Ada dan Tiada
Salah satu episode paling dramatis dalam perang narasi ini adalah kontroversi yang muncul sekitar 13 Maret 2026. Video Netanyahu yang beredar di media sosial tampak menunjukkan keganjilan visual: jari tangan yang tampak berjumlah enam. Klaim bahwa Netanyahu telah meninggal dan digantikan oleh avatar AI segera menyebar viral — diperkuat oleh media pemerintah Iran dan ribuan akun di X dan Reddit.
Situasi menjadi semakin kacau ketika Grok, chatbot AI milik X, justru memberikan penilaian yang saling bertentangan dalam waktu berdekatan — sekali menyatakan video Netanyahu itu autentik, lalu menyatakan palsu, kemudian autentik lagi. Netanyahu akhirnya merilis beberapa video "bukti bahwa ia masih hidup" secara berturut-turut, termasuk dengan menunjukkan jari-jarinya secara eksplisit — sebuah ironi tragis yang disaksikan Professor Monica Attard dari University of Technology Sydney sebagai "mungkin pertama kalinya dalam sejarah seorang pemimpin dunia harus menghitung jarinya di depan kamera untuk membuktikan dirinya adalah manusia, bukan AI."
Ketika AI "Memverifikasi" AI
Di sinilah lapisan paradoks yang paling mengkhawatirkan muncul. Dalam lingkaran yang tertutup sempurna: AI menghasilkan konten palsu, kemudian AI lain — seperti Grok — diminta untuk memverifikasi keasliannya, dan AI itu justru memberikan verifikasi keliru. Maka kebenaran tidak lagi memiliki pintu masuk ke dalam sistem informasi yang bekerja secara otomatis ini.
"AI menghasilkan kepalsuan; lalu AI 'memverifikasi' kepalsuan itu. Kebenaran tidak memiliki titik masuk."
— Ringkasan analisis Deadline Hollywood, Maret 2026
IV. Tiga Aktor, Tiga Playbook
Iran: Korban yang Melawan melalui Narasi
Iran berada dalam posisi yang secara militer inferior namun mampu membangun narasi perlawanan yang efektif. Strategi Iran dalam perang informasi ini bertumpu pada tiga pilar: menampilkan keberhasilan militer yang dilebih-lebihkan (bahkan difabrikasi), mendokumentasikan korban sipil dari serangan AS–Israel, dan menyebarkan narasi anti-imperialisme yang resonan di kalangan audiens Global South. Sebuah studi dari Clemson University mengungkap bahwa akun-akun yang terhubung dengan IRGC membanjiri X, Instagram, dan Bluesky dengan deepfake — termasuk video yang mengolok-olok Presiden Trump dalam gaya animasi Lego — yang meraih jutaan penayangan.
Israel: Operasi Persepsi dan Revolusi dari Dalam
Netanyahu sendiri pada 1 Maret 2026 dan kembali pada 10 Maret menyerukan melalui X kepada "Rakyat Iran" untuk turun ke jalan jutaan orang demi menggulingkan rezim. Operasi PRISONBREAK yang terungkap oleh Citizen Lab adalah versi terkoordinasi dari seruan itu: deepfake demonstrasi pro-Israel di Teheran, video palsu penjara Evin yang diserang, dan narasi bahwa rakyat Iran sendiri sedang memberontak. Ini adalah perang persepsi yang dirancang untuk menciptakan realitas sosial yang kemudian diharapkan menjadi kenyataan fisik.
AS: Propaganda Resmi dengan Estetika Hollywood
Yang paling mengejutkan adalah kontribusi aktor yang justru paling resmi: Gedung Putih sendiri. Pada 4 Maret 2026, akun X resmi Gedung Putih merilis video yang menggabungkan klip nyata serangan rudal di Iran dengan footage dari video game Call of Duty. Keesokan harinya muncul video lain yang merayakan "keadilan ala Amerika" dengan klip dari film Braveheart, serial Breaking Bad, Iron Man, bahkan SpongeBob SquarePants — tanpa penanda apa pun yang memisahkan fiksi dari kenyataan tempur.
Ini bukan sekadar propaganda dalam pengertian klasik. Ini adalah pembauran sistematis antara realitas dan fiksi hiburan — sebuah strategi yang secara efektif melatih audiens untuk tidak lagi mencari garis batas antara keduanya.
V. Liar's Dividend: Ketika Kebenaran Dicurigai sebagai Bohong
Dampak paling berbahaya dari perang narasi ini bukan bahwa publik mempercayai kepalsuan. Dampak paling berbahayanya adalah bahwa publik berhenti mempercayai apa pun — termasuk yang nyata.
Para analis menyebutnya liar's dividend: ketika kebohongan sudah cukup banyak beredar, maka bukti autentik pun bisa ditolak sebagai fabrikasi. Video nyata serangan rudal Israel di jalan ramai Teheran yang menerbangkan mobil-mobil ke udara — yang telah diverifikasi keasliannya — justru ramai-ramai ditolak netizen sebagai "deepfake buatan rezim." Realitas yang sesungguhnya telah kehilangan hak untuk diakui sebagai realitas.
Steven Feldstein, ilmuwan politik yang menganalisis dinamika ini, memperkenalkan istilah shallowfake: manipulasi yang tidak total memalsukan realitas, melainkan cukup menyunting "bayangan kebenaran" — detail yang cukup untuk lolos dari kecurigaan, namun cukup untuk mengaburkan makna sesungguhnya. Bukan membangun kebohongan mutlak, melainkan memelintir kebenaran hingga tidak lagi dapat dikenali.
Pada titik ini, perang informasi telah mencapai tujuan terdalamnya: bukan memenangkan argumen, melainkan menghancurkan kemungkinan terjadinya argumen yang berbasis fakta sama sekali.
VI. Poros Amplifikasi: Rusia, Tiongkok, Korea Utara
Perang narasi di Iran–Israel–AS tidak berlangsung dalam ruang hampa. Ia bekerja di dalam ekosistem yang lebih luas di mana Rusia, Tiongkok, dan Korea Utara berperan sebagai amplifier — penguat narasi — bukan sekadar penonton.
Rusia memiliki infrastruktur bot network yang paling canggih untuk mendistribusikan disinformasi secara masif. Tiongkok menggunakan akun-akun media negara dan akun pro-Beijing untuk menggaungkan narasi anti-AS di berbagai bahasa. Korea Utara berbagi praktik terbaik teknologi dengan Iran dalam kerangka kemitraan strategis. Hasilnya adalah ekosistem amplifikasi yang terdistribusi: tidak ada satu titik komando, tetapi semuanya bergerak ke arah yang sama — mendestabilisasi narasi Barat dan mengikis kepercayaan publik terhadap lembaga-lembaga demokratis.
Media negara Tiongkok, misalnya, menyebarkan klaim bahwa Iran berhasil menembak jatuh pesawat tempur F-15 AS. Akun pro-Tiongkok lainnya menyebarkan gambar palsu yang mengklaim pesawat tanker KC-135 AS dijatuhkan oleh perlawanan Irak. Dan akun lain mengklaim Netanyahu telah melarikan diri dari negaranya. Setiap klaim itu palsu; namun setiap klaim itu telah ditonton jutaan kali.
VII. Dimensi Hukum dan Regulasi: Ketertinggalan yang Berbahaya
Sementara teknologi deepfake berkembang dengan kecepatan eksponensial, regulasi bergerak dengan kecepatan birokrasi. Kesenjangan ini adalah celah yang dimanfaatkan oleh semua aktor dalam konflik ini.
India mengambil langkah paling tegas dengan mengamendemen aturan teknologi informasinya pada Februari 2026 — mewajibkan penghapusan konten deepfake dalam tiga jam setelah perintah pemerintah atau pengadilan, serta mewajibkan semua konten buatan AI dilabeli secara jelas. Amerika Serikat, melalui TAKE IT DOWN Act (Mei 2025), hanya mengatur deepfake intim non-konsensual — cakupan yang jauh terlalu sempit untuk dimensi keamanan nasional dari perang narasi ini.
Sejumlah RUU yang lebih luas — Protect Elections from Deceptive AI Act dan NO FAKES Act — masih dalam proses legislatif. Sementara itu, konflik berlangsung, dan 145 juta tayangan deepfake terjadi dalam hitungan hari.
VIII. Apa yang Perlu Dipahami Indonesia
Indonesia bukan penonton pasif dalam perang narasi global ini. Dengan populasi pengguna media sosial terbesar keempat di dunia dan pola konsumsi berita yang sangat bergantung pada platform digital dan broadcast WhatsApp, Indonesia adalah salah satu medan yang paling rentan terhadap infiltrasi narasi asing.
Konflik Iran–Israel–AS sudah menghasilkan gelombang disinformasi yang masuk ke dalam ekosistem informasi Indonesia: video palsu serangan militer yang disebarkan ulang tanpa verifikasi di grup-grup WhatsApp, narasi-narasi yang membangun simpati atau antipati berdasarkan fabrikasi, dan konten yang dirancang untuk membelah opini publik Islam Indonesia antara pro-Iran dan pro-Israel — padahal keduanya adalah pilihan yang dikonstruksi oleh aktor luar.
Apa yang dibutuhkan Indonesia bukan hanya literasi media dalam pengertian konvensional — kemampuan mengenali hoaks kasar. Yang dibutuhkan adalah literasi deepfake generasi baru: kemampuan untuk mempertanyakan konten yang tampak meyakinkan, memahami bahwa keganjilan visual yang halus bisa menjadi tanda manipulasi AI, dan yang paling penting, memiliki daya tahan epistemik — kemampuan untuk menunda penilaian ketika informasi belum terverifikasi, bahkan ketika informasi itu sesuai dengan apa yang ingin kita percayai.
"Kita perlu mendefinisikan ulang literasi media untuk era AI. Itu berarti mengajarkan orang bukan hanya cara mengenali deepfake kasar, tetapi cara mempertanyakan disinformasi berkualitas tinggi yang persuasif."
— Factnameh, lembaga pemeriksa fakta Iran berbasis Kanada, anggota International Fact-Checking Network
Penutup: Perang untuk Realitas
Dalam perang konvensional, ada yang menang dan ada yang kalah di atas tanah yang nyata. Dalam perang narasi, hasilnya lebih subtil dan lebih abadi: yang menang adalah pihak yang berhasil mendefinisikan realitas bagi mayoritas audiens — dan yang kalah adalah kebenaran itu sendiri.
Konflik Iran–Israel–AS 2026 telah mengkonfirmasi sebuah tesis yang sudah lama diajukan para analis geopolitik: perang masa depan tidak hanya diputuskan di medan tempur, tetapi di ruang digital di mana realitas itu sendiri menjadi medan pertempuran. Dan dalam perang semacam ini, tidak ada garis gencatan senjata, tidak ada perjanjian perdamaian, tidak ada akhir yang jelas — karena ia berlangsung terus selama informasi masih mengalir.
Yang dapat dilakukan oleh masyarakat, lembaga sipil, dan media independen adalah apa yang selalu menjadi pertahanan terbaik terhadap propaganda: kejernihan nalar, keberanian untuk menunda kepastian, dan komitmen untuk terus mencari kebenaran — betapa pun susah payahnya ia ditemukan di antara lautan kepalsuan yang berkilap seperti emas.
Persadani — Media Analitik Islam Wasathiyah
persadani.org
Referensi
- World Geostrategic Insights — "The Use of Generative AI and Disinformation in the 2026 US-Israel Conflict with Iran" (Maret 2026)
- Foreign Affairs Forum — "Weaponizing Illusion: Israel(US)-Iran's War Deepfake Campaign and the Global Crisis of Information Integrity" (Maret 2026)
- Foundation for Defense of Democracies — "Deepfakes on the Front Lines: Iran's AI Disinformation Campaign" (19 Maret 2026)
- Foreign Policy — "In Iran and Elsewhere, Deepfakes Are Shaping Views Around Conflicts" (17 Maret 2026)
- Euronews — "How Misinformation and AI Deepfakes on Social Media Are Reshaping the Iran War" (30 Maret 2026)
- TechPolicy.Press — "How AI Content Detection is Being Weaponized in the Iran War" (Maret 2026)
- Deadline Hollywood — "How AI-Powered Propaganda Is Shaping U.S.-Iran War" (Maret 2026)
- Rolling Stone — "The Latest Weapon in the Iran War Is AI-Generated Misinformation" (Maret 2026)
- EDMO / Factnameh — "The First AI War: How the Iran-Israel Conflict Became a Battlefield for Generative Misinformation"
- Erkan's Field Diary — "Disinformation and War Propaganda in the Iran-Israel-US War" (23 Maret 2026)
- USNI Proceedings — "China's Three Information Warfares"
- IEMed — "Gaza Infocide: Disinformation and New Narratives Wars"