AI กำลังเปลี่ยนความขัดแย้งระหว่างอิสราเอลและอิหร่านให้กลายเป็นละครเวทีอย่างไร
ในช่วงหลายเดือนที่ผ่านมา ความขัดแย้งเงียบงันระหว่างอิสราเอลและอิหร่านได้ทวีความรุนแรงขึ้น โดยทั้งสองฝ่ายต่างโจมตีโครงสร้างพื้นฐานทางทหารและนิวเคลียร์ของกันและกัน อย่างไรก็ตาม สิ่งที่ทำให้สถานการณ์นี้แตกต่างจากสงครามในอดีตคือ การปรากฏตัวของปัญญาประดิษฐ์ (AI) ที่กำลังเปลี่ยนสมรภูมิให้กลายเป็นเวทีละคร โดยเฉพาะอย่างยิ่งผ่านวิดีโอที่สร้างโดย AI ซึ่งมีความสมจริงสูงจนยากที่จะแยกแยะระหว่างของจริงและของปลอม
ตั้งแต่เดือนตุลาคมปี 2023 เป็นต้นมา โซเชียลมีเดียได้เต็มไปด้วยวิดีโอที่อ้างว่าจับภาพการโจมตีด้วยขีปนาวุธของอิหร่านต่ออิสราเอล หรือการตอบโต้ด้วยโดรนของอิสราเอลต่ออิหร่าน ตัวอย่างเช่น วิดีโอที่แสดงภาพขีปนาวุธอิหร่านพุ่งเข้าหาโรงกลั่นน้ำมันในฮ่าฟฟา เมืองท่าของอิสราเอล หรือภาพระเบิดขนาดใหญ่ที่ฐานทัพอากาศ Nevatim ของอิสราเอล วิดีโอเหล่านี้แพร่กระจายอย่างรวดเร็วบนแพลตฟอร์มอย่าง X (อดีต Twitter) และ Telegram โดยมียอดวิวหลายล้านครั้ง
แต่ความจริงแล้ว วิดีโอส่วนใหญ่เหล่านี้ถูกสร้างขึ้นโดย AI นักวิจัยจากองค์กรข่าวจริงต้องตรวจสอบอย่างละเอียด เช่น ทีมจาก NewsGuard พบว่าอย่างน้อย 4 ใน 10 วิดีโอที่แพร่กระจายมากที่สุดเกี่ยวกับการโจมตีของอิหร่านเมื่อเดือนเมษายน 2024 เป็นของปลอมทั้งหมด วิดีโอเหล่านี้ใช้เครื่องมือ AI เช่น Midjourney หรือ Kling เพื่อสร้างภาพเคลื่อนไหวที่สมจริง โดยอาศัยภาพถ่ายจริงจากเหตุการณ์ในอดีต เช่น การโจมตีของฮูติในเยเมนต่อเรือสินค้าในทะเลแดง หรือภาพระเบิดในซีเรีย แล้วนำมาผสมผสานด้วยเอฟเฟกต์พิเศษ
Drew Harwell นักข่าวเทคโนโลยีจาก The Washington Post กล่าวว่า “AI กำลังทำให้สงครามนี้กลายเป็นละคร” เขาชี้ให้เห็นว่าวิดีโอเหล่านี้ไม่เพียงหลอกลวงผู้ชมทั่วไป แต่ยังถูกใช้เป็นเครื่องมือโฆษณาชวนเชื่อโดยกลุ่มติดอาวุธและรัฐบาลในภูมิภาค การตรวจสอบวิดีโอปลอมหนึ่งชิ้นที่อ้างว่าเป็นการโจมตีโรงกลั่นน้ำมันฮ่าฟฟา พบว่าภาพพื้นหลังมาจากวิดีโอ YouTube เก่าเกี่ยวกับการทดสอบขีปนาวุธของอิหร่านในทะเลทราย ขณะที่เอฟเฟกต์ควันและการระเบิดถูกสร้างโดย AI ทำให้ดูสมจริงยิ่งขึ้น
ปัญหาคือ ความสมจริงของวิดีโอ AI เหล่านี้เพิ่มขึ้นอย่างรวดเร็ว เครื่องมืออย่าง OpenAI’s Sora หรือวิดีโอเจเนอเรเตอร์จากจีน เช่น Kling สามารถสร้างคลิปความยาว 5-10 วินาทีที่ดูเหมือนถ่ายด้วยกล้องจริง โดยมีรายละเอียดเช่น การสะท้อนแสง ควันที่ลอยตัวตามฟิสิกส์ และแม้กระทั่งเสียงระเบิดที่ซิงค์กับภาพ ผู้เชี่ยวชาญด้าน deepfake อย่าง Siwei Lyu จากมหาวิทยาลัยบัฟฟาโล ระบุว่า “การตรวจสอบวิดีโอเหล่านี้ยากขึ้นทุกวัน เพราะ AI เรียนรู้ที่จะเลียนแบบความไม่สมบูรณ์ของวิดีโอจริง เช่น ความสั่นไหวของกล้องหรือ artifacts จากการบีบอัด”
ในบริบทของความขัดแย้งอิสราเอล-อิหร่าน สิ่งนี้ส่งผลกระทบต่อการรับรู้ของสาธารณชนอย่างมาก ชาวอิสราเอลและชาวเปอร์เซียต่างแบ่งปันวิดีโอเหล่านี้เพื่อยืนยันชัยชนะของฝ่ายตน สร้างความแตกแยกและความหวาดกลัวโดยไม่ต้องมีผู้เสียชีวิตจริง รายงานจาก Atlantic Council ชี้ว่า ในช่วงการโจมตีใหญ่ของอิหร่านต่ออิสราเอลเมื่อเดือนเมษายน มี deepfake เกี่ยวกับอิสราเอลมากกว่า 50 ชิ้นที่แพร่กระจายบน Telegram และวิดีโอเหล่านี้มียอดแชร์รวมกว่า 100 ล้านครั้ง
รัฐบาลและแพลตฟอร์มโซเชียลมีเดียพยายามรับมือโดยการติดป้าย “AI-generated” หรือลบเนื้อหาปลอม แต่ประสิทธิภาพยังจำกัด Meta และ X ใช้เครื่องมือตรวจจับ AI แต่พบปัญหาเพราะวิดีโอใหม่ๆ หลบเลี่ยงได้ง่าย นอกจากนี้ บัญชีที่โพสต์เนื้อหาเหล่านี้มักเชื่อมโยงกับเครือข่ายโฆษณาชวนเชื่อของอิหร่าน รัสเซีย หรือกลุ่มฮามาส
ผู้เชี่ยวชาญเตือนว่า สถานการณ์นี้อาจนำไปสู่ “สงครามข้อมูล” ที่แท้จริง Hany Farid จาก UC Berkeley กล่าวว่า “เมื่อผู้คนไม่เชื่อวิดีโอใดๆ อีกต่อไป ข้อมูลจริงก็สูญเสียความน่าเชื่อถือเช่นกัน” ในขณะที่อิสราเอลใช้ AI เพื่อวิเคราะห์วิดีโอข่าวกรอง อิหร่านถูกกล่าวหาว่าใช้ AI สร้างวิดีโอปลอมเพื่อบ่อนทำลายขวัญกำลังใจของอิสราเอล
ตัวอย่างเด่นคือ วิดีโอที่อ้างว่าแสดงการโจมตีฐานทัพ Nevatim ซึ่งอิสราเอลยืนยันว่าเป็นของปลอมเพราะขีปนาวุธในวิดีโอมีลำตัวยาวเกินจริงและไม่มีร่องรอยความเสียหายจริง นอกจากนี้ยังมีวิดีโอปลอมที่แสดงเรือบรรทุกเครื่องบิน USS Dwight D. Eisenhower ถูกโจมตีในทะเลเมดิเตอร์เรเนียน ซึ่งใช้ภาพจากเหตุการณ์เก่าในปี 2021 แล้วเพิ่มเอฟเฟกต์ AI
ในที่สุด AI ไม่เพียงทำให้ความขัดแย้งนี้ดูเหมือนละคร แต่ยังเพิ่มความเสี่ยงต่อการยกระดับจริง เพราะผู้นำอาจตอบโต้ต่อ “ข่าวปลอม” ที่ดูน่าเชื่อถือ สถานการณ์นี้สะท้อนถึงอนาคตของสงครามสมัยใหม่ ที่ซึ่งอาวุธที่ทรงพลังที่สุดไม่ใช่ขีปนาวุธ แต่เป็นอัลกอริทึมที่สร้างภาพลวงตา
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)