เจ้าหน้าที่กลาโหมเผย วิธีที่แชทบอท ai อาจถูกใช้ตัดสินใจกำหนดเป้าหมาย

เจ้าหน้านักบินทัศนาจรกลาโหมสหรัฐฯ เผยกองทัพใช้แชทบอท AI ช่วยตัดสินใจกำหนดเป้าหมายทางทหาร

ในงานสัมมนาวิชาการด้านปัญญาประดิษฐ์ (AI) และความมั่นคงแห่งชาติ จัดขึ้นโดยสถาบันเทคโนโลยีแมสซาชูเซตส์ (MIT) เมื่อเร็วๆ นี้ เจ้าหน้าที่ระดับสูงจากกระทรวงกลาโหมสหรัฐอเมริกา ได้เปิดเผยข้อมูลสำคัญเกี่ยวกับการนำเทคโนโลยีแชทบอทที่ขับเคลื่อนด้วย AI มาใช้ในการตัดสินใจกำหนดเป้าหมายทางทหาร โดยระบุว่ากองทัพสหรัฐฯ กำลังทดลองใช้งานระบบดังกล่าวในสถานการณ์จริง เพื่อเพิ่มประสิทธิภาพในการรบสมัยใหม่

นายวิลเลียม ลาเพล (William LaPlante) ผู้ช่วยรัฐมนตรีกระทรวงกลาโหมสหรัฐฯ ฝ่ายจัดหาอาวุธและการบำรุงรักษา ซึ่งรับผิดชอบโครงการพัฒนาเทคโนโลยีทหารหลัก ได้กล่าวในการเสวนาเรื่อง “AI ในสนามรบ: โอกาสและความเสี่ยง” ว่า “เรากำลังใช้แชทบอท AI เพื่อช่วยเหลือมนุษย์ในการตัดสินใจเลือกเป้าหมาย โดยเฉพาะในสงครามที่ใช้โดรนจำนวนมาก เช่น สถานการณ์ในยูเครน” เขาย้ำว่าการใช้งานนี้ยังอยู่ในขั้นทดสอบเบื้องต้น โดย AI จะทำหน้าที่วิเคราะห์ข้อมูลจำนวนมหาศาลจากเซ็นเซอร์ ภาพถ่ายดาวเทียม และวิดีโอจากโดรน เพื่อเสนอคำแนะนำเบื้องต้นแก่เจ้าหน้าที่มนุษย์ ซึ่งจะเป็นผู้ตัดสินใจขั้นสุดท้าย

การเปิดเผยครั้งนี้เกิดขึ้นท่ามกลางกระแสวิพากษ์วิจารณ์จากนักวิชาการและองค์กรสิทธิมนุษยชนที่กังวลเกี่ยวกับความเสี่ยงของ “การฆ่าอัตโนมัติ” (Lethal Autonomous Weapons) หรือที่รู้จักในชื่อ “เครื่องจักรสังหาร” นายลาเพลยอมรับว่า AI ยังมีข้อจำกัด เช่น การรับรู้บริบทที่ซับซ้อน การแยกแยะระหว่างเป้าหมายทางทหารและพลเรือน และความเสี่ยงจากข้อมูลที่ไม่ถูกต้อง (hallucinations) ซึ่งเป็นปัญหาที่พบบ่อยในโมเดลภาษาขนาดใหญ่ (Large Language Models: LLMs) อย่าง ChatGPT หรือ Gemini เขาเน้นย้ำว่า “มนุษย์ต้องอยู่ในวงจรการตัดสินใจเสมอ AI เป็นเพียงผู้ช่วย ไม่ใช่ผู้ตัดสิน”

โครงการที่เกี่ยวข้องโดยตรงคือ “Replicator” ซึ่งเป็นแผนยุทธศาสตร์ของเพนตากอนมูลค่า 1 พันล้านดอลลาร์สหรัฐ เพื่อผลิตโดรนราคาถูกจำนวนนับหมื่นลำภายใน 18-24 เดือน โดยใช้ AI ควบคุมการนำทางและกำหนดเป้าหมาย นายลาเพลระบุว่า แชทบอท AI จะช่วยลดเวลาจากชั่วโมงเหลือเพียงไม่กี่นาทีในการประมวลผลข้อมูลจากโดรนหลายร้อยลำ ซึ่งเป็นสิ่งจำเป็นในสงครามแบบ “swarm” หรือฝูงโดรนที่โจมตีพร้อมกัน ตัวอย่างที่ชัดเจนคือการใช้งานในยูเครน ซึ่งทั้งสองฝ่ายใช้โดรน FPV (First-Person View) กว่า 100 ลำต่อวัน โดย AI ช่วยระบุเป้าหมายจากภาพวิดีโอเรียลไทม์

อย่างไรก็ตาม ผู้เชี่ยวชาญหลายรายแสดงความกังวล นางแพทริเซีย ลูอิส (Patricia Lewis) จากสถาบันสต็อกโฮล์มเพื่อการวิจัยปัญหาสันติภาพ (SIPRI) กล่าวว่า “การใช้ AI ใน targeting อาจนำไปสู่ความผิดพลาดที่ร้ายแรง หากระบบตีความข้อมูลผิดพลาด เช่น สับสนระหว่างพลเรือนกับทหาร” ขณะที่ ดร.แจ็ค คลาร์ก (Jack Clark) ผู้ร่วมก่อตั้ง Anthropic ซึ่งพัฒนาโมเดล AI Claude ระบุว่า “LLMs ไม่เหมาะสำหรับงานที่ต้องการความแม่นยำ 100% เพราะอาจสร้างข้อมูลเท็จ” เขาแนะนำให้ใช้ AI เฉพาะทาง (narrow AI) ที่ฝึกฝนมาสำหรับงานทหารโดยเฉพาะ แทนโมเดลทั่วไป

กระทรวงกลาโหมสหรัฐฯ มีนโยบายชัดเจนภายใต้ “Directive 3000.09” ซึ่งห้ามการใช้ระบบอาวุธอัตโนมัติที่ฆ่ามนุษย์โดยไม่ผ่านมนุษย์ และเพิ่งประกาศ “Responsible AI Strategy” ในปี 2566 เพื่อกำกับดูแลการพัฒนา นายลาเพลยืนยันว่ากองทัพได้จัดตั้งหน่วยงาน “Chief Digital and AI Officer” (CDAO) เพื่อตรวจสอบทุกโครงการ โดยใช้หลัก “human in the loop” และ “human on the loop” เพื่อให้มนุษย์ควบคุมหรือกำกับการทำงานของ AI เสมอ

นอกจากนี้ ยังมีการพัฒนาเครื่องมือ AI อื่นๆ เช่น “Maven Smart System” ซึ่งใช้มาตั้งแต่ปี 2561 เพื่อช่วยนักวิเคราะห์ภาพจากโดรนในตะวันออกกลาง โดยลดเวลาประมวลผลจาก 18 ชั่วโมงเหลือไม่กี่นาที Maven ได้รับการพัฒนาร่วมกับ Google แต่ Google ถอนตัวในปี 2562 เนื่องจากพนักงานประท้วง ปัจจุบันเพนตากอนหันไปใช้บริการคลาวด์จาก Microsoft Azure และ Amazon Web Services ซึ่งรวมถึงโมเดล AI จาก OpenAI และ Anthropic

การแข่งขันทางเทคโนโลยีทหารกำลังรุนแรงขึ้น โดยจีนประกาศใช้ AI ในโดรนและระบบป้องกันภัยทางอากาศ ขณะที่รัสเซียใช้ AI ในสงครามยูเครน นายลาเพลเตือนว่า “หากสหรัฐฯ ชะลอ สหประชาชาติอาจถูกทิ้งไว้ข้างหลัง” แต่เขาย้ำถึงความจำเป็นในการกำกับดูแล เพื่อป้องกันการแพร่ขยายอาวุธ AI ไปยังกลุ่มติดอาวุธหรือรัฐที่ไม่มั่นคง

ในบริบทธุรกิจ การพัฒนา AI ทางทหารได้สร้างโอกาสมหาศาลให้บริษัทเทคโนโลยี โดย Palantir Technologies และ Anduril Industries ได้รับสัญญาจากเพนตากอนมูลค่าหลายร้อยล้านดอลลาร์ Palantir ใช้แพลตฟอร์ม Gotham สำหรับการวิเคราะห์ข้อมูลทหาร ขณะที่ Anduril พัฒนาโดรน Lattice ซึ่งรวม AI สำหรับ targeting สัญญาณบ่งชี้ว่าตลาด AI ทางทหารทั่วโลกจะเติบโตจาก 8.7 พันล้านดอลลาร์ในปี 2566 เป็น 38 พันล้านดอลลาร์ในปี 2573 ตามรายงานของ MarketsandMarkets

สรุปแล้ว การนำแชทบอท AI มาใช้ใน targeting ทางทหารของสหรัฐฯ แสดงถึงการเปลี่ยนผ่านสู่สงครามอัจฉริยะ แต่ต้องอาศัยการกำกับดูแลที่เข้มงวดเพื่อรักษาความรับผิดชอบทางจริยธรรมและมนุษยธรรม นักลงทุนและผู้ประกอบการในอุตสาหกรรมเทคโนโลยีควรจับตาการพัฒนานี้อย่างใกล้ชิด เนื่องจากจะกำหนดทิศทางของอุตสาหกรรมกลาโหมในทศวรรษหน้า

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)