พันธมิตรกลาโหมสหรัฐวางแผนให้บริษัทปัญญาประดิษฐ์ฝึกโมเดลด้วยข้อมูลลับ เจ้าหน้าที่กลาโหมระบุ
กระทรวงกลาโหมสหรัฐ (DoD) กำลังวางแผนที่จะอนุญาตให้บริษัทพัฒนาปัญญาประดิษฐ์ (AI) เข้าถึงและฝึกโมเดล AI ด้วยข้อมูลลับของรัฐบาล เพื่อเร่งพัฒนาความสามารถทางทหารในยุค AI โดยเจ้าหน้าที่ระดับสูงของกระทรวงกลาโหมยืนยันในที่ประชุมเมื่อเร็ว ๆ นี้
ในงานสัมมนา “AI Expo for National Competitiveness” ซึ่งจัดขึ้นที่กรุงวอชิงตัน ดี.ซี. เมื่อวันที่ 17 มีนาคม 2569 นายเคน ซิมส์ รองประธานเจ้าหน้าที่สารสนเทศ (CIO) ของกระทรวงกลาโหม กล่าวว่า “เรากำลังมุ่งสู่การพัฒนาโปรโตไทป์ข้อตกลงกับบริษัทเอกชน เพื่อให้พวกเขาสามารถฝึกโมเดล AI ด้วยข้อมูลลับของรัฐบาล” การเคลื่อนไหวนี้เป็นส่วนหนึ่งของกลยุทธ์ที่กว้างขึ้นในการผสานรวมเทคโนโลยี AI เข้ากับภารกิจทางทหาร โดยมุ่งเน้นการแข่งขันกับคู่แข่งอย่างจีนที่กำลังเร่งพัฒนา AI สำหรับการทหาร
ซิมส์ ซึ่งรับผิดชอบด้านเทคโนโลยีสารสนเทศและ AI ของกระทรวงกลาโหม เน้นย้ำถึงความจำเป็นในการแบ่งปันข้อมูลลับกับภาคเอกชน เนื่องจากบริษัท AI ชั้นนำ เช่น OpenAI, Anthropic และ xAI ล้วนมีบุคลากรและโครงสร้างพื้นฐานที่ได้รับการรับรองด้านความมั่นคง (cleared personnel) เพิ่มขึ้นอย่างรวดเร็ว “บริษัทเหล่านี้กำลังสร้างทีมงานที่ได้รับการรับรองจำนวนมากขึ้น เพื่อรองรับการทำงานกับข้อมูลลับ” เขากล่าว โดยชี้ให้เห็นว่าการฝึกโมเดล AI ด้วยข้อมูลที่ไม่ลับเพียงอย่างเดียวอาจไม่เพียงพอสำหรับการใช้งานทางทหารที่ซับซ้อน เช่น การวิเคราะห์ข้อมูลข่าวกรองหรือการตัดสินใจในสนามรบ
นโยบายนี้เป็นไปตามคำสั่งของประธานาธิบดีโจ ไบเดน ในปี 2566 ที่กำหนดให้กระทรวงกลาโหมต้องพัฒนา “ระบบ AI ที่ปลอดภัยและเชื่อถือได้” ภายในปี 2570 โดยมีงบประมาณกว่า 1.8 พันล้านดอลลาร์สหรัฐสำหรับโครงการ AI ในปีงบประมาณ 2569 นอกจากนี้ สำนักงานนวัตกรรมกลาโหม (DIO) ยังได้ลงนามข้อตกลงกับบริษัทอย่าง Palantir Technologies และ Anduril Industries เพื่อพัฒนา AI สำหรับการใช้งานจริงในโครงการทดสอบ เช่น การใช้โดรนอัตโนมัติและระบบป้องกันภัยทางอากาศ
อย่างไรก็ตาม การแบ่งปันข้อมูลลับกับบริษัทเอกชนยังเผชิญอุปสรรคหลายประการ ประการแรก คือกระบวนการรับรองความมั่นคง (security clearance) ซึ่งใช้เวลานานถึง 18 เดือนต่อบุคคล และต้องขยายให้ครอบคลุมวิศวกร AI นับพันคน ประการที่สอง คือความกังวลด้านความปลอดภัยข้อมูล เนื่องจากโมเดล AI ขนาดใหญ่ (foundation models) อาจ “จดจำ” ข้อมูลลับและเปิดเผยผ่านการตอบสนองที่ไม่คาดคิด นายเดวิด แมคไกวร์ ผู้เชี่ยวชาญด้านนโยบายกลาโหมจาก Project on Government Oversight กล่าวว่า “การฝึกโมเดลด้วยข้อมูลลับอาจนำไปสู่ความเสี่ยงที่ข้อมูลหลุดรอดไปยังบุคคลที่สาม หากบริษัทเหล่านี้มีพนักงานต่างชาติหรือพันธมิตรต่างประเทศ”
เพื่อบรรเทาความเสี่ยง กระทรวงกลาโหมกำลังพัฒนา “สัญญาโปรโตไทป์” ที่กำหนดให้บริษัทต้องปฏิบัติตามมาตรฐานความมั่นคงที่เข้มงวด เช่น การใช้ “ข้อมูลสังเคราะห์” (synthetic data) เพื่อจำลองสถานการณ์ลับโดยไม่เปิดเผยข้อมูลจริง และการติดตั้งระบบตรวจสอบโมเดล AI เพื่อป้องกันการรั่วไหล นอกจากนี้ DoD ยังร่วมมือกับหน่วยงานข่าวกรอง เช่น NSA เพื่อกำหนดแนวทาง “ข้อมูลลับที่เหมาะสมสำหรับ AI” (classification-appropriate data)
ตัวอย่างโครงการที่กำลังดำเนินการ ได้แก่ การทดสอบโมเดล AI ของ Palantir ในระบบ Maven ซึ่งเป็นแพลตฟอร์มวิเคราะห์ภาพถ่ายดาวเทียมทางทหาร โดยใช้ข้อมูลลับระดับ Top Secret นอกจากนี้ Microsoft ซึ่งเป็นพันธมิตรหลักของ DoD ยังได้ขยาย Azure Government Cloud เพื่อรองรับการฝึก AI ด้วยข้อมูลลับ โดยมีพนักงานที่ได้รับการรับรองกว่า 5,000 คน
ผู้เชี่ยวชาญเห็นด้วยว่าการเคลื่อนไหวนี้จำเป็นเพื่อรักษาความได้เปรียบทางทหาร แต่ต้องระมัดระวัง นายเจค ชไนเดอร์ นักวิจัยจาก Center for a New American Security กล่าวว่า “DoD ต้องสร้างสมดุลระหว่างนวัตกรรมกับความมั่นคง หากไม่ทำ เราอาจตามหลังจีนที่ไม่มีข้อจำกัดด้านข้อมูลลับ” จีนถูกกล่าวหาว่ากำลังฝึกโมเดล AI ด้วยข้อมูลทหารจำนวนมหาศาลผ่านบริษัทอย่าง Baidu และ Huawei
ในที่สุด ซิมส์ยืนยันว่ากระทรวงกลาโหมจะเริ่มทดสอบโปรโตไทป์ข้อตกลงกับบริษัท AI ชั้นนำภายในสิ้นปี 2569 โดยคาดว่าจะนำไปสู่การใช้งานจริงในปีถัดมา การริเริ่มนี้สะท้อนถึงการเปลี่ยนแปลงครั้งใหญ่ในนโยบายกลาโหมสหรัฐ ที่มุ่งผสานภาคเอกชนเข้ากับระบบข้อมูลลับ เพื่อเผชิญหน้ากับภัยคุกคามในยุค AI
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)