โอเพ่นเอไอ ยอมประนีประนอมกับเพนตากอน สิ่งที่แอนทโธปิกหวาดกลัว
บริษัทโอเพ่นเอไอ (OpenAI) ได้ตัดสินใจผ่อนปรนข้อห้ามการใช้งานทางทหารที่เคยกำหนดไว้ตั้งแต่แรกเริ่ม โดยล่าสุดได้ทำข้อตกลงกับเพนตากอน (Pentagon) กระทรวงกลาโหมสหรัฐอเมริกา เพื่อพัฒนาซอฟต์แวร์ที่ใช้ปัญญาประดิษฐ์ (AI) สำหรับโดรนตรวจการณ์ชายแดน ซึ่งเป็นความร่วมมือที่ก่อให้เกิดความกังวลอย่างมากในวงการ โดยเฉพาะอย่างยิ่งสำหรับบริษัทแอนทโธปิก (Anthropic) ผู้ก่อตั้งซึ่งเคยเตือนถึงความเสี่ยงนี้มานาน
ข้อตกลงดังกล่าวเกิดขึ้นผ่านบริษัทแอนดูริล (Anduril) ผู้พัฒนาโดรนและระบบป้องกันชายแดน ซึ่งจะนำโมเดลภาษาขนาดใหญ่ของโอเพ่นเอไอ เช่น GPT-4o ไปใช้ในการวิเคราะห์วิดีโอจากโดรน เพื่อช่วยเจ้าหน้าที่กักกันชายแดนในการตรวจจับผู้บุกรุก นอกจากนี้ แอนดูริลยังวางแผนพัฒนาซอฟต์แวร์ใหม่โดยใช้โมเดลโอเพ่นเอไอ เพื่อเพิ่มประสิทธิภาพในการตรวจสอบข้อมูลจากโดรนขนาดเล็กที่ใช้ในการลาดตระเวนชายแดนเม็กซิโก สิ่งนี้ถือเป็นการเข้าร่วมกับหน่วยงานทหารสหรัฐอย่างเป็นทางการครั้งแรกของโอเพ่นเอไอ แม้จะอ้างว่าไม่เกี่ยวข้องกับการใช้อาวุธที่อาจก่อให้เกิดความเสียหายแก่ชีวิตมนุษย์
การเปลี่ยนแปลงนโยบายนี้เกิดขึ้นหลังจากโอเพ่นเอไอประกาศยกเลิกข้อห้ามการใช้งานทางทหารในเดือนมกราคม โดยปรับข้อกำหนดใหม่ให้อนุญาตการใช้งานที่ “ไม่มุ่งหมายให้เกิดอันตรายแก่บุคคล” ซึ่งรวมถึงการป้องกันภัยคุกคาม การรักษาความมั่นคงทางไซเบอร์ และการตรวจการณ์ทางทหาร สตีฟนี่ อีสแมน (Stéfanie Eisman) ผู้จัดการฝ่ายนโยบายรัฐบาลของโอเพ่นเอไอ ระบุว่า “เราต้องการช่วยเหลือผู้ที่ปกป้องชีวิตผู้คน” โดยยกตัวอย่างการใช้งานที่คล้ายคลึงกัน เช่น การใช้ AI ในระบบตรวจจับระเบิดของกองทัพสหรัฐ ซึ่งช่วยลดอันตรายให้กับทหารในสนามรบ
อย่างไรก็ตาม การเคลื่อนไหวนี้อาจเป็นสิ่งที่ดาริโอ อาโมเดอี (Dario Amodei) ผู้ร่วมก่อตั้งและซีอีโอของแอนทโธปิก กลัวมาตลอด อาโมเดอีซึ่งเคยเป็นหัวหน้าฝ่ายความปลอดภัยของโอเพ่นเอไอ ได้ลาออกพร้อมทีมนักวิจัยอีก 10 คนในปี 2564 เพื่อก่อตั้งแอนทโธปิก โดยมีจุดยืนชัดเจนในการหลีกเลี่ยงการใช้งานทางทหาร ในจดหมายลาออก เขาเตือนว่า “หากคุณรับเงิน 10 พันล้านดอลลาร์จากไมโครซอฟท์ (Microsoft) คุณจะจบลงด้วยการทำงานให้กองทัพ” คำพูดนี้ดูเหมือนจะกลายเป็นจริง หลังจากโอเพ่นเอไอรับเงินลงทุนมหาศาลจากไมโครซอฟท์ ซึ่งนำไปสู่การเปลี่ยนแปลงจากองค์กรไม่แสวงหาผไร้กำไร สู่โครงสร้างบริษัททุนจำกัดกำไรในปี 2565
แอนทโธปิกยึดมั่นในหลักการ “ไม่ใช้งานทางทหาร” อย่างเคร่งครัด โดยปฏิเสธข้อเสนอจากเพนตากอนหลายครั้ง แม้จะได้รับเงินสนับสนุนจากกองทุนความมั่นคงแห่งชาติของสหรัฐ (National Security Fund) ซึ่งลงทุนในแอนดูริลและบริษัทป้องกันอื่นๆ ก็ตาม อาโมเดอีเคยกล่าวในสัมภาษณ์ปี 2566 ว่า “เราจะไม่ขายให้กองทัพ ไม่ว่าจะของฝ่ายใด” โดยเน้นย้ำถึงความเสี่ยงจากการแข่งขันทางทหารระหว่างสหรัฐและจีน ซึ่งอาจนำไปสู่การแข่งขันด้าน AI ที่ไม่ปลอดภัย
ผู้เชี่ยวชาญมองว่าการตัดสินใจของโอเพ่นเอไอสะท้อนถึงแรงกดดันจากบริบททางภูมิรัฐศาสตร์ โดยเฉพาะความกังวลต่อจีนที่กำลังพัฒนา AI ทางทหารอย่างรวดเร็ว แซม อัลต์แมน (Sam Altman) ซีอีโอของโอเพ่นเอไอ ยืนยันว่า “ไม่มีบริษัท AI ใดที่สามารถหลีกเลี่ยงการใช้งานทางทหารได้ในระยะยาว” และบริษัทของเขากำลังเจรจากับรัฐบาลสหรัฐเพื่อกำหนดมาตรฐานความปลอดภัย นักวิเคราะห์อย่างเจคอบ เฮลเลอร์ (Jacob Heilmann) จากแอนดูริล ระบุว่า ข้อตกลงนี้ช่วยให้โดรนสามารถประมวลผลข้อมูลวิดีโอได้ทันที แทนการส่งข้อมูลไปยังศูนย์กลาง ซึ่งเพิ่มประสิทธิภาพในการตรวจการณ์ชายแดน
ด้านแอนทโธปิก แม้จะเติบโตอย่างรวดเร็วด้วยโมเดล Claude แต่ยังคงยึดมั่นในพันธกิจด้านความปลอดภัย โดยได้รับเงินลงทุนจากอเมซอน (Amazon) 4 พันล้านดอลลาร์ในปีที่แล้ว อย่างไรก็ตาม ผู้เชี่ยวชาญบางราย เช่น เกลน วัยน์ (Glenn Weyl) จากอัครอน研究所 (AEI) เตือนว่า การแยกทางทหารออกจาก AI อาจเป็นไปไม่ได้ในโลกที่การแข่งขันระหว่างชาติมหาอำนาจกำลังรุนแรงขึ้น
การประนีประนอมของโอเพ่นเอไอครั้งนี้ไม่เพียงเปลี่ยนโฉมนโยบายของบริษัท แต่ยังจุดประกายการถกเถียงใหม่เกี่ยวกับบทบาทของ AI ในความมั่นคงแห่งชาติ ขณะที่แอนทโธปิกยังคงยืนหยัดในจุดยืนดั้งเดิม ความขัดแย้งนี้สะท้อนถึงความแตกแยกในวงการ AI ระหว่างผู้ที่มุ่งเน้นกำไรและการใช้งานจริง กับผู้ที่ให้ความสำคัญกับความปลอดภัยสูงสุด
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)