ความขัดแย้งระหว่างเพนตากอน โอเพ่นเอไอ และแอนทโธรปิก จุดยืนมาจากสามคำสำคัญ: “การใช้งานที่ถูกกฎหมายทั้งหมด”
ในวงการปัญญาประดิษฐ์ (AI) ที่กำลังเติบโตอย่างรวดเร็ว รัฐบาลสหรัฐฯ โดยเฉพาะกระทรวงกลาโหม (เพนตากอน) กำลังเผชิญความท้าทายในการเข้าถึงเทคโนโลยี AI ชั้นนำจากบริษัทเอกชน หลังจากที่เพนตากอนได้ลงนามในข้อตกลงกับ OpenAI และ Anthropic ซึ่งเป็นผู้พัฒนาโมเดลภาษาขนาดใหญ่ (LLM) ที่ทรงพลังที่สุดในตลาด กลับกลายเป็นว่ายังไม่สามารถนำ API ของ OpenAI มาใช้งานได้จริง เนื่องจากเงื่อนไขในข้อตกลงที่ระบุไว้อย่างชัดเจน สาเหตุหลักของความขัดแย้งนี้ สามารถสรุปได้ในสามคำสำคัญ คือ “all lawful use” หรือ “การใช้งานที่ถูกกฎหมายทั้งหมด”
พื้นหลังของข้อตกลงและข้อจำกัดด้านการใช้งาน
เพนตากอนได้ประกาศข้อตกลงกับ OpenAI เมื่อเดือนมิถุนายน โดยมุ่งเน้นการใช้งาน AI เพื่อภารกิจด้านการบริหารจัดการข้อมูลและการรักษาความปลอดภัยทางไซเบอร์ ในขณะที่ข้อตกลงกับ Anthropic เกิดขึ้นในเดือนพฤษภาคม เพื่อสนับสนุนการพัฒนา AI สำหรับหน่วยงานข่าวกรองของเพนตากอน เช่น กองบัญชาการกิจการข่าวกรองกลาโหม (DIA) และหน่วยไซเบอร์คอมแมนด์สหรัฐฯ (USCYBERCOM) ข้อตกลงเหล่านี้เป็นส่วนหนึ่งของกลยุทธ์ CDAO (Chief Digital and Artificial Intelligence Office) ซึ่งมีเป้าหมายในการนำ AI มาใช้เพื่อเพิ่มประสิทธิภาพการทำงานของกองทัพ
อย่างไรก็ตาม นิกole Petka ผู้อำนวยการอาวุโสด้านเทคโนโลยีสารสนเทศของเพนตากอน ได้กล่าวในการประชุมโฟรัมเทคโนโลยีของรัฐบาลกลาง เมื่อวันที่ 18 กันยายน ว่า แม้เพนตากอนจะลงนามข้อตกลงกับ OpenAI แล้ว แต่ก็ยังไม่สามารถใช้งาน API ของบริษัทได้ เนื่องจากข้อกำหนดในข้อตกลงของ OpenAI ห้ามการใช้งานทางทหาร ยกเว้นเฉพาะการใช้งานด้านเอกสารเท่านั้น Petka ยังชี้ให้เห็นถึงปัญหาเดียวกันกับ Anthropic ว่า ข้อตกลงยังไม่ชัดเจนพอที่จะนำไปปฏิบัติได้จริง
จุดศูนย์กลางของความขัดแย้ง: สามคำ “all lawful use”
หัวใจของปัญหาอยู่ที่วลี “all lawful use” ซึ่งปรากฏในข้อกำหนดการใช้งานของทั้ง OpenAI และ Anthropic OpenAI ได้ปรับเปลี่ยนนโยบายตั้งแต่ปีที่แล้ว โดยเดิมทีห้ามการใช้งานทางทหารโดยสิ้นเชิง แต่ต่อมาอนุญาตให้ใช้งานได้ หากเป็น “การใช้งานที่ถูกกฎหมายและไม่ก่อให้เกิดอันตรายต่อบุคคลหรือทรัพย์สิน” ในเอกสารข้อตกลงของ OpenAI ระบุชัดเจนว่า “คุณจะไม่ใช้ Output เพื่อพัฒนาโมเดลที่แข่งขันกับ OpenAI และต้องเป็นการใช้งานที่ถูกกฎหมายทั้งหมด”
ด้าน Anthropic ก็มีข้อกำหนดคล้ายคลึงกัน โดยห้ามการใช้งานที่เกี่ยวข้องกับอาวุธชีวภาพ เคมี นิวเคลียร์ หรือการละเมิดสิทธิมนุษยชน ข้อตกลงของทั้งสองบริษัทอนุญาตให้ผู้รับจ้างของรัฐบาลกลางสหรัฐฯ ใช้งานได้ หากเป็นงานภายใต้อาภาระผูกพันของรัฐบาลสหรัฐฯ และเป็นการใช้งานที่ถูกกฎหมาย
แต่ปัญหาคือ การตีความคำว่า “ถูกกฎหมาย” (lawful) ระหว่างเพนตากอนกับบริษัทเอกชนแตกต่างกัน เพนตากอนมองว่าภารกิจทางทหารทั้งหมดของตนเป็นไปตามกฎหมายสหรัฐฯ และสนธิสัญญาระหว่างประเทศ ในขณะที่ OpenAI และ Anthropic กังวลเกี่ยวกับการใช้งานที่อาจนำไปสู่การพัฒนาอาวุธอัตโนมัติที่คร่าชีวิต (lethal autonomous weapons) อาวุธไซเบอร์ หรือระบบเฝ้าระวังที่ละเมิดสิทธิส่วนบุคคล ตัวอย่างเช่น OpenAI ระบุในนโยบายว่าห้ามการใช้งานที่ “อาจก่อให้เกิดอันตรายต่อบุคคลหรือทรัพย์สิน” ซึ่งอาจตีความได้กว้างเกินไปสำหรับเพนตากอน
มุมมองจากผู้นำ CDAO และการตอบสนองจากบริษัท
Kathleen Hider ผู้อำนวยการ CDAO ได้แสดงความหงุดหงิดในการประชุมเดียวกัน โดยระบุว่า “เราต้องการใช้งานโมเดล AI ชั้นนำเหล่านี้ แต่ติดขัดเพราะข้อกำหนดที่คลุมเครือ” Hider เน้นย้ำถึงความจำเป็นในการเข้าถึงเทคโนโลยีจาก OpenAI และ Anthropic เพื่อแข่งขันกับจีน ซึ่งกำลังเร่งพัฒนา AI ทางทหารอย่างรวดเร็ว
OpenAI ได้ออกแถลงการณ์ชี้แจงว่า “เราอนุญาตให้ผู้รับจ้างที่ปฏิบัติงานให้รัฐบาลกลางสหรัฐฯ ภายใต้อาภาระผูกพันของรัฐบาล ใช้งานได้ หากเป็นการใช้งานที่ถูกกฎหมายและไม่ก่ออันตราย” บริษัทยังยกตัวอย่างการใช้งานที่อนุญาต เช่น การป้องกันภัยคุกคามทางไซเบอร์ การตรวจสอบข้อมูลข่าวกรอง และการบริหารจัดการโลจิสติกส์ทางทหาร Anthropic ก็ยืนยันจุดยืนคล้ายกัน โดยเน้นการใช้งานที่สอดคล้องกับค่านิยมของบริษัท
ผลกระทบและแนวโน้มในอนาคต
ความขัดแย้งนี้สะท้อนถึงความตึงเครียดระหว่างบริษัทเทคโนโลยีเอกชนที่ยึดมั่นในหลักจริยธรรม AI กับความต้องการทางทหารของรัฐบาล เพนตากอนได้หันไปพึ่งพา Microsoft ซึ่งเป็นพันธมิตรกับ OpenAI เพื่อใช้งาน Azure OpenAI Service ในระหว่างนี้ แต่ CDAO ยังคงผลักดันให้มีข้อตกลงที่ชัดเจนยิ่งขึ้น
หากไม่มีการแก้ไข “all lawful use” อาจกลายเป็นอุปสรรคสำคัญต่อการนำ AI มาใช้ในเพนตากอน ซึ่งอาจส่งผลกระทบต่อความสามารถในการแข่งขันทางเทคโนโลยีระดับโลก ผู้เชี่ยวชาญคาดการณ์ว่า การเจรจาระหว่างฝ่ายจะเข้มข้นขึ้น เพื่อกำหนดขอบเขตการใช้งานที่ชัดเจน โดยไม่ละเมิดหลักจริยธรรมของบริษัทเอกชน
นอกจากนี้ บริบททางกฎหมายยังสำคัญ โดยเพนตากอนอ้างถึงกฎหมายสหรัฐฯ เช่น National Defense Authorization Act (NDAA) ที่สนับสนุนการพัฒนา AI ทางทหาร ขณะที่บริษัทเอกชนยึดตามแนวปฏิบัติสากล เช่น Asilomar AI Principles ซึ่งห้าม AI ที่คร่าชีวิตโดยตรง
สรุปประเด็นสำคัญ
ความขัดแย้งระหว่างเพนตากอน OpenAI และ Anthropic ไม่ใช่เรื่องเทคโนโลยี แต่เป็นเรื่องการตีความสามคำ “all lawful use” ที่อาจกำหนดอนาคตของการร่วมมือระหว่างรัฐบาลและเอกชนในยุค AI การแก้ไขปัญหานี้จะช่วยให้เพนตากอนเข้าถึงเครื่องมือ AI ชั้นนำ ส่งเสริมความมั่นคงแห่งชาติ โดยไม่ขัดแย้งกับหลักจริยธรรมทางธุรกิจ
(จำนวนคำประมาณ 750 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)