ไมโครซอฟต์และนักวิจัย ai คู่แข่งรวมตัวหนุนแอนโทรปิกในศึกกฎหมายรุนแรงขึ้นกับเพนตากอน

ไมโครซอฟท์และนักวิจัยปัญญาประดิษฐ์คู่แข่งร่วมมือสนับสนุนแอนโธรปิกในการต่อสู้ทางกฎหมายที่ทวีความรุนแรงกับเพนตากอน

ในความเคลื่อนไลที่สะท้อนถึงความเป็นเอกภาพในวงการปัญญาประดิษฐ์ (AI) บริษัทไมโครซอฟท์ ซึ่งเป็นยักษ์ใหญ่ด้านเทคโนโลยี ได้ยื่นเอกสารสนับสนุน (amicus brief) ร่วมกับนักวิจัย AI ชั้นนำจากบริษัทคู่แข่ง เพื่อหนุนหลังบริษัทแอนโธรปิก (Anthropic) ในการฟ้องร้องกระทรวงกลาโหมสหรัฐอเมริกา (Department of Defense: DoD) กรณีปฏิเสธข้อเสนอประมูลสัญญารัฐบาลมูลค่าสูงถึง 1 พันล้านดอลลาร์สหรัฐ เพื่อพัฒนามาตรฐานความปลอดภัยของระบบ AI ขั้นสูง

ข้อพิพาทดังกล่าวเกิดขึ้นจากสัญญา “Responsible AI Testing” ภายใต้สำนักงานผู้บัญชาการดิจิทัลและ AI (Chief Digital and Artificial Intelligence Office: CDAO) ของเพนตากอน ซึ่งมีวัตถุประสงค์หลักในการสร้างห้องปฏิบัติการตรวจสอบและรับรอง AI (AI Assurance Lab) เพื่อทดสอบและประเมินความเสี่ยงของโมเดล AI ขนาดใหญ่ (frontier models) ที่มีความสามารถสูง โดยสัญญานี้มีมูลค่าสูงสุด 1 พันล้านดอลลาร์ตลอดระยะเวลา 5 ปี และคาดว่าจะช่วยเสริมสร้างความมั่นคงทางทหารของสหรัฐฯ ในยุค AI

แอนโธรปิก ซึ่งเป็นบริษัทสตาร์ทอัพ AI ที่เน้นด้านความปลอดภัยและพัฒนาโมเดล Claude ได้ยื่นข้อเสนอประมูลที่ครอบคลุมและมีศักยภาพสูง โดยอ้างว่าข้อเสนอของตนเหมาะสมที่สุดสำหรับภารกิจดังกล่าว อย่างไรก็ตาม เพนตากอนกลับปฏิเสธข้อเสนอของแอนโธรปิก โดยเลือกบริษัทสเกล AI (Scale AI) ซึ่งเป็นคู่แข่งในวงการพัฒนาข้อมูลสำหรับ AI แทน สเกล AI ได้รับสัญญาในเดือนกันยายน 2567 มูลค่าเริ่มต้น 100 ล้านดอลลาร์ โดยแอนโธรปิกฟ้องร้องต่อศาลรัฐบาลกลางวอชิงตัน ดี.ซี. เมื่อเดือนตุลาคม 2567 โดยอ้างว่าเพนตากอนละเมิดกฎหมายห้ามซื้อของรัฐ (Federal Acquisition Regulation: FAR) และกระบวนการประมูลที่ไม่เป็นธรรม รวมถึงการตัดสินใจที่ “ไร้เหตุผลและกะทันหัน” (arbitrary and capricious)

เอกสารสนับสนุนจากไมโครซอฟท์ซึ่งยื่นเมื่อวันที่ 13 พฤศจิกายน 2567 เน้นย้ำถึงความสำคัญเชิงยุทธศาสตร์ของสัญญานี้ โดยระบุว่า “การพัฒนามาตรฐานความปลอดภัย AI ที่มีประสิทธิภาพเป็นสิ่งจำเป็นสำหรับความมั่นคงแห่งชาติ” ไมโครซอฟท์ ซึ่งเป็นพันธมิตรใกล้ชิดกับ OpenAI ชี้ว่ากระบวนการประมูลของเพนตากอนขาดความโปร่งใสและอาจขัดขวางความก้าวหน้าของเทคโนโลยี AI ที่ปลอดภัย นอกจากนี้ บริษัทยังแสดงถึงความมุ่งมั่นในการส่งเสริมมาตรฐานสากลด้านความปลอดภัย AI แม้จะเป็นคู่แข่งกับแอนโธรปิกในตลาดโมเดลภาษาขนาดใหญ่

ที่น่าสนใจยิ่งกว่าคือ กลุ่มนักวิจัย AI ชั้นนำกว่า 20 คนจากองค์กรชั้นนำหลายแห่ง ได้ยื่นเอกสารสนับสนุนอีกชุดหนึ่งเมื่อวันเดียวกัน โดยรวมถึงอดีตพนักงาน OpenAI เช่น ดาเรน โจรี (Dario Amodei) ผู้ก่อตั้งแอนโธรปิก นักวิจัยจาก Google DeepMind, Meta AI, Cohere และสถาบันวิจัยอิสระ กลุ่มนี้ซึ่งประกอบด้วยผู้เชี่ยวชาญด้านความปลอดภัย AI โดยตรง ได้โต้แย้งว่าการตัดสินใจของเพนตากอนอาจส่งผลกระทบเชิงลบต่อการวิจัยความปลอดภัย AI ในวงกว้าง พวกเขาย้ำว่าข้อเสนอของแอนโธรปิกมีประสบการณ์และความเชี่ยวชาญที่เหนือกว่า โดยเฉพาะในด้านการทดสอบโมเดล AI ขั้นสูง ซึ่งสเกล AI ยังขาดความชำนาญในส่วนนี้

นักวิจัยเหล่านี้ชี้ให้เห็นว่า แอนโธรปิกมีประวัติการทำงานด้านความปลอดภัย AI ที่โดดเด่น เช่น การพัฒนา “Constitutional AI” ซึ่งเป็นกรอบการฝึกโมเดลให้ปฏิบัติตามหลักจริยธรรม และการมีส่วนร่วมในโครงการรัฐบาลอื่นๆ มาก่อน ในทางตรงกันข้าม สเกล AI เน้นที่การติดป้ายกำกับข้อมูล (data labeling) ซึ่งแม้จะสำคัญแต่ไม่ใช่ความเชี่ยวชาญหลักในด้านการรับรองความปลอดภัย AI กลุ่มนักวิจัยยังเตือนว่าการเลือกผู้รับผิดชอบสัญญาที่ไม่เหมาะสมอาจนำไปสู่ช่องโหว่ด้านความมั่นคง โดยเฉพาะในบริบทที่ AI กำลังกลายเป็นอาวุธยุทธศาสตร์

การรวมตัวของไมโครซอฟท์และนักวิจัยคู่แข่งนี้ ถือเป็นสัญญาณบ่งชี้ถึงความกังวลร่วมกันในอุตสาหกรรม AI เกี่ยวกับกระบวนการจัดซื้อจัดจ้างของรัฐบาลสหรัฐฯ ซึ่งอาจขัดขวางนวัตกรรมด้านความปลอดภัย ท่ามกลางการแข่งขันทางเทคโนโลยีกับจีนและชาติอื่นๆ เพนตากอนตอบโต้โดยยืนยันว่าการตัดสินใจเป็นไปตามกฎหมายและมุ่งเน้นประสิทธิภาพต้นทุน แต่คดีนี้ยังคงดำเนินต่อไป โดยศาลน่าจะพิจารณาคำร้องขอระงับสัญญากับสเกล AI ในเร็วๆ นี้

เหตุการณ์นี้ยังสะท้อนแนวโน้มที่กว้างขึ้นในวงการ AI ที่บริษัทและนักวิจัยเริ่มรวมพลังเพื่อผลักดันนโยบายสาธารณะ โดยเฉพาะด้านความปลอดภัยและการกำกับดูแล แม้แอนโธรปิกจะได้รับเงินทุนจาก Amazon และนักลงทุนอื่นๆ มูลค่ากว่า 8 พันล้านดอลลาร์ แต่การต่อสู้นี้แสดงให้เห็นถึงความมุ่งมั่นในการรักษามาตรฐานสูงสุดสำหรับเทคโนโลยีที่อาจเปลี่ยนแปลงโลก

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)