แอนโทรปิกยืนกรานปฏิเสธข้อเสนอจากเพนตากอนในประเด็นอาวุธอัตโนมัติและการเฝ้าระวังหมู่ ขณะที่กำหนดเวลาสิ้นสุดใกล้เข้ามา
บริษัทแอนโทรปิก (Anthropic) ผู้พัฒนาโมเดลปัญญาประดิษฐ์ Claude ได้ยืนยันจุดยืนอันหนักแน่นในการปฏิเสธการพัฒนาอาวุธอัตโนมัติหรือระบบที่เอื้อต่อการเฝ้าระวังหมู่ แม้จะเผชิญกับเส้นตายของสัญญาจากกระทรวงกลาโหมสหรัฐอเมริกา (Pentagon) ที่กำลังใกล้เข้ามา โดยบริษัทได้เผยแพร่บทความบนบล็อกอย่างเป็นทางการ เพื่ออธิบายรายละเอียดการเจรจากับหน่วยงานรัฐบาลสหรัฐฯ โดยเฉพาะสำนักประจำอธิบดีฝ่ายดิจิทัลและปัญญาประดิษฐ์ของกระทรวงกลาโหม (Chief Digital and Artificial Intelligence Office: CDAO)
ในช่วงต้นปี บริษัทแอนโทรปิกได้รับข้อเสนอเบื้องต้นจาก CDAO เพื่อร่วมพัฒนาเทคโนโลยีปัญญาประดิษฐ์สำหรับภารกิจทางทหาร ทีมงานของแอนโทรปิกได้ประเมินข้อเสนอดังกล่าวตามนโยบายการขยายขนาดอย่างรับผิดชอบ (Responsible Scaling Policy: RSP) ซึ่งเป็นกรอบการกำกับดูแลที่เข้มงวดของบริษัท RSP กำหนดมาตรการรักษาความปลอดภัยระดับ ASL-3 สำหรับโมเดลปัญญาประดิษฐ์ที่มีศักยภาพในการก่อให้เกิดการทำลายล้างหมู่ (Mass Destruction) โดยครอบคลุมถึงอาวุธไซเบอร์ อาวุธชีวภาพ และอาวุธอัตโนมัติที่อาจนำไปสู่การสูญเสียชีวิตจำนวนมาก
จากการประเมิน แอนโทรปิกพบว่าข้อเสนอของ CDAO มีความเสี่ยงสูงเกินกว่าที่บริษัทจะยอมรับได้ จึงแจ้งให้กระทรวงกลาโหมทราบว่าบริษัทไม่สามารถดำเนินการต่อไปได้ เว้นแต่จะมีการปรับเปลี่ยนเงื่อนไขให้สอดคล้องกับ RSP ต่อมา CDAO ได้เสนอปรับปรุงข้อเสนอใหม่ โดยลดขอบเขตงานบางส่วน เช่น การยกเลิกการพัฒนาโมเดลขนาดใหญ่ตั้งแต่ต้น และปรับให้เป็นการปรับแต่งโมเดลที่มีอยู่แล้ว อย่างไรก็ตาม แอนโทรปิกยังคงพบปัญหาในประเด็นการเฝ้าระวังหมู่ ซึ่งบริษัทกำหนดนิยามว่าเป็นการรวบรวมข้อมูลจากประชากรเกินกว่า 1% ของประชากรทั้งหมดโดยปราศจากการยินยอม
ดาริโอ อาโมเดย์ (Dario Amodei) ผู้ร่วมก่อตั้งและซีอีโอของแอนโทรปิก เน้นย้ำในบทความว่า “เราต้องการทำงานร่วมกับรัฐบาลสหรัฐฯ ในด้านการป้องกันประเทศ แต่ต้องอยู่ภายใต้กรอบความปลอดภัยที่ชัดเจน” เขายืนยันว่าบริษัทจะไม่ประนีประนอมกับหลักการ RSP แม้จะเผชิญแรงกดดันจากเส้นตายที่คาดว่าจะสิ้นสุดในปลายเดือนนี้ หากไม่สามารถตกลงกันได้ สัญญาจะถูกยกเลิกโดยอัตโนมัติ
นโยบาย RSP ของแอนโทรปิกแบ่งระดับความเสี่ยงเป็น 4 ระดับ (ASL-1 ถึง ASL-4) โดย ASL-3 ใช้สำหรับโมเดลที่อาจก่อให้เกิดอันตรายระดับสูง เช่น การช่วยเหลือในการพัฒนาอาวุธชีวภาพหรือการโจมตีทางไซเบอร์ที่รุนแรง ASL-4 เป็นระดับสูงสุดสำหรับโมเดลที่อาจนำไปสู่การสูญพันธุ์ของมนุษยชาติ บริษัทได้นำ RSP มาใช้ตั้งแต่เดือนตุลาคมปีที่แล้ว และได้รับการยอมรับจากนักวิจัยด้านความปลอดภัยปัญญาประดิษฐ์ว่าเป็นแนวทางที่เป็นรูปธรรมมากที่สุดในอุตสาหกรรม
สถานการณ์นี้เกิดขึ้นท่ามกลางการแข่งขันทางทหารด้านปัญญาประดิษฐ์ที่รุนแรงของสหรัฐฯ ซึ่งรัฐบาลได้ทุ่มงบประมาณมหาศาลเพื่อพัฒนาเทคโนโลยี AI สำหรับการทหาร รัฐมนตรีกลาโหมลอยด์ ออสติน (Lloyd Austin) ประกาศในเดือนพฤษภาคมว่าจะเพิ่มการลงทุนใน AI ทางทหารหลายพันล้านดอลลาร์ ขณะที่บริษัทเทคโนโลยีชั้นนำอื่นๆ เช่น โอเพ่นเอไอ (OpenAI) และกูเกิล (Google) ได้ลงนามสัญญากับกระทรวงกลาโหมไปแล้ว โอเพ่นเอไอเพิ่งเซ็นสัญญา 1 พันล้านดอลลาร์กับ CDAO เมื่อไม่กี่สัปดาห์ก่อน เพื่อพัฒนาเครื่องมือวิเคราะห์ข้อมูลข่าวกรอง
อย่างไรก็ตาม แอนโทรปิกไม่ใช่ผู้เล่นเดี่ยวในการต่อต้านเทคโนโลยี AI ทางทหาร บริษัทได้ร่วมมือกับพันธมิตร เช่น อะ마ซอน (Amazon) และกูเกิล ในการพัฒนาโมเดล Claude โดยยังคงยึดมั่นในหลักจริยธรรม นอกจากนี้ ยังมีบริบทจากนโยบายรัฐบาลที่กดดันบริษัทเทคโนโลยีให้เข้าร่วมโครงการ Replicator ซึ่งมุ่งพัฒนาหุ่นยนต์รบและโดรนอัตโนมัตินับพันลำภายใน 18-24 เดือนข้างหน้า
การตัดสินใจของแอนโทรปิกสะท้อนถึงความตึงเครียดระหว่างการพัฒนาเทคโนโลยี AI ที่ปลอดภัยกับความต้องการทางทหารของชาติ แม้บริษัทจะปฏิเสธสัญญานี้ แต่ก็ยังเปิดประตูสำหรับความร่วมมือในอนาคต หากกระทรวงกลาโหมปรับเงื่อนไขให้สอดคล้องกับ RSP เช่น การมุ่งเน้นไปที่การวิเคราะห์ข้อมูลที่ไม่ละเมิดสิทธิส่วนบุคคลหรือการพัฒนาระบบป้องกันที่ไม่ใช่อาวุธรุก
ในขณะที่เส้นตายใกล้เข้ามา การเจรจายังคงดำเนินต่อไป โดยแอนโทรปิกมุ่งหวังว่าจะเป็นตัวอย่างให้บริษัท AI อื่นๆ ในการรักษาจริยธรรมท่ามกลางแรงกดดันจากรัฐบาล สถานการณ์นี้อาจส่งผลกระทบต่อนโยบาย AI ของสหรัฐฯ ในภาพรวม โดยเฉพาะอย่างยิ่งเมื่อจีนกำลังเร่งพัฒนาเทคโนโลยี AI ทางทหารอย่างรวดเร็ว
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)