ภายในการวิเคราะห์แอนทรอปิก-เพนตากอน: การเฝ้าระวังหมู่, อาวุธอัตโนมัติ, และข้อตกลงคู่แข่งที่รออยู่ในปีก

ภายในความล้มเหลวของข้อตกลงแอนโธรปิก-เพนตากอน: การเฝ้าระวังมวลชน อาวุธอัตโนมัติ และข้อตกลงคู่แข่งที่รอคอย

แอนโธรปิก (Anthropic) บริษัทปัญญาประดิษฐ์ (AI) ที่มุ่งเน้นด้านความปลอดภัย กำลังเผชิญกับความขัดแย้งภายในจากการเจรจาลับกับกระทรวงกลาโหมสหรัฐอเมริกา (Pentagon) ซึ่งเกือบจะกลายเป็นสัญญามูลค่ากว่า 1 พันล้านดอลลาร์สหรัฐ แต่สุดท้ายต้องล้มเหลวลงเนื่องจากข้อกังวลเรื่องการเฝ้าระวังมวลชนและอาวุธอัตโนมัติที่อาจนำไปสู่การใช้งานทางทหารแบบเสี่ยงภัย

ข้อตกลงดังกล่าวถูกเจรจาโดยสำนักงานผู้บัญชาการดิจิทัลและปัญญาประดิษฐ์หลัก (Chief Digital and AI Office: CDAO) ของกระทรวงกลาโหม ซึ่งมีบทบาทสำคัญในการผลักดันการนำ AI มาใช้ในภารกิจทหาร ข้อตกลงนี้มีเป้าหมายเพื่อนำโมเดลภาษาขนาดใหญ่ (Large Language Models: LLMs) ของแอนโธรปิก โดยเฉพาะ Claude มาใช้งานในโครงการลับหลายสิบโครงการ คาดว่าจะมีมูลค่าสูงถึง 1 พันล้านดอลลาร์สหรัฐในระยะยาว โดยเริ่มต้นด้วยงบประมาณเริ่มต้นราว 100 ล้านดอลลาร์สหรัฐ

การเจรจาเริ่มต้นอย่างจริงจังตั้งแต่ปลายปี 2566 โดยมีผู้บริหารระดับสูงของแอนโธรปิก เช่น ดาเรนา ซู (Dario Amodei) ผู้ร่วมก่อตั้งและซีอีโอ เข้าร่วมประชุมกับเจ้าหน้าที่ CDAO อย่างสม่ำเสมอ ข้อมูลจากเอกสารภายในที่รั่วไหลออกมาเผยให้เห็นว่ากระทรวงกลาโหมมองว่า Claude เหมาะสมสำหรับการใช้งานในด้านข่าวกรองและการวิเคราะห์ข้อมูลขนาดใหญ่ เนื่องจากมีความสามารถในการประมวลผลข้อมูลที่ซับซ้อนและตอบสนองได้อย่างมีประสิทธิภาพ

อย่างไรก็ตาม ความตกลงนี้ต้องหยุดชะงักในช่วงฤดูร้อนปี 2567 เนื่องจากข้อกังวลด้านความปลอดภัยของแอนโธรปิก โดยเฉพาะการนำ AI ไปใช้ในการเฝ้าระวังมวลชน (Mass Surveillance) ซึ่งคล้ายกับเครื่องมือของสำนักงานความมั่นคงแห่งชาติ (NSA) เช่น โครงการที่สแกนข้อมูลโทรศัพท์และอินเทอร์เน็ตของประชาชนนับล้านราย นอกจากนี้ ยังมีความเสี่ยงต่อการพัฒนาอาวุธอัตโนมัติที่คร่าชีวิต (Lethal Autonomous Weapons: LAWs) ซึ่งอาจตัดสินใจยิงโดยไม่ต้องมีมนุษย์ควบคุม สิ่งเหล่านี้ขัดแย้งกับปรัชญาหลักของแอนโธรปิกที่มุ่งสร้าง AI ที่ปลอดภัยและเป็นประโยชน์ต่อมนุษยชาติ

ภายในแอนโธรปิกเกิดการถกเถียงอย่างดุเดือด พนักงานหลายสิบคนลงนามในจดหมายคัดค้าน โดยอ้างถึงความเสี่ยงที่ AI อาจถูกนำไปใช้ในทางที่ผิดจริยธรรม เช่น การติดตามประชาชนโดยไม่ชอบธรรมหรือการสนับสนุนสงครามอัตโนมัติ จดหมายดังกล่าวถูกส่งถึงผู้บริหารระดับสูงและคณะกรรมการบริษัท ส่งผลให้แอนโธรปิกปฏิเสธข้อเสนอ โดยแจ้ง CDAO อย่างเป็นทางการในเดือนกรกฎาคม 2567 ว่าไม่สามารถดำเนินการต่อได้ เนื่องจากไม่สอดคล้องกับนโยบายความปลอดภัย

เอกสารภายในที่ The Decoder ได้รับการตรวจสอบยังเผยรายละเอียดเพิ่มเติมเกี่ยวกับขอบเขตของโครงการ เช่น การใช้ Claude ในระบบข่าวกรองแบบเรียลไทม์ การวิเคราะห์ข้อมูลจากเซ็นเซอร์และโดรน รวมถึงการช่วยเหลือในการวางแผนยุทธศาสตร์ทางทหาร แอนโธรปิกกังวลว่าการจัดประเภทข้อมูลโครงการเหล่านี้เป็น “ลับสุดยอด” (Top Secret) อาจจำกัดการตรวจสอบจากภายนอก ทำให้ยากต่อการควบคุมความเสี่ยง

ในขณะเดียวกัน ข้อตกลงนี้ยังเปิดเผยถึงการแข่งขันทางธุรกิจ โดย OpenAI คู่แข่งหลักของแอนโธรปิก ได้เซ็นสัญญากับกระทรวงกลาโหมไปแล้วในปี 2567 มูลค่า 1 ล้านดอลลาร์สหรัฐสำหรับการทดสอบ ChatGPT ในภารกิจทหาร นอกจากนี้ Palantir และ Scale AI ก็มีสัญญาทางทหารมูลค่าหลายร้อยล้านดอลลาร์ ขณะที่แอนโธรปิกกำลังชะลอตัว โอเพ่นไอ (OpenAI) อาจได้รับข้อเสนอใหม่จาก CDAO ซึ่งกำลังมองหาพันธมิตรทดแทน

เหตุการณ์นี้สะท้อนถึงความตึงเครียดในอุตสาหกรรม AI ระหว่างการเติบโตทางธุรกิจกับหลักจริยธรรม แอนโธรปิกซึ่งได้รับเงินทุนจาก Amazon และ Google กว่า 8 พันล้านดอลลาร์สหรัฐ ยังคงยืนยันนโยบาย “AI ปลอดภัย” แต่การปฏิเสธสัญญาเพนตากอนอาจส่งผลกระทบต่อรายได้ในอนาคต ท่ามกลางการแข่งขันที่ดุเดือดจากคู่แข่งที่ยินดีรับงานทหารมากกว่า

นอกจากนี้ ยังมีรายงานว่ากระทรวงกลาโหมกำลังปรับกลยุทธ์ โดยมุ่งเน้นพันธมิตรที่ยืดหยุ่นกว่า เช่น การขยายสัญญากับ Microsoft ซึ่งเป็นพันธมิตรหลักของ OpenAI ข้อมูลจากแหล่งข่าวภายในระบุว่า CDAO ยังคงสนใจ Claude อยู่ แต่แอนโธรปิกยืนกรานว่าจะไม่ยอมรับสัญญาที่เสี่ยงต่อการใช้งานในด้านเฝ้าระวังหรืออาวุธ

ความล้มเหลวของข้อตกลงนี้ไม่เพียงแต่เป็นจุดเปลี่ยนสำหรับแอนโธรปิกเท่านั้น แต่ยังเป็นสัญญาณของความท้าทายที่ใหญ่กว่าในการกำกับดูแล AI ทางทหาร ซึ่งรัฐบาลสหรัฐกำลังเร่งรัดเพื่อแข่งขันกับจีน ในขณะที่บริษัท AI ส่วนใหญ่หลีกเลี่ยงการเปิดเผยรายละเอียดสัญญาทางทหาร แต่กรณีของแอนโธรปิกได้จุดประกายการอภิปรายสาธารณะเกี่ยวกับขอบเขตของการนำ AI มาใช้ในด้านความมั่นคงแห่งชาติ

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)