Anthropic ยังคงไม่ให้เพนตากอนเข้าถึงโมเดล AI ของบริษัทโดยไม่จำกัด

แอนโทรปิกยังคงปฏิเสธที่จะมอบการเข้าถึงโมเดลปัญญาประดิษฐ์โดยไม่จำกัดให้กับกระทรวงกลาโหมสหรัฐ

บริษัทแอนโทรปิก (Anthropic) ผู้พัฒนาโมเดลปัญญาประดิษฐ์ Claude ซึ่งเน้นด้านความปลอดภัยของ AI ยังคงยืนยันนโยบายไม่มอบการเข้าถึงโมเดล AI ที่ทรงพลังให้แก่หน่วยงานใด ๆ โดยไม่มีการจำกัด แม้แต่กระทรวงกลาโหมสหรัฐอเมริกา (Pentagon) นโยบายดังกล่าวสะท้อนถึงความมุ่งมั่นของบริษัทในการรักษาความรับผิดชอบและความปลอดภัยในการใช้งานเทคโนโลยี AI โดยไม่ประนีประนอมกับหลักการพื้นฐาน

ในบทสัมภาษณ์ล่าสุดกับหนังสือพิมพ์ The New York Times ดาริโอ อาโมเดอี (Dario Amodei) ผู้ร่วมก่อตั้งและประธานเจ้าหน้าที่บริหารของแอนโทรปิก ได้ย้ำยืนยันจุดยืนของบริษัทอย่างชัดเจน โดยระบุว่า “เรามีนโยบายไม่มอบการเข้าถึงโมเดลโดยไม่จำกัดให้แก่ผู้ใด ไม่ว่าจะเป็นรัฐบาลสหรัฐหรือหน่วยงานอื่น ๆ” คำกล่าวนี้เกิดขึ้นท่ามกลางแรงกดดันที่เพิ่มขึ้นจากนักการเมืองและเจ้าหน้าที่กลาโหมสหรัฐ ซึ่งเรียกร้องให้บริษัทเทคโนโลยี AI ของอเมริกันให้ความสำคัญกับความมั่นคงแห่งชาติเหนือปัจจัยอื่น ๆ

บริบทของประเด็นนี้เชื่อมโยงกับความตึงเครียดในระดับชาติระหว่างความต้องการด้านความมั่นคงกับการกำกับดูแล AI อย่างรับผิดชอบ กระทรวงกลาโหมสหรัฐมองว่า การเข้าถึงโมเดล AI ขั้นสูงเป็นสิ่งจำเป็นสำหรับการพัฒนาขีดความสามารถทางทหาร โดยเฉพาะในยุคที่จีนและชาติอื่น ๆ กำลังเร่งรัดพัฒนาเทคโนโลยี AI ทางทหาร อย่างไรก็ตาม แอนโทรปิกยืนกรานว่า การมอบการเข้าถึงโดยไม่มีข้อจำกัดอาจนำไปสู่ความเสี่ยงที่ไม่อาจควบคุมได้ เช่น การใช้งานในทางที่ผิดกฎหมายหรือก่อให้เกิดอันตรายต่อมนุษยชาติ

แอนโทรปิกได้กำหนดกรอบการทำงานที่ชัดเจนผ่าน “นโยบายการขยายขนาดอย่างรับผิดชอบ” (Responsible Scaling Policy) ซึ่งระบุเงื่อนไขสำหรับการนำโมเดล AI ระดับสูงออกใช้งาน โดยบริษัทจะพิจารณาการเข้าถึงสำหรับวัตถุประสงค์ด้านความมั่นคงแห่งชาติ แต่ต้องอยู่ภายใต้การควบคุมที่เข้มงวด เช่น การตรวจสอบการใช้งาน การกำหนดขอบเขตข้อมูล และมาตรการป้องกันความเสี่ยง นโยบายนี้เป็นส่วนหนึ่งของการมุ่งมั่นด้านความปลอดภัยที่แอนโทรปิกประกาศไว้ตั้งแต่ก่อตั้ง โดยได้รับการสนับสนุนจากเงินทุนกว่า 8 พันล้านดอลลาร์สหรัฐจากนักลงทุนชั้นนำ เช่น Amazon และ Google

นอกจากนี้ แอนโทรปิกยังเข้าร่วมในความมุ่งมั่นด้านความปลอดภัย AI โดยสมัครใจของรัฐบาลไบเดน ซึ่งรวมถึงบริษัทเทคโนโลยีชั้นนำอื่น ๆ เช่น OpenAI และ Google DeepMind โครงการนี้มุ่งเน้นการทดสอบความเสี่ยง การรายงานความโปร่งใส และการป้องกันการใช้งาน AI ในทางที่เป็นอันตราย แอนโทรปิกได้แสดงให้เห็นถึงการปฏิบัติตามหลักการ “AI รัฐธรรมนูญ” (Constitutional AI) ซึ่งเป็นแนวทางในการฝึกโมเดลให้ยึดมั่นหลักการทางจริยธรรมและสิทธิมนุษยชน โดยไม่ต้องพึ่งพาการแทรกแซงจากมนุษย์มากเกินไป

เมื่อเปรียบเทียบกับบริษัทคู่แข่ง OpenAI ซึ่งมีข้อตกลงกับกระทรวงกลาโหมสหรัฐในการพัฒนาเทคโนโลยี AI สำหรับการใช้งานทางทหาร เช่น โครงการการวิเคราะห์ข้อมูลและการวางแผนยุทธศาสตร์ แอนโทรปิกเลือกเส้นทางที่แตกต่าง โดยเน้นย้ำว่าการเข้าถึงต้องมี “เกณฑ์ที่ชัดเจน” เพื่อป้องกันการใช้งานที่ไม่เหมาะสม อาโมเดอีได้ชี้ให้เห็นถึงความท้าทายในการสร้างสมดุลระหว่างการสนับสนุนชาติตัวเองกับการหลีกเลี่ยงการแข่งขันทางอาวุธ AI ที่อาจนำไปสู่จุดจบของมนุษยชาติ (existential risk)

ประเด็นนี้ยังเชื่อมโยงกับการอภิปรายในสภาคองเกรสสหรัฐ ซึ่งนักกฎหมายบางส่วนวิจารณ์บริษัท AI อเมริกันว่าอาจเสียเปรียบด้านความมั่นคงให้กับคู่แข่งต่างชาติ เช่นบริษัทจีนที่ไม่มีข้อจำกัดด้านจริยธรรมที่เข้มงวดเท่า อย่างไรก็ตาม แอนโทรปิกโต้แย้งว่าการรักษามาตรฐานความปลอดภัยในระยะยาวจะเป็นประโยชน์ต่อสหรัฐมากกว่า โดยบริษัทได้ลงนามในแถลงการณ์ร่วมกับสถาบันด้านความปลอดภัย AI ชั้นนำ เพื่อเรียกร้องให้มีการกำกับดูแลระดับสากล

ในมุมมองทางธุรกิจ นโยบายของแอนโทรปิกช่วยเสริมสร้างภาพลักษณ์ของบริษัทในฐานะผู้นำด้าน AI ที่รับผิดชอบ ซึ่งดึงดูดนักลงทุนและลูกค้าที่ให้ความสำคัญกับจริยธรรม แม้จะเผชิญแรงกดดันจากภาครัฐ แต่บริษัทยังคงเติบโตอย่างรวดเร็ว โดย Claude 3 ถือเป็นโมเดล AI ชั้นนำที่แข่งขันได้กับ GPT-4 ของ OpenAI ในด้านประสิทธิภาพและความปลอดภัย

สุดท้าย จุดยืนของแอนโทรปิกไม่เพียงเป็นการปกป้องหลักการของบริษัทเท่านั้น แต่ยังเป็นตัวอย่างของการนำทางในยุคที่ AI กำลังเปลี่ยนแปลงภูมิทัศน์ทางทหารและเศรษฐกิจโลก การตัดสินใจนี้จะมีผลกระทบต่อนโยบาย AI ของสหรัฐในอนาคต โดยเฉพาะเมื่อความต้องการด้านความมั่นคงเพิ่มสูงขึ้นท่ามกลางความขัดแย้งทางภูมิรัฐศาสตร์

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)