CTO กรมสงครามสหรัฐกล่าวว่า โมเดล AI ของ Anthropic "ปนเปื้อน" ห่วงโซ่อุปทานด้วยจริยธรรมที่ฝังตัว

หัวหน้าหน่วยงานทหารกองทัพอากาศสหรัฐฯ ชี้ โมเดลปัญญาประดิษฐ์ของ Anthropic ปนเปื้อนห่วงโซ่อุปทานด้วยจริยธรรมที่ฝังอยู่ในตัว

ในงานประชุม AFCEA International Cyber Symposium ซึ่งจัดขึ้นเพื่อหารือประเด็นด้านไซเบอร์ซีเคียวริตี้และเทคโนโลยีดิจิทัล พลจัตวา ดาวิด ดับเบิลยู อัลวิน (Gen. David W. Allvin) ผู้บัญชาการกองทัพอากาศสหรัฐอเมริกา ได้แสดงความเห็นที่เข้มข้นต่อโมเดลปัญญาประดิษฐ์ (AI) ของบริษัท Anthropic โดยเฉพาะโมเดล Claude ซึ่งมีมาตรการจริยธรรมหรือ “guardrails” ที่ฝังอยู่ในระบบ ทำให้โมเดลเหล่านี้ปฏิเสธที่จะช่วยเหลือในงานที่เกี่ยวข้องกับภารกิจทางทหารบางประเภท

พลจัตวา อัลวิน ระบุว่า มาตรการดังกล่าวกำลัง “ปนเปื้อนห่วงโซ่อุปทาน” (pollute the supply chain) ของกองทัพสหรัฐฯ ด้วยสิ่งที่เขาเรียกว่า “จริยธรรมที่ฝังอยู่ในตัว” ซึ่งขัดขวางการใช้งาน AI ในบริบททางทหาร เขายกตัวอย่างกรณีที่โมเดล Claude ปฏิเสธที่จะสร้างภาพของเครื่องบินขนส่ง C-130 ที่มีเครื่องหมายของกองทัพจีน รวมถึงการเขียนโค้ดมัลแวร์ (malware) สำหรับการทดสอบระบบรักษาความปลอดภัย พลจัตวา อัลวิน มองว่านี่เป็นอุปสรรคต่อการนำ AI มาใช้ในปฏิบัติการจริง โดยเฉพาะอย่างยิ่งในยุคที่เทคโนโลยี AI กำลังกลายเป็นส่วนสำคัญของกลยุทธ์ทางทหาร

คำวิจารณ์นี้สะท้อนถึงความท้าทายที่กองทัพสหรัฐฯ กำลังเผชิญในการจัดหาและใช้งานโมเดล AI เชิงพาณิชย์ พลจัตวา อัลวิน ชี้ให้เห็นว่า โมเดลแบบปิด (closed models) จากบริษัทเทคโนโลยีขนาดใหญ่ เช่น Anthropic มีข้อจำกัดด้านจริยธรรมที่ถูกออกแบบมาเพื่อป้องกันการใช้งานในทางที่เป็นอันตรายต่อมนุษยชาติ เช่น การพัฒนาอาวุธหรือการสร้างเนื้อหาที่อาจนำไปสู่ความขัดแย้ง อย่างไรก็ตาม ในมุมมองของเขา ข้อจำกัดเหล่านี้กลับกลายเป็น “มลพิษ” ในห่วงโซ่อุปทานทางเทคโนโลยีของกองทัพ เพราะทำให้ไม่สามารถนำ AI มาใช้ได้เต็มประสิทธิภาพในการจำลองสถานการณ์ทางทหาร การฝึกอบรม หรือการพัฒนาระบบป้องกันภัยคุกคาม

เพื่อแก้ไขปัญหานี้ พลจัตวา อัลวิน แนะนำให้หันมาใช้โมเดล AI แบบโอเพ่นเวท (open-weight models) เช่น Llama จาก Meta ซึ่งไม่มีมาตรการจริยธรรมที่เข้มงวดแบบเดียวกัน โมเดลเหล่านี้สามารถปรับแต่งได้ตามความต้องการของผู้ใช้งาน ทำให้กองทัพสามารถฝึกฝนและปรับใช้ได้อย่างยืดหยุ่นมากขึ้น เขาย้ำว่าการพึ่งพาโมเดลแบบปิดจากผู้ให้บริการรายเดียวอาจนำไปสู่ความเสี่ยงด้านความมั่นคง หากผู้ให้บริการตัดสินใจจำกัดการเข้าถึงหรือเปลี่ยนแปลงนโยบายด้านจริยธรรม

บริบทของคำวิจารณ์นี้เกิดขึ้นท่ามกลางการลงทุนมหาศาลของกระทรวงกลาโหมสหรัฐฯ (DoD) ในเทคโนโลยี AI กองทัพอากาศสหรัฐฯ กำลังดำเนินโครงการจัดหา AI เพื่อสนับสนุนภารกิจต่างๆ เช่น การวิเคราะห์ข้อมูล การวางแผนยุทธศาสตร์ และการจำลองการรบ อย่างไรก็ตาม การใช้งานโมเดล AI เชิงพาณิชย์เผชิญกับข้อจำกัดจากนโยบายความปลอดภัยของผู้พัฒนา Anthropic ซึ่งก่อตั้งโดยอดีตนักวิจัยจาก OpenAI ได้พัฒนาโมเดล Claude ให้มีระบบ Constitutional AI ซึ่งเป็นกรอบจริยธรรมที่กำหนดให้ AI ปฏิเสธคำขอที่อาจก่อให้เกิดอันตราย เช่น การช่วยเหลือในการพัฒนาอาวุธชีวภาพ เคมี หรือนิวเคลียร์ รวมถึงเนื้อหาที่ส่งเสริมความเกลียดชังหรือการก่อการร้าย

Anthropic ได้ออกแถลงการณ์ตอบโต้ต่อคำวิจารณ์ดังกล่าว โดยยืนยันว่ามาตรการป้องกันความปลอดภัย (safety measures) ในโมเดล Claude มีวัตถุประสงค์เพื่อป้องกันการใช้งานในทางที่ผิดกฎหมายหรือเป็นอันตรายต่อสังคม บริษัทระบุว่า การปฏิเสธคำขอที่เกี่ยวข้องกับการพัฒนามัลแวร์หรือการจำลองเครื่องหมายทางทหารของศัตรู เป็นส่วนหนึ่งของความรับผิดชอบในการลดความเสี่ยงจากการแพร่กระจายเทคโนโลยีที่อาจถูกนำไปใช้ในทางลบ อย่างไรก็ตาม Anthropic ยอมรับว่ากองทัพและหน่วยงานรัฐบาลมีสิทธิ์เข้าถึงเวอร์ชันพิเศษของโมเดลที่ปรับแต่งสำหรับการใช้งานที่ได้รับอนุญาต แต่ยังคงยึดหลักจริยธรรมพื้นฐาน

ประเด็นนี้ยังเชื่อมโยงกับแนวโน้มกว้างขึ้นในอุตสาหกรรม AI ที่ผู้พัฒนาโมเดลขนาดใหญ่กำลังเผชิญแรงกดดันจากรัฐบาลและหน่วยงานความมั่นคงในการลด “alignment” หรือการปรับให้สอดคล้องกับค่านิยมมนุษย์ ในขณะที่บริษัทเอกชนอย่าง Anthropic มุ่งเน้นความปลอดภัย กองทัพสหรัฐฯ มองหาความสมดุลระหว่างประสิทธิภาพทางทหารและการควบคุมความเสี่ยง พลจัตวา อัลวิน ยังได้กล่าวถึงความจำเป็นในการพัฒนาโครงสร้างพื้นฐาน AI ภายในของกองทัพ เพื่อลดการพึ่งพาผู้ให้บริการภายนอก และส่งเสริมการใช้ออเพ่นซอร์ส (open-source) ที่สามารถตรวจสอบและปรับแต่งได้

คำพูดของพลจัตวา อัลวิน ได้จุดประกายการถกเถียงในวงการเทคโนโลยีและความมั่นคง โดยเฉพาะในประเด็นความขัดแย้งระหว่างจริยธรรม AI กับความต้องการทางปฏิบัติการ หากกองทัพสหรัฐฯ หันมาใช้โมเดลโอเพ่นเวทมากขึ้น อาจนำไปสู่การเปลี่ยนแปลงในห่วงโซ่อุปทาน AI ทั่วโลก โดยบริษัทอย่าง Meta และผู้พัฒนาอื่นๆ อาจได้รับประโยชน์ ในทางตรงกันข้าม Anthropic และบริษัทที่คล้ายคลึงกันต้องพิจารณาปรับนโยบายเพื่อตอบสนองความต้องการของลูกค้ากลุ่มรัฐบาล โดยไม่ละเลยหลักจริยธรรมหลัก

สุดท้ายนี้ คำวิจารณ์ดังกล่าวชี้ให้เห็นถึงความซับซ้อนในการนำ AI มาใช้ในภาครัฐและทหาร ซึ่งต้อง cân bằngระหว่างนวัตกรรม ความปลอดภัย และจริยธรรม โดยกองทัพอากาศสหรัฐฯ กำลังเร่งรัดการทดสอบและจัดหาโมเดลที่เหมาะสม เพื่อรักษาความได้เปรียบเชิงยุทธศาสตร์ในยุค AI

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)