ผู้พิพากษาศาลกลางสหรัฐสั่งหยุดคำสั่งแบนโมเดล AI ของ Anthropic ของทรัมป์ เรียกฉลากความเสี่ยงด้านความมั่นคงว่า "ออร์เวลเลียน"

ผู้พิพากษารัฐบาลกลางสหรัฐฯ สั่งห้ามคำสั่งบริหารของทรัมป์ที่แบนโมเดล AI ของ Anthropic เรียกฉลาก “ความเสี่ยงด้านความมั่นคง” ว่าเป็นแนวคิดแบบ “ออร์เวล”

ในกรณีที่สร้างความฮือฮาในวงการปัญญาประดิษฐ์ (AI) ผู้พิพากษาศาลแขวงวอชิงตัน ดี.ซี. คริสโตเฟอร์ อาร์. คูเปอร์ (Christopher R. Cooper) ได้ออกคำสั่งชั่วคราวห้ามบังคับใช้ส่วนหนึ่งของคำสั่งบริหารของประธานาธิบดีโดนัลด์ ทรัมป์ (Donald Trump) ที่ห้ามหน่วยงานรัฐบาลกลางใช้โมเดล AI generative ของบริษัท Anthropic โดยเฉพาะโมเดล Claude ซึ่งถูกจัดประเภทว่าเป็น “ความเสี่ยงด้านความมั่นคงแห่งชาติ” ผู้พิพากษาได้วิพากษ์วิจารณ์การจัดประเภทดังกล่าวว่าเป็นแนวคิดแบบ “ออร์เวลเลียน” (Orwellian) ซึ่งหมายถึงการควบคุมข้อมูลแบบเผด็จการที่คล้ายในนิยายของจอร์จ ออร์เวลล์

คำสั่งบริหารที่เรียกว่า “Removing Barriers to American Leadership in Artificial Intelligence” ออกเมื่อวันที่ 23 มกราคม 2568 โดยมีวัตถุประสงค์เพื่อปกป้องความมั่นคงแห่งชาติจากการใช้ AI ที่ฝึกฝนด้วยข้อมูลจากแหล่งที่เป็นอันตรายหรือ “malign” โดยเฉพาะข้อมูลจากจีน คำสั่งนี้กำหนดให้หน่วยงานรัฐบาลกลางต้องหลีกเลี่ยงการใช้โมเดล AI generative ที่ฝึกด้วยข้อมูลดังกล่าวภายใน 90 วัน มิเช่นนั้นจะถูกจัดให้เป็น “undue risk” หรือความเสี่ยงที่ไม่สมเหตุสมผล

Anthropic ซึ่งเป็นบริษัทสตาร์ทอัพ AI ชั้นนำที่พัฒนาโมเดล Claude ได้ยื่นฟ้องรัฐบาลสหรัฐฯ เมื่อวันที่ 10 กุมภาพันธ์ 2568 โดยอ้างว่าคำสั่งดังกล่าวขัดต่อรัฐธรรมนูญ โดยละเมิดสิทธิเสรีภาพในการพูด (First Amendment) และทำให้เกิดความเสียหายต่อธุรกิจ บริษัทระบุว่า Claude ไม่ได้ใช้ข้อมูลจากจีนโดยตรง แต่ใช้ข้อมูลสังเคราะห์ (synthetic data) จากโมเดล Llama ของ Meta ซึ่งบางส่วนถูกฝึกด้วยข้อมูลจีน Anthropic ยืนยันว่าได้ใช้มาตรการรักษาความปลอดภัยที่เข้มงวด เช่น การกรองข้อมูลด้วยเครื่องมือของ Google Cloud และการทดสอบด้วยเครื่องมือของ Microsoft เพื่อป้องกันความเสี่ยงด้านความมั่นคง

ในการพิจารณาคดีเมื่อวันที่ 10 มีนาคม 2568 ผู้พิพากษาคูเปอร์ได้ออกคำสั่งเบื้องต้น (preliminary injunction) ห้ามบังคับใช้คำสั่งบริหารกับโมเดล Claude ของ Anthropic จนกว่าจะมีคำตัดสินขั้นสุดท้าย โดยให้เหตุผลว่าการจัดประเภท Claude ว่าเป็นความเสี่ยงด้านความมั่นคงโดยปราศจากหลักฐานที่ชัดเจนนั้น “ไม่มีมูลความจริง” (without any factual basis) และเป็นการ “ตีตราอย่างกว้างขวางและน่ากลัว” (broad-brush and frightening labeling)

ผู้พิพากษากล่าวในคำพิพากษาว่า “การเรียก Claude ว่าเป็น ‘ความเสี่ยงด้านความมั่นคงแห่งชาติ’ โดยไม่มีหลักฐานสนับสนุนนั้น ดูเหมือนจะเป็นภาษาแบบออร์เวลเลียนมากกว่าการประเมินความเสี่ยงที่แท้จริง” คำพิพากษายังชี้ว่าคำสั่งบริหารของทรัมป์ขาดความชัดเจนในการกำหนด “ข้อมูล malign” ทำให้หน่วยงานรัฐไม่สามารถปฏิบัติตามได้อย่างมีประสิทธิภาพ นอกจากนี้ ยังละเมิดสิทธิในการพูดของ Anthropic เนื่องจากคำสั่งนี้กีดกันการสื่อสารข้อมูลที่ถูกต้องและเป็นประโยชน์ต่อสาธารณะ

คดีนี้เกิดขึ้นท่ามกลางความตึงเครียดด้านความมั่นคงทางไซเบอร์ระหว่างสหรัฐฯ กับจีน ซึ่งทรัมป์มองว่า AI ที่ฝึกด้วยข้อมูลจีนอาจถูกใช้เป็นเครื่องมือสอดแนม รัฐบาลโต้แย้งในศาลว่าคำสั่งนี้เป็นเพียงแนวทาง (guidance) ไม่ใช่กฎบังคับ และ Anthropic ได้รับแจ้งล่วงหน้าแล้ว แต่ผู้พิพากษาคูเปอร์เห็นว่าคำสั่งนี้มีน้ำหนักทางกฎหมายจริง โดยอ้างอิงจากตัวอย่างในอดีตที่หน่วยงานรัฐปฏิบัติตามคำสั่งบริหารอย่างเคร่งครัด

Anthropic ระบุว่าการตัดสินนี้เป็นชัยชนะสำคัญต่อนวัตกรรม AI ในสหรัฐฯ โดย CEO ดาริโอ อัมออดี (Dario Amodei) กล่าวว่า “เรายินดีที่ศาลยอมรับว่าคำสั่งนี้ขาดมูลความจริง และหวังว่าจะนำไปสู่การพัฒนา AI ที่ปลอดภัยและเชื่อถือได้” บริษัทยังยืนยันความมุ่งมั่นในการรักษาความปลอดภัย โดย Claude ได้รับการรับรองจากหน่วยงานรัฐหลายแห่ง เช่น CIA และกระทรวงกลาโหม

อย่างไรก็ตาม คดีนี้ยังไม่สิ้นสุด รัฐบาลสหรัฐฯ สามารถอุทธรณ์ได้ และอาจส่งผลกระทบต่อนโยบาย AI ในอนาคต โดยเฉพาะการกำกับดูแลข้อมูลฝึก AI จากต่างประเทศ ผู้เชี่ยวชาญด้านกฎหมายคาดว่าคดีนี้อาจกลายเป็นมาตรฐานสำหรับการท้าทายคำสั่งบริหารที่กระทบต่ออุตสาหกรรมเทคโนโลยี

การตัดสินของผู้พิพากษาคูเปอร์เน้นย้ำถึงความสมดุลระหว่างความมั่นคงแห่งชาติกับเสรีภาพในการนวัตกรรม ซึ่งเป็นประเด็นสำคัญในยุค AI ที่เติบโตอย่างรวดเร็ว สหรัฐฯ ต้องหาทางออกที่ชัดเจนเพื่อป้องกันความเสี่ยงโดยไม่กีดกันเทคโนโลยีชั้นนำที่พัฒนาในประเทศเอง

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)