คดีความบุกเบิกของ Anthropic ท้าทายอำนาจรัฐบาลในการลงโทษการตัดสินใจด้านความปลอดภัย AI
Anthropic บริษัทชั้นนำด้านการพัฒนาและความปลอดภัยปัญญาประดิษฐ์ (AI) ได้ยื่นฟ้องคดีต่อรัฐบาลสหราชอาณาจักรในศาลสูง (High Court) ของอังกฤษ เพื่อท้าทายอำนาจของรัฐบาลในการบังคับให้บริษัท AI เปิดเผยโมเดลที่ละเอียดอ่อน โดยอ้างว่าการกระทำดังกล่าวขัดต่อกฎหมายสิทธิมนุษยชนและขาดอำนาจตามกฎหมาย คดีนี้ถือเป็นจุดเริ่มต้นสำคัญที่อาจกำหนดกรอบการกำกับดูแล AI ในอนาคต โดยเฉพาะประเด็นความสมดุลระหว่างความปลอดภัยสาธารณะและเสรีภาพในการตัดสินใจของเอกชน
พื้นหลังของข้อพิพาท
ข้อพิพาทเกิดขึ้นจากความต้องการของสถาบันความปลอดภัย AI ของสหราชอาณาจักร (AI Safety Institute: AISI) ซึ่งเป็นหน่วยงานรัฐบาลที่ก่อตั้งขึ้นเพื่อประเมินความเสี่ยงของระบบ AI ขั้นสูง AISI ได้เรียกร้องให้ Anthropic เปิดให้เข้าถึงโมเดล Claude 3.5 Sonnet ซึ่งเป็นโมเดล AI ล่าสุดและทรงพลังที่สุดของบริษัท เพื่อวัตถุประสงค์ในการทดสอบและประเมินความปลอดภัย
Anthropic ปฏิเสธคำร้องดังกล่าว โดยให้เหตุผลว่าการเปิดเผยโมเดลดังกล่าวอาจก่อให้เกิดความเสี่ยงด้านความปลอดภัยที่ร้ายแรง เนื่องจากโมเดลนี้มีความสามารถสูงและอาจถูกนำไปใช้ในทางที่ผิดหากรั่วไหลหรือถูกเข้าถึงโดยไม่ได้รับอนุญาต บริษัทยืนยันว่าการตัดสินใจนี้เป็นส่วนหนึ่งของนโยบายความปลอดภัยที่เข้มงวด ซึ่งเป็นหัวใจหลักในการดำเนินธุรกิจของ Anthropic มานับตั้งแต่ก่อตั้ง
การตอบโต้ของรัฐบาลและภัยคุกคาม
หลังจาก Anthropic ปฏิเสธ รัฐบาลสหราชอาณาจักรได้ออกคำขู่ โดยแจ้งว่าหากบริษัทไม่ปฏิบัติตาม จะถูกห้ามเข้าร่วมกิจกรรมที่เกี่ยวข้องกับ AI ในสหราชอาณาจักร รวมถึงการจัดงานประชุม AI Safety Summit ที่รัฐบาลเป็นเจ้าภาพ นอกจากนี้ ยังขู่ว่าจะใช้มาตรการทางกฎหมายเพื่อบังคับให้เปิดเผยข้อมูล ซึ่งอาจนำไปสู่การลงโทษทางการเงินหรือข้อจำกัดทางธุรกิจ
การกระทำของรัฐบาลนี้มาจากพระราชกฤษฎีกา (statutory instrument) ที่ให้อำนาจ AISI ในการเข้าถึงโมเดล AI เพื่อการทดสอบโดยสมัครใจ แต่ Anthropic โต้แย้งว่ารัฐบาลได้ตีความคำว่า “โดยสมัครใจ” อย่างผิดเพี้ยน โดยเปลี่ยนให้กลายเป็นการบังคับที่แท้จริง
พิธีการทางกฎหมายและข้อโต้แย้งหลัก
Anthropic ได้ยื่นฟ้องเมื่อวันที่ 13 พฤศจิกายน 2567 โดยขอให้ศาลสูงพิจารณาสั่งห้ามการกระทำของรัฐบาล คำฟ้องหลักประกอบด้วยประเด็นสำคัญสามประการ:
-
ขาดอำนาจตามกฎหมาย (Ultra Vires): รัฐบาลไม่มีอำนาจตามพระราชบัญญัติ AI Safety Act ในการบังคับให้เปิดเผยโมเดล Anthropic อ้างว่าพระราชกฤษฎีกาดังกล่าวกำหนดเพียงการเข้าถึง “โดยสมัครใจ” เท่านั้น ไม่ใช่การบังคับ และการขยายอำนาจนี้เกินขอบเขตที่รัฐสภาอนุมัติ
-
ละเมิดสิทธิมนุษยชน (Human Rights Act 1998): การบังคับเปิดเผยโมเดลขัดต่อมาตรา 10 ของกฎหมายสิทธิมนุษยชน ซึ่งคุ้มครองเสรีภาพในการแสดงออก Anthropic ยืนยันว่าโมเดล AI เป็นรูปแบบของการแสดงออกทางปัญญา และการบังคับให้แบ่งปันเท่ากับการบังคับให้พูดในสิ่งที่บริษัทไม่ต้องการ
-
ไม่สมเหตุสมผลและไม่สมส่วน (Irrational and Disproportionate): การขู่ห้ามเข้าร่วมกิจกรรมใน UK เป็นการลงโทษที่รุนแรงเกินกว่าเหตุ โดยไม่คำนึงถึงความเสี่ยงที่แท้จริง Anthropic ชี้ว่าการปฏิเสธของตนเป็นการตัดสินใจที่สมเหตุสมผลจากผู้เชี่ยวชาญด้านความปลอดภัย
Dario Amodei ประธานเจ้าหน้าที่บริหารของ Anthropic กล่าวในแถลงการณ์ว่า “เรามุ่งมั่นในการพัฒนา AI ที่ปลอดภัยและเป็นประโยชน์สูงสุดต่อมนุษยชาติ การปกป้องโมเดลของเราจากความเสี่ยงที่ไม่จำเป็นเป็นส่วนสำคัญของภารกิจนั้น คดีนี้ไม่ใช่การต่อต้านการกำกับดูแล แต่เป็นการปกป้องสิทธิ์พื้นฐานในการตัดสินใจด้านความปลอดภัย”
ความสำคัญและผลกระทบต่ออุตสาหกรรม
คดีนี้ถือเป็นครั้งแรกที่บริษัท AI ชั้นนำท้าทายอำนาจรัฐบาลโดยตรงในประเด็นการบังคับเข้าถึงโมเดล ซึ่งอาจส่งผลกระทบต่อนโยบายกำกับดูแล AI ทั่วโลก หากศาลตัดสินสนับสนุน Anthropic จะยืนยันว่าบริษัทเอกชนมีสิทธิ์ปฏิเสธการเข้าถึงโมเดล หากเห็นว่ามีความเสี่ยงด้านความปลอดภัย ในทางตรงกันข้าม หากรัฐบาลชนะ จะเปิดทางให้หน่วยงานกำกับดูแลเข้าถึงโมเดล AI ได้ง่ายขึ้น ซึ่งอาจขัดขวางการแข่งขันและนวัตกรรม
ผู้เชี่ยวชาญด้านกฎหมาย เช่น Dr. Lilian Edwards จาก King’s College London วิเคราะห์ว่า “คดีนี้ทดสอบขอบเขตของ ‘สมัครใจ’ ในยุค AI หากรัฐบาลสามารถบังคับได้โดยไม่ต้องมีกฎหมายเฉพาะ จะเป็นการเปลี่ยนแปลงครั้งใหญ่ในความสัมพันธ์ระหว่างรัฐและเอกชน”
นอกจากนี้ คดียังสะท้อนถึงความตึงเครียดระหว่างเป้าหมายด้านความปลอดภัยของรัฐบาลและบริษัท AI โดย Anthropic ซึ่งได้รับทุนสนับสนุนจาก Amazon และเป็นหนึ่งในผู้นำด้าน AI Safety ได้แสดงให้เห็นว่าบริษัทเหล่านี้ยินดีต่อสู้ทางกฎหมายเพื่อปกป้องหลักการของตน
AISI ยังไม่ตอบสนองอย่างเป็นทางการต่อคดีนี้ แต่ก่อนหน้านี้ได้ยืนยันบทบาทในการประเมินโมเดล AI เพื่อปกป้องสาธารณะ โดยอ้างว่าการทดสอบของตนเป็นไปอย่างปลอดภัยและเป็นประโยชน์
คดีนี้คาดว่าจะได้รับการพิจารณาในเร็วๆ นี้ และอาจกลายเป็นมาตรฐานสำหรับการกำกับดูแล AI ในสหราชอาณาจักรและนานาชาติ โดยเฉพาะในยุคที่ AI กำลังพัฒนาอย่างรวดเร็วและมีความเสี่ยงสูง
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)