กฎหมายความปลอดภัย AI ฉบับแรกและครอบคลุมที่สุดของแคลิฟอร์เนีย: การกำหนดมาตรฐานใหม่สำหรับเทคโนโลยีที่ก้าวหน้า
เมื่อเร็วๆ นี้ แคลิฟอร์เนียได้ผ่านร่างกฎหมายที่ถือเป็นกฎหมายความปลอดภัยด้านปัญญาประดิษฐ์ (AI) ฉบับแรกที่มีขอบเขตกว้างขวางและครอบคลุมที่สุด กฎหมายนี้มุ่งเน้นไปที่การกำกับดูแลโมเดล AI ที่มีความสามารถสูง (highly capable AI models) ซึ่งถูกพิจารณาว่ามีความเสี่ยงที่จะก่อให้เกิดอันตรายร้ายแรงต่อสาธารณะ โดยเฉพาะอย่างยิ่งในประเด็นด้านความมั่นคงของชาติ และภัยที่อาจคุกคามความเป็นอยู่ของมนุษย์ กฎหมายดังกล่าวนี้ส่งสัญญาณที่ชัดเจนว่ารัฐบาลมีความจำเป็นต้องเข้ามามีบทบาทในการจัดการความเสี่ยงที่เกิดจากเทคโนโลยี AI ที่กำลังพัฒนาไปอย่างรวดเร็ว
ขอบเขตและการบังคับใช้ของกฎหมาย
หัวใจสำคัญของกฎหมายนี้คือการกำหนดให้ผู้พัฒนาโมเดล AI ที่มีศักยภาพในการสร้างอันตรายร้ายแรงต้องปฏิบัติตามข้อกำหนดด้านความปลอดภัยที่เข้มงวด ก่อนที่โมเดลดังกล่าวจะถูกนำไปใช้งานหรือเผยแพร่ในสาธารณะ กฎหมายระบุความรับผิดชอบที่สำคัญสำหรับบริษัทที่พัฒนาโมเดล AI ที่เข้าข่าย “โมเดลฐานรากขนาดใหญ่” (Large Foundational Models) ซึ่งหมายถึงระบบที่มีพารามิเตอร์ (parameters) ในระดับที่กำหนดและถูกฝึกฝนด้วยชุดข้อมูลขนาดใหญ่ ซึ่งมีศักยภาพในการทำงานที่หลากหลายและมีความสามารถในการเรียนรู้ด้วยตนเอง
ข้อกำหนดหลักในกฎหมายนี้คือการประเมินความเสี่ยง (risk assessment) และการทดสอบความปลอดภัยที่เข้มข้น (rigorous safety testing) ก่อนการนำโมเดลออกสู่ตลาด (pre-deployment testing) ผู้พัฒนาจะต้องสาธิตให้เห็นว่าพวกเขาได้ดำเนินการตามขั้นตอนที่เหมาะสมเพื่อบรรเทาความเสี่ยงที่ระบุไว้ในกฎหมาย ซึ่งรวมถึงความเสี่ยงที่โมเดลอาจถูกนำไปใช้ในการสร้างอาวุธชีวภาพหรืออาวุธนิวเคลียร์ ตลอดจนความเสี่ยงที่เกี่ยวข้องกับการก่อการร้ายทางไซเบอร์ในวงกว้าง
การกำหนดเกณฑ์สำหรับโมเดลที่มีความเสี่ยงสูง
กฎหมายของแคลิฟอร์เนียจะมุ่งเป้าไปที่โมเดล AI ที่มีกำลังการคำนวณ (compute power) เกินกว่าเกณฑ์ที่กำหนด โดยเฉพาะอย่างยิ่งผู้ที่ใช้พลังงานการประมวลผลมากกว่า 10^26 FLOPS (Floating Point Operations Per Second) ในการฝึกฝน ซึ่งเป็นตัวชี้วัดที่ใช้กันทั่วไปในการประเมินขนาดและความซับซ้อนของโมเดล AI ขนาดใหญ่ โมเดลที่เข้าข่ายนี้มักเป็นโมเดลที่อยู่ในระดับแนวหน้าของการพัฒนา AI ซึ่งมีศักยภาพสูงในการใช้งานที่เป็นอันตรายร้ายแรงหากไม่ได้รับการควบคุมดูแล
การกำหนดขีดจำกัดด้านกำลังการคำนวณนี้เป็นการจำกัดให้กฎหมายมุ่งเน้นไปที่ผู้เล่นหลักในอุตสาหกรรม AI ที่ครอบคลุมบริษัทเทคโนโลยียักษ์ใหญ่ที่กำลังพัฒนาโมเดลชั้นนำ ดังนั้น กฎหมายนี้จึงไม่ได้ออกแบบมาเพื่อควบคุมการใช้งาน AI โดยทั่วไป เช่น โมเดลภาษาขนาดเล็ก (small language models) หรือระบบ AI พื้นฐานที่ใช้ในแอปพลิเคชันประจำวัน แต่เน้นไปที่การป้องกันภัยพิบัติขนาดใหญ่ที่อาจเกิดขึ้นจาก AI ระดับสูง (catastrophic risks from advanced AI)
บทบาทของรัฐบาลในการกำกับดูแล
กฎหมายนี้ได้มอบหมายให้หน่วยงานกำกับดูแลของรัฐแคลิฟอร์เนียมีอำนาจในการตรวจสอบและบังคับใช้ข้อกำหนดด้านความปลอดภัย หากผู้พัฒนาโมเดลไม่สามารถแสดงให้เห็นถึงความพยายามที่เพียงพอในการประเมินและลดความเสี่ยง รัฐบาลอาจมีคำสั่งให้ระงับการนำโมเดลดังกล่าวออกสู่สาธารณะได้ ซึ่งเป็นการสร้างกลไกที่จำเป็นในการแทรกแซงก่อนที่อันตรายจะเกิดขึ้นจริง
นอกจากนี้ กฎหมายยังเน้นย้ำถึงความโปร่งใส (transparency) ผู้พัฒนาจะต้องจัดทำเอกสารและรายงานเกี่ยวกับกระบวนการทดสอบความปลอดภัย รวมถึงผลการประเมินความเสี่ยงอย่างละเอียด ซึ่งข้อมูลเหล่านี้จะช่วยให้หน่วยงานกำกับดูแลและสาธารณชนสามารถเข้าใจและตรวจสอบความเสี่ยงที่เกี่ยวข้องกับเทคโนโลยี AI เหล่านี้ได้ดีขึ้น
ผลกระทบต่ออุตสาหกรรม AI และภาพรวมระดับประเทศ
การผ่านกฎหมายนี้ในแคลิฟอร์เนีย ซึ่งเป็นศูนย์กลางของนวัตกรรมเทคโนโลยีระดับโลก ถือเป็นจุดเปลี่ยนที่สำคัญ (watershed moment) มันไม่เพียงแต่สร้างมาตรฐานใหม่สำหรับความปลอดภัยของ AI ในรัฐ แต่ยังมีแนวโน้มที่จะส่งผลกระทบต่อแนวปฏิบัติของบริษัท AI ทั่วประเทศและทั่วโลก เนื่องจากบริษัทเทคโนโลยีขนาดใหญ่ส่วนใหญ่ตั้งอยู่ในหรือเกี่ยวข้องกับแคลิฟอร์เนีย การปฏิบัติตามข้อกำหนดเหล่านี้จึงกลายเป็นภาระผูกพันเชิงปฏิบัติการที่สำคัญ
ผู้สนับสนุนกฎหมายมองว่านี่เป็นขั้นตอนที่จำเป็นในการสร้างความมั่นใจว่าการพัฒนา AI จะเกิดขึ้นอย่างมีความรับผิดชอบและภายใต้กรอบความปลอดภัยที่ชัดเจน ในขณะที่ผู้ที่วิพากษ์วิจารณ์บางรายอาจกังวลว่าข้อกำหนดที่เข้มงวดเกินไปอาจขัดขวางนวัตกรรมหรือสร้างอุปสรรคให้กับสตาร์ทอัพรายเล็ก อย่างไรก็ตาม จุดประสงค์หลักคือการสร้างสมดุลระหว่างการส่งเสริมนวัตกรรมกับการป้องกันภัยคุกคามร้ายแรงที่ AI สามารถก่อให้เกิดได้ หากปราศจากการกำกับดูแลที่เหมาะสม
กฎหมายความปลอดภัย AI ของแคลิฟอร์เนียจึงไม่เป็นเพียงแค่กฎหมายระดับรัฐ แต่เป็นพิมพ์เขียวที่อาจมีอิทธิพลต่อการกำหนดนโยบายในระดับสหพันธรัฐและระดับนานาชาติ ซึ่งเป็นการแสดงให้เห็นว่าแนวคิดเรื่องการจัดการความเสี่ยงของ AI ที่มีศักยภาพสูง ได้กลายเป็นวาระเร่งด่วนทางนิติบัญญัติอย่างเป็นทางการแล้ว
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)