แผน AI ของทำเนียบขาวมอบสิทธิยึดครองของรัฐบาลกลางให้บริษัทเทคโนโลยีขนาดใหญ่ตามที่ล็อบบี้ไว้
เมื่อวันที่ 4 ตุลาคม 2566 ประธานาธิบดีโจ ไบเดน ได้ลงนามในคำสั่งผู้บริหารเรื่อง “การพัฒนาและการใช้เทคโนโลยีปัญญาประดิษฐ์อย่างปลอดภัย มีความมั่นคง และเชื่อถือได้” ซึ่งเป็นมาตรการสำคัญเพื่อกำกับดูแลอุตสาหกรรม AI ในสหรัฐอเมริกา คำสั่งดังกล่าวประกาศ設立สถาบันความปลอดภัย AI ใหม่ภายใต้อำนาจของสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) เพื่อส่งเสริมแนวปฏิบัติด้านความปลอดภัยสำหรับระบบ AI ระดับสูง
อย่างไรก็ตาม แผนดังกล่าวไม่ได้มุ่งเน้นที่การบังคับใช้กฎระเบียบที่เข้มงวดเท่านั้น แต่ยังรวมถึงการให้สิทธิยึดครองของรัฐบาลกลาง (federal preemption) ซึ่งหมายความว่ารัฐบาลกลางจะสามารถยกเลิกกฎหมายของรัฐต่างๆ ที่ขัดแย้งกันได้ สถาบันความปลอดภัย AI ใหม่นี้มีอำนาจในการกำหนดมาตรฐานและแนวปฏิบัติที่ผูกพัน ซึ่งจะกลายเป็นเกณฑ์หลักสำหรับการกำกับดูแล AI ทั่วประเทศ นักวิจารณ์มองว่านี่คือชัยชนะครั้งใหญ่ของบริษัทเทคโนโลยีขนาดใหญ่ เช่น Google, Microsoft และ OpenAI ที่ได้ล็อบบี้หนักเพื่อหลีกเลี่ยงกฎระเบียบที่แตกต่างกันของแต่ละรัฐ
อุตสาหกรรมเทคโนโลยีขนาดใหญ่กังวลมานานต่อ “แพตช์เวิร์กกฎหมาย” (patchwork of regulations) จากรัฐต่างๆ โดยเฉพาะแคลิฟอร์เนีย ซึ่งเป็นศูนย์กลางของซิลิคอนแวลลีย์ รัฐนี้กำลังพิจารณากฎหมายหลายฉบับ เช่น AB 2013 ที่กำหนดให้มีการตรวจสอบความเสี่ยงของ AI ในกระบวนการจ้างงาน และ SB 942 ที่มุ่งควบคุม AI ในด้านความปลอดภัยสาธารณะ นอกจากนี้ รัฐนิวยอร์กและรัฐอื่นๆ ก็มีร่างกฎหมายคล้ายกัน เช่น การกำหนดให้มีการเปิดเผยข้อมูลอัลกอริทึม AI ที่ใช้ในการตัดสินใจสำคัญ
การให้สิทธิยึดครองของรัฐบาลกลางจะช่วยให้บริษัทเทคโนโลยีเหล่านี้ปฏิบัติตามมาตรฐานเดียวกันทั่วประเทศ แทนที่จะต้องปรับตัวเข้ากับกฎหมายที่แตกต่างกัน ซึ่งอาจเพิ่มต้นทุนและความซับซ้อนในการดำเนินงาน สมาคมอุตสาหกรรม เช่น Chamber of Progress ได้แสดงความยินดีกับคำสั่งนี้ โดยระบุว่ามันจะช่วยหลีกเลี่ยงความยุ่งเหยิงทางกฎหมายและส่งเสริมการพัฒนา AI อย่างต่อเนื่อง
อย่างไรก็ตาม นักกิจกรรมและผู้เชี่ยวชาญด้านนโยบายมองว่าแผนนี้เป็นการมอบของขวัญให้บิ๊กเทค โดยลดทอนบทบาทของรัฐในการกำกับดูแล Greg Slotten จาก Public Citizen กล่าวว่า “นี่คือการยอมจำนนต่อแรงกดดันจากอุตสาหกรรมที่ต้องการหลีกเลี่ยงการกำกับดูแลที่แท้จริง” คำสั่งผู้บริหารไม่ได้กำหนดบทลงโทษที่ชัดเจนสำหรับการไม่ปฏิบัติตามแนวปฏิบัติของ NIST แต่พึ่งพาการสมัครใจจากภาคเอกชนเป็นหลัก NIST จะพัฒนา “กรอบการจัดการความเสี่ยง AI” (AI Risk Management Framework) ซึ่งเป็นแนวทางสมัครใจที่คล้ายกับกรอบด้านความเป็นส่วนตัวที่เคยล้มเหลวในการบังคับใช้
นอกจากนี้ คำสั่งยังมอบหมายให้หน่วยงานรัฐบาลกลางหลายแห่ง เช่น กระทรวงพาณิชย์ คณะกรรมการการค้าแห่งสหพันธ์ (FTC) และคณะกรรมการกำกับหลักทรัพย์และตลาดหลักทรัพย์ (SEC) พัฒนากฎระเบียบเฉพาะด้าน เช่น การทดสอบระบบ AI ที่มีพลังสูง การรายงานเหตุการณ์ความล้มเหลว และการประเมินความเสี่ยงด้านความเป็นส่วนตัวและสิทธิพลเมือง หน่วยงานเหล่านี้มีกำหนดเวลาต่างๆ ตั้งแต่ 90 วันจนถึง 270 วันในการส่งรายงานและร่างกฎหมาย
แต่จุดสำคัญคือมาตรา 8 ของคำสั่งผู้บริหาร ซึ่งกำหนดให้หน่วยงานรัฐประสานงานกับรัฐและหน่วยงานท้องถิ่นเพื่อหลีกเลี่ยงความขัดแย้งทางกฎหมาย นี่คือกลไกที่บิ๊กเทคเรียกร้อง เพื่อให้แน่ใจว่ารัฐบาลกลางจะเหนือกว่ารัฐในการกำกับดูแล AI แม้คำสั่งจะไม่ประกาศยกเลิกกฎหมายรัฐโดยตรง แต่การกำหนดมาตรฐานกลางจะทำให้กฎหมายรัฐที่ขัดแย้งถูกท้าทายในศาลได้ง่ายขึ้น ตามประเพณีทางกฎหมายสหรัฐที่ให้รัฐบาลกลางมีอำนาจเหนือกว่าในเรื่องที่เกี่ยวข้องกับการค้าข้ามรัฐ
ตัวอย่างที่ชัดเจนคือกรณีกฎหมายความเป็นส่วนตัวข้อมูลของแคลิฟอร์เนีย (CCPA) ซึ่งยังคงอยู่แม้จะมีความพยายามกำหนดมาตรฐานกลาง แต่สำหรับ AI ซึ่งเป็นเทคโนโลยีใหม่ รัฐบาลกลางมีโอกาสมากกว่าในการครอบงำ บริษัทอย่าง Meta และ Amazon ได้ลงทุนล็อบบี้หลายล้านดอลลาร์ในปีนี้เพื่อผลักดันนโยบายนี้ โดยมุ่งเน้นที่การหลีกเลี่ยง “การควบคุมที่มากเกินไป” ที่อาจขัดขวางนวัตกรรม
ผู้เชี่ยวชาญอย่าง Bharat Ramamurti จาก Public Citizen ชี้ว่าคำสั่งนี้ขาด “ฟัน” (teeth) ในการบังคับใช้ เพราะไม่มีบทลงโทษทางแพ่งหรืออาญาใหม่ๆ และพึ่งพา NIST ซึ่งไม่มีอำนาจบังคับใช้โดยตรง นอกจากนี้ การจัดตั้งคณะกรรมการที่ปรึกษา AI Safety Institute รวมตัวแทนจากอุตสาหกรรมเอกชน อาจนำไปสู่การกำหนดมาตรฐานที่อ่อนแอเพื่อเอื้อประโยชน์ต่อบริษัทใหญ่
ในทางตรงกันข้าม สมาคมเทคโนโลยีแห่งอเมริกา (TechNet) กล่าวว่าคำสั่งนี้เป็น “แนวทางที่สมดุล” ที่ส่งเสริมความปลอดภัยโดยไม่ขัดขวางการแข่งขัน แต่คำถามสำคัญคือ สถาบันใหม่นี้จะสามารถบังคับใช้มาตรฐานได้จริงหรือไม่ โดยเฉพาะเมื่อบิ๊กเทคครองตลาด AI เกือบทั้งหมด OpenAI, Google และ Microsoft ควบคุมโมเดลภาษาขนาดใหญ่ส่วนใหญ่ ซึ่งให้อิทธิพลมหาศาลในการกำหนดทิศทางของสถาบัน
สุดท้าย แผนนี้สะท้อนถึงความตึงเครียดระหว่างนวัตกรรมและความปลอดภัย โดยให้ความสำคัญกับการเป็นผู้นำระดับโลกของสหรัฐใน AI มากกว่าการกำกับดูแลที่เข้มงวด แม้จะมีคำมั่นสัญญาว่าจะปกป้องสิทธิพลเมืองและความปลอดภัย แต่การมอบสิทธิยึดครองให้รัฐบาลกลางอาจเป็นการเปิดทางให้บิ๊กเทคดำเนินการโดยปราศจากอุปสรรคจากรัฐ ซึ่งอาจนำไปสู่ความเสี่ยงที่มากขึ้นหากไม่มีการตรวจสอบที่เข้มแข็ง
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)