Cht วิจารณ์คำสั่งบริหารของทรัมป์ที่สร้างสุญญากาศความรับผิดชอบด้าน ai

สถาบัน CHT วิจารณ์คำสั่งบริหารของทรัมป์ สร้างช่องว่างความรับผิดชอบด้าน AI

สถาบัน Center for Humane Technology (CHT) ออกแถลงการณ์วิพากษ์วิจารณ์คำสั่งบริหารของประธานาธิบดีโดนัลด์ ทรัมป์ ว่าสร้าง “ช่องว่างความรับผิดชอบด้านปัญญาประดิษฐ์ (AI accountability vacuum)” โดยคำสั่งดังกล่าวเพิกถอนมาตรการด้านความปลอดภัยของ AI ที่กำหนดไว้ในสมัยประธานาธิบดีโจ ไบเดน ซึ่งอาจนำไปสู่ความเสี่ยงที่เพิ่มขึ้นในอุตสาหกรรมเทคโนโลยี AI

คำสั่งบริหารของทรัมป์ที่ลงนามเมื่อเร็วๆ นี้ มีชื่อว่า “Removing Barriers to American Leadership in Artificial Intelligence” โดยมีวัตถุประสงค์หลักเพื่อส่งเสริมการพัฒนาและนวัตกรรม AI ของสหรัฐอเมริกาให้เป็นผู้นำระดับโลก ผ่านการลดอุปสรรคทางกฎระเบียบ คำสั่งนี้เพิกถอนคำสั่งบริหารของไบเดนเมื่อปี 2566 ที่ชื่อ “Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence” ซึ่งกำหนดกรอบการกำกับดูแลเพื่อให้แน่ใจว่า AI พัฒนาอย่างปลอดภัย มั่นคง และเชื่อถือได้

ในแถลงการณ์ของ CHT ระบุว่าคำสั่งของทรัมป์ได้ลบล้างมาตรการสำคัญหลายประการที่ช่วยปกป้องประชาชนและสังคมจากความเสี่ยงของ AI โดยเฉพาะอย่างยิ่งในด้านความรับผิดชอบและการกำกับดูแล สถาบันฯ เน้นย้ำว่าการเพิกถอนนี้จะทำให้เกิดช่องว่างที่หน่วยงานรัฐและบริษัทเอกชนขาดเครื่องมือในการตรวจสอบและรับผิดชอบต่อผลกระทบจากระบบ AI ที่อาจก่อให้เกิดอันตราย

มาตรการที่ถูกเพิกถอนและผลกระทบที่ตามมา

คำสั่งบริหารของทรัมป์ได้ยกเลิกข้อกำหนดหลักหลายข้อจากยุคไบเดน ดังนี้:

  1. การทดสอบความปลอดภัยและความมั่นคง: ยุคไบเดนกำหนดให้หน่วยงานรัฐและผู้พัฒนา AI ชั้นนำต้องดำเนินการทดสอบระบบ AI เพื่อประเมินความเสี่ยงด้านความปลอดภัย ความมั่นคงทางไซเบอร์ และสิทธิพลเมืองก่อนนำออกสู่สาธารณะ คำสั่งใหม่ลบล้างข้อกำหนดนี้ทั้งหมด ส่งผลให้ขาดการตรวจสอบเชิงระบบก่อนการใช้งานจริง ซึ่งอาจนำไปสู่เหตุการณ์ที่ไม่คาดคิด เช่น การตัดสินใจที่ลำเอียงหรือการละเมิดความเป็นส่วนตัว

  2. การจัดการความเสี่ยงด้านสิทธิพลเมืองและความเท่าเทียม: มาตรการเดิมกำหนดให้หน่วยงานรัฐต้องติดตามและลดความเสี่ยงที่ AI อาจก่อให้เกิดการเลือกปฏิบัติทางเชื้อชาติ เพศ หรือกลุ่มอื่นๆ รวมถึงส่งเสริมความเท่าเทียมทางเศรษฐกิจและสังคม คำสั่งของทรัมป์ตัดข้อกำหนดเหล่านี้ออก สถาบัน CHT มองว่านี่เป็นการถอยหลังที่ร้ายแรง โดยอาจทำให้ AI ถูกนำมาใช้ในทางที่ละเมิดสิทธิมนุษยชนโดยไม่มีการตรวจสอบ

  3. มาตรฐานด้านความมั่นคงทางไซเบอร์: ข้อกำหนดเดิมบังคับให้มีการพัฒนามาตรฐานเพื่อป้องกันการโจมตีทางไซเบอร์ต่อระบบ AI และโครงสร้างพื้นฐานที่เกี่ยวข้อง คำสั่งใหม่ยกเลิก ซึ่ง CHT เตือนว่าจะเพิ่มช่องโหว่ให้กับโครงสร้างพื้นฐานที่สำคัญของชาติ เช่น ระบบการเงิน การขนส่ง และการดูแลสุขภาพ

  4. การมีส่วนร่วมระหว่างประเทศ: ยุคไบเดนส่งเสริมการประสานงานกับพันธมิตรนานาชาติเพื่อกำหนดมาตรฐาน AI ระดับโลก คำสั่งของทรัมป์ยุติการมีส่วนร่วมเหล่านี้ โดยมุ่งเน้นเฉพาะการแข่งขันกับจีน ซึ่ง CHT วิจารณ์ว่าอาจทำให้สหรัฐฯ สูญเสียอิทธิพลในการกำหนดกฎเกณฑ์สากล

นอกจากนี้ คำสั่งยังมุ่งเน้นการส่งเสริมการลงทุนภาคเอกชนและการแข่งขัน โดยลดบทบาทของรัฐบาลกลางในการกำกับดูแล ซึ่งฝ่ายบริหารอ้างว่าจะช่วยให้สหรัฐฯ แซงหน้าคู่แข่งอย่างจีนในด้าน AI ทรัมป์ระบุในคำสั่งว่า “เราจะไม่ยอมให้กฎระเบียบที่ไม่จำเป็นขัดขวางความเป็นผู้นำของอเมริกา”

การตอบโต้จาก CHT และภาคส่วนอื่นๆ

Tristan Harris ผู้ร่วมก่อตั้ง CHT และอดีตผู้บริหาร Google ได้โพสต์บน X (เดิมชื่อ Twitter) เพื่อแสดงความกังวล โดยระบุว่า “นี่คือช่องว่างความรับผิดชอบ AI ที่ใหญ่ที่สุดในประวัติศาสตร์” สถาบัน CHT เรียกร้องให้สภาคองเกรสเร่งรัดออกกฎหมายเพื่อเติมเต็มช่องว่างนี้ โดยเฉพาะอย่างยิ่งในการกำหนดความรับผิดชอบสำหรับบริษัทเทคโนโลยีขนาดใหญ่ที่พัฒนา AI ขั้นสูง

CHT ยังชี้ให้เห็นว่าคำสั่งนี้เกิดขึ้นท่ามกลางความกังวลที่เพิ่มขึ้นเกี่ยวกับ AI generative เช่น ChatGPT และโมเดลอื่นๆ ที่อาจก่อให้เกิดปัญหา เช่น การแพร่กระจายข้อมูลเท็จ การละเมิดลิขสิทธิ์ และความเสี่ยงจากการใช้งานในอาวุธอัตโนมัติ การขาดการกำกับดูแลจากรัฐบาลกลางอาจทำให้ปัญหาเหล่านี้รุนแรงยิ่งขึ้น โดยไม่มีกลไกการรายงานหรือแก้ไขที่เป็นระบบ

ความหมายต่ออนาคตของ AI ในสหรัฐฯ

การเปลี่ยนแปลงนโยบายนี้สะท้อนถึงปรัชญา “นวัตกรรมก่อนกำกับดูแล” ของฝ่ายบริหารทรัมป์ ซึ่งคล้ายกับนโยบาย deregulation ในยุคแรกของเขา อย่างไรก็ตาม นักวิจารณ์อย่าง CHT มองว่านี่เป็นการเสี่ยงภัย โดยเฉพาะเมื่อบริษัทอย่าง OpenAI, Google และ Meta กำลังแข่งขันพัฒนา AI ที่ทรงพลังมากขึ้นเรื่อยๆ โดยปราศจากกรอบความปลอดภัยที่ชัดเจน

ในขณะที่ฝ่ายบริหารชื่นชมคำสั่งนี้ว่าเป็น “ชัยชนะสำหรับอเมริกา” แต่ CHT ยืนยันว่าความรับผิดชอบต้องมาก่อนนวัตกรรม เพื่อป้องกันไม่ให้ AI กลายเป็นภัยคุกคามต่อสังคม พวกเขาคาดหวังว่าสภาคองเกรสจะออกกฎหมายใหม่ เช่น AI Accountability Act เพื่อบังคับใช้มาตรฐานขั้นต่ำ

การเคลื่อนไหวนี้อาจส่งผลกระทบต่อระบบนิเวศ AI ทั่วโลก โดยเฉพาะอย่างยิ่งหากสหรัฐฯ ซึ่งเป็นศูนย์กลางนวัตกรรม กลายเป็น “ป่าชายเลน” ที่ขาดกฎเกณฑ์ สถาบัน CHT จึงเรียกร้องให้ผู้มีส่วนได้ส่วนเสียทุกฝ่าย รวมถึงภาคเอกชน ร่วมกันผลักดันการกำกับดูแลที่สมดุล

(จำนวนคำประมาณ 750 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)