แผนการของสหราชอาณาจักรสำหรับการทดสอบ ai ก่อนวางจำหน่ายเพื่อป้องกันการสร้างภาพสื่อที่ไม่เหมาะสมเกี่ยวกับเด็ก

แนวนโยบายสหราชอาณาจักรว่าด้วยการกำกับดูแลและทดสอบเทคโนโลยีปัญญาประดิษฐ์เพื่อยับยั้งการผลิตภาพลามกอนาจารเด็ก

สหราชอาณาจักรได้ประกาศแผนการเชิงรุกในการกำกับดูแลและควบคุมเทคโนโลยีปัญญาประดิษฐ์ (AI) เพื่อมุ่งเป้าไปที่การป้องกันการผลิตและการแพร่กระจายของภาพลามกอนาจารเด็ก (Child Sexual Abuse Material - CSAM) ที่สร้างขึ้นโดย AI หรือที่เรียกว่า ‘Deepfakes’ โดยเฉพาะ ในฐานะผู้นำด้านการป้องกันภัยคุกคามทางดิจิทัลจากภาพสังเคราะห์ (Synthetic Imagery) ที่มีความสมจริงสูง รัฐบาลสหราชอาณาจักรกำลังนำเสนอการทดสอบระบบ AI ล่วงหน้า (Pre-release Testing) สำหรับโมเดล AI ที่มีศักยภาพในการสร้างภาพเสมือนมนุษย์ (Human-like imagery) นอกเหนือจากการพิจารณาขยายขอบเขตการกำกับดูแลให้ครอบคลุมระบบ AI ‘แบบโอเพนซอร์ส’ (Open-source AI systems) ที่สามารถเข้าถึงและแก้ไขโดยสาธารณะได้ง่าย

นโยบายนี้เป็นส่วนสำคัญของการตอบสนองต่อภัยคุกคามอันเป็นผลมาจากการพัฒนาอย่างรวดเร็วของ ‘Generative AI’ ซึ่งเป็นเทคโนโลยีที่สามารถสร้างเนื้อหาใหม่ๆ ที่มีความซับซ้อนและสมจริงได้อย่างรวดเร็ว ความก้าวหน้าทางเทคโนโลยีนี้ทำให้ต้นทุนและอุปสรรคในการสร้างภาพลามกอนาจารเด็กที่ถูกสร้างขึ้นโดย AI นั้นลดลงอย่างมาก ทำให้เกิดความกังวลอย่างเร่งด่วนในหมู่นักการเมือง ผู้บังคับใช้กฎหมาย และนักกิจกรรมเพื่อสิทธิเด็ก

กลไกการทดสอบระบบ AI ล่วงหน้าและการกำกับดูแล

แกนหลักของแนวทางใหม่นี้คือการนำเสนอภาระผูกพันสำหรับผู้พัฒนา AI ที่ต้องทำการทดสอบความปลอดภัยของระบบของตนก่อนที่จะเปิดตัวต่อสาธารณะ การทดสอบนี้มีจุดมุ่งหมายเพื่อระบุและบรรเทาความเสี่ยงที่เกี่ยวข้องกับการใช้โมเดล AI เพื่อสร้างภาพที่ละเมิดสิทธิเด็ก โดยเฉพาะอย่างยิ่งภาพลามกอนาจารที่สร้างจาก AI (AI-generated CSAM) รัฐบาลสหราชอาณาจักรให้ความสำคัญอย่างยิ่งกับโมเดลที่มีความสามารถในการสร้างภาพเสมือนมนุษย์ที่มีความคล้ายคลึงคนจริงในระดับสูง

อย่างไรก็ตาม แผนดังกล่าวต้องเผชิญกับความท้าทายที่สำคัญเกี่ยวกับขอบเขตการบังคับใช้ โดยเฉพาะอย่างยิ่งกับโมเดล AI ที่เปิดเผยข้อมูลสู่สาธารณะ (Open-source models) ซึ่งเป็นแบบจำลองที่ซอร์สโค้ดและข้อมูลการฝึกอบรม (Training Data) สามารถเข้าถึงได้โดยสาธารณะและสามารถปรับเปลี่ยนได้ง่าย การควบคุมโมเดลโอเพนซอร์สเหล่านี้ถือเป็นเรื่องที่ซับซ้อน เนื่องจากผู้ใช้งานจำนวนมากสามารถดาวน์โหลดและนำไปแก้ไขเพื่อวัตถุประสงค์ที่ไม่เหมาะสมได้ รัฐบาลจึงกำลังประเมินกลไกที่เหมาะสมที่สุดในการกำกับดูแลภัยคุกคามที่เกิดจากเทคโนโลยีโอเพนซอร์สเหล่านี้

บทบาทของกฎหมายความมั่นคงออนไลน์ (Online Safety Act)

แผนการกำกับดูแลนี้จะบูรณาการเข้ากับกฎหมายความมั่นคงออนไลน์ (Online Safety Act - OSA) ที่มีการบังคับใช้แล้ว โดยกฎหมาย OSA มีบทบัญญัติที่ครอบคลุมถึงการจัดการเนื้อหาที่ผิดกฎหมายบนแพลตฟอร์มดิจิทัล ซึ่งรวมถึงการบังคับใช้กับเนื้อหาลามกอนาจารเด็กที่ถูกสร้างขึ้นใหม่โดย AI ด้วย สำนักงานคณะกรรมการกำกับดูแลการสื่อสาร (Ofcom) ซึ่งเป็นหน่วยงานกำกับดูแลด้านสื่อของสหราชอาณาจักร จะมีบทบาทสำคัญในการออกแนวทางปฏิบัติและดูแลการปฏิบัติตามกฎระเบียบใหม่เหล่านี้

ความร่วมมือระดับโลกและการตอบสนองของผู้มีส่วนได้ส่วนเสีย

การพัฒนากรอบการกำกับดูแลนี้เกิดขึ้นท่ามกลางแรงกดดันจากนานาชาติและหน่วยงานบังคับใช้กฎหมายต่างๆ ที่เรียกร้องให้มีการควบคุม AI อย่างเข้มงวดมากขึ้น โดยเฉพาะด้านความปลอดภัยของเด็ก คณะทำงานหน่วยอาชญากรรมเด็กและเยาวชนแห่งชาติ (The National Child Abuse and Exploitation Unit) และหน่วยงานระหว่างประเทศที่เกี่ยวข้อง ได้แสดงความเป็นห่วงอย่างยิ่งเกี่ยวกับความสามารถของ Generative AI ในการสร้างภาพในปริมาณมหาศาล ซึ่งเป็นภัยคุกคามใหม่ที่ต้องการการตอบสนองเชิงนโยบายอย่างรวดเร็ว การทดสอบระบบ AI ล่วงหน้าจึงถือเป็นขั้นตอนที่สำคัญในการย้ายความรับผิดชอบในการป้องกันภัยคุกคามนี้ไปยังผู้ผลิตเทคโนโลยี (AI developers) ตั้งแต่แรกเริ่ม

ในขณะที่สหราชอาณาจักรกำลังเดินหน้าอย่างจริงจังในเรื่องนี้ การถกเถียงยังคงมีอยู่เกี่ยวกับความสมดุลระหว่างการส่งเสริมนวัตกรรมทางเทคโนโลยีกับการป้องกันอันตรายทางสังคมที่ร้ายแรง การตัดสินใจที่สำคัญเกี่ยวกับการขยายขอบเขตการกำกับดูแลไปยังโมเดลแบบโอเพนซอร์สนั้น ถูกคาดการณ์ว่าจะกำหนดทิศทางของการควบคุม AI ในบริบทระดับโลกต่อไป โดยเน้นย้ำถึงความจำเป็นในการสร้างมาตรฐานสากลในการทดสอบความปลอดภัยของโมเดล AI

สรุป: แผนการของสหราชอาณาจักรแสดงถึงความมุ่งมั่นในการเข้าถึงปัญหาทางสังคมที่เกิดจาก Generative AI ด้วยแนวทางที่ครอบคลุมและก้าวหน้า โดยเน้นการป้องกันตั้งแต่ระยะเริ่มต้นของการพัฒนาเทคโนโลยี เพื่อปกป้องเด็กจากภัยคุกคามทางภาพสังเคราะห์ที่เพิ่มขึ้นอย่างรวดเร็ว

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)