โอเพนเอไอเข้มงวดมาตรการรักษาความปลอดภัยของ Sora 2 เพิ่มเติม หลังจากที่ภาพลักษณ์ของบราيان ครานสตันปรากฏขึ้นโดยไม่ได้รับอนุญาต

การยกระดับมาตรการความปลอดภัยของ Sora 2 โดย OpenAI: การตอบสนองต่อปัญหาการใช้ภาพลักษณ์บุคคลโดยไม่ได้รับอนุญาต

OpenAI ได้ดำเนินการเสริมความแข็งแกร่งด้านมาตรการความปลอดภัยสำหรับโมเดลการสร้างวิดีโอ (Text-to-Video) ที่มีชื่อว่า Sora 2 อย่างเร่งด่วน ภายหลังเกิดกรณีสำคัญที่ภาพลักษณ์ของนักแสดงชื่อดังอย่าง Bryan Cranston ถูกนำไปสร้างขึ้นในวิดีโอโดยปัญญาประดิษฐ์โดยไม่ผ่านการยินยอมจากเจ้าตัว มาตรการเพิ่มเติมเหล่านี้มุ่งเน้นไปที่การป้องกันการสร้างเนื้อหาที่ละเมิดสิทธิ์โดยเฉพาะอย่างยิ่งการใช้ภาพของบุคคลที่มีชื่อเสียงหรือบุคคลสาธารณะ

เหตุการณ์ที่จุดชนวนให้เกิดการดำเนินการนี้เกี่ยวข้องกับวิดีโอที่สร้างโดย AI ซึ่งปรากฏภาพของ Bryan Cranston แต่เมื่อตรวจสอบแล้วพบว่าวิดีโอดังกล่าวไม่ได้ถูกสร้างขึ้นผ่านทาง Sora โดยตรง แต่เป็นการสร้างผ่านเครื่องมือ AI อื่นแล้วถูกเผยแพร่ในภายหลัง อย่างไรก็ตามเหตุการณ์นี้ได้ตอกย้ำถึงความจำเป็นเร่งด่วนในการป้องกันการนำภาพลักษณ์ของบุคคลที่มีลิขสิทธิ์ไปใช้ในลักษณะที่บิดเบือนหรือโดยไม่ได้รับอนุญาต ซึ่งเป็นความเสี่ยงที่สำคัญสำหรับเทคโนโลยีการสร้างวิดีโอทุกประเภท

การปรับปรุงกลไกการป้องปราม (Guardrails) ของ Sora 2

ภายใต้ข้อกังวลที่เพิ่มมากขึ้น OpenAI ได้ตัดสินใจที่จะเพิ่มระดับความเข้มงวดในการป้องกันที่ฝังอยู่ใน Sora 2 โดยปัจจุบันเทคโนโลยีดังกล่าวถูกจำกัดการเข้าถึงอยู่ในวงปิดสำหรับ “ทีมสีแดง” (Red Teaming) ซึ่งเป็นกลุ่มผู้เชี่ยวชาญที่ได้รับมอบหมายให้ทดสอบการทำงานของระบบเพื่อค้นหาจุดอ่อนและช่องโหว่ด้านความปลอดภัย แม้ว่าในขั้นต้น OpenAI ได้ติดตั้งระบบป้องปรามหลายชั้น รวมถึงการจำกัดการสร้างเนื้อหาที่แสดงความรุนแรงสุดขั้ว การสร้างภาพทางเพศที่โจ่งแจ้ง การสร้างภาพของบุคคลที่มีลิขสิทธิ์ หรือเนื้อหาที่ส่งเสริมกิจกรรมที่ผิดกฎหมาย

แนวทางใหม่ที่ OpenAI นำมาใช้คือการเพิ่มฟังก์ชันการตรวจจับภาพจำลอง (Synthetic Imagery Detection) ที่มีความซับซ้อนขึ้นอย่างมาก โดยเฉพาะอย่างยิ่งการตรวจจับใบหน้าของบุคคลที่มีชื่อเสียงและบุคคลสาธารณะที่มีความเสี่ยงสูงต่อการถูกนำไปใช้ในทางที่ผิด ระบบจะทำการบล็อกคำสั่ง (Prompts) ที่พยายามสร้างภาพลักษณ์ของบุคคลเหล่านี้โดยอัตโนมัติ

การตอบสนองที่ครอบคลุมของ OpenAI

การตอบสนองของ OpenAI ได้ขยายไปสู่การปรับปรุงนโยบายการใช้งานและการควบคุมทางเทคนิค โดยสรุปมาตรการหลักมีดังนี้:

  1. การจำกัดการสร้างภาพลักษณ์บุคคลสาธารณะ: OpenAI มุ่งมั่นที่จะป้องกันการสร้างวิดีโอที่ใช้ภาพของบุคคลสาธารณะที่ยังมีชีวิตอยู่และคนดังอย่างเข้มงวด จุดนี้ถือเป็นความท้าทายทางเทคนิคที่สำคัญ เนื่องจากต้องอาศัยการจัดเก็บข้อมูลชีวมาตร (Biometric Data) หรือฐานข้อมูลภาพลักษณ์ที่ครอบคลุม เพื่อให้ AI สามารถระบุและบล็อกได้

  2. การป้องกันเนื้อหาที่ละเมิดลิขสิทธิ์และทรัพย์สินทางปัญญา: นอกเหนือจากใบหน้าบุคคลแล้ว Sora 2 ยังได้รับการเสริมให้สามารถตรวจสอบและบล็อกการสร้างเนื้อหาที่เข้าข่ายการละเมิดลิขสิทธิ์อื่น ๆ รวมถึงเครื่องหมายการค้า และทรัพย์สินทางปัญญาอื่น ๆ ตามที่ระบุไว้ในนโยบายการใช้งาน

  3. การทำงานร่วมกับผู้เชี่ยวชาญ: OpenAI กำลังบูรณาการการทำงานร่วมกับผู้เชี่ยวชาญด้านภาพยนตร์และวิดีโอในระหว่างช่วงการทดสอบแบบ Red Teaming เพื่อให้มั่นใจว่าเครื่องมือป้องปรามนั้นมีประสิทธิภาพสูงและสามารถรับมือกับกลยุทธ์ของบุคคลที่พยายามหลีกเลี่ยงการควบคุมได้

  4. การพัฒนาเครื่องมือตรวจสอบแหล่งที่มา (Provenance Tools): เพื่อเพิ่มความโปร่งใสและสร้างความมั่นใจ ระบบ Sora 2 จะมีการฝังข้อมูลเมตา (Metadata) หรือลายน้ำดิจิทัล (Digital Watermarks) ไว้ในวิดีโอที่สร้างขึ้นทั้งหมด แม้ว่าเครื่องมือนี้อาจถูกถอดออกได้ง่าย แต่ก็เป็นก้าวแรกที่สำคัญในการช่วยให้ผู้ชมสามารถแยกแยะระหว่างเนื้อหาจริงกับเนื้อหาที่สร้างโดย AI ที่อาจถูกนำไปใช้เพื่อสร้างข้อมูลเท็จ (Deepfakes)

ความท้าทายในอนาคต: การประยุกต์ใช้ในวงกว้าง

แม้ว่ามาตรการความปลอดภัยที่เข้มงวดนี้จะถูกนำมาใช้ในระหว่างการทดสอบในวงจำกัด แต่ก็เป็นสัญญาณที่ชัดเจนถึงความมุ่งมั่นของ OpenAI ในการจัดการกับความเสี่ยงด้านจริยธรรมที่มาพร้อมกับเทคโนโลยีการสร้างวิดีโอที่เหมือนจริง อย่างไรก็ตาม เมื่อ Sora 2 ถูกปรับใช้อย่างกว้างขวาง ความท้าทายหลักคือการรักษาสมดุลระหว่างการส่งเสริมนวัตกรรมกับความสามารถในการบังคับใช้การควบคุมเหล่านี้อย่างต่อเนื่อง

บทเรียนจากกรณีของ Bryan Cranston คือตัวอย่างที่สำคัญว่าเทคโนโลยี AI สามารถถูกนำไปใช้ในการสร้างภาพลักษณ์บุคคลโดยไม่ได้รับอนุญาตได้ง่ายเพียงใด แม้ว่าภาพนั้นจะไม่ได้สร้างโดย Sora โดยตรง แต่เหตุการณ์นี้ก็ทำหน้าที่เป็นตัวเร่งให้ OpenAI ต้องวางแผนเชิงรุกเพื่อป้องกันการใช้เทคโนโลยีของตนในทางที่ผิดตั้งแต่เนิ่น ๆ การเสริมความแข็งแกร่งของ Sora 2 จึงไม่เพียงแต่เป็นการแก้ไขปัญหาด้านเทคนิค แต่ยังเป็นการแสดงความรับผิดชอบต่อสาธารณะในการควบคุมเครื่องมือที่ทรงพลังดังกล่าว

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)