การวิจัยของไมโครซอฟต์ชี้ว่า ระบบยืนยันความถูกต้องของสื่อที่สร้างโดย AI ยังไม่น่าเชื่อถือ แต่กฎหมายใหม่สมมติฐานว่ามันใช้งานได้
ในยุคที่ปัญญาประดิษฐ์ (AI) สามารถสร้างสื่อภาพ วิดีโอ และเสียงที่สมจริงยิ่งขึ้น การตรวจสอบแหล่งกำเนิดและความถูกต้องของสื่อเหล่านี้กลายเป็นประเด็นสำคัญ Microsoft นักวิจัยจากบริษัทเทคโนโลยียักษ์ใหญ่นี้ ได้ตีพิมพ์เอกสารวิจัยล่าสุดที่ตั้งคำถามถึงความน่าเชื่อถือของระบบยืนยันความถูกต้องของสื่อที่สร้างโดย AI โดยเฉพาะมาตรฐาน C2PA (Coalition for Content Provenance and Authenticity) ซึ่งเป็นมาตรฐานที่ได้รับการยอมรับจากอุตสาหกรรม แต่กลับถูกพิสูจน์ว่ามีช่องโหว่ร้ายแรง เอกสารวิจัยเรื่อง “Content Credentials are Broken: A Critical Look at Provenance and Authenticity in AI-generated Media” เน้นย้ำว่าการโจมตีทางเทคนิคสามารถหลีกเลี่ยงระบบเหล่านี้ได้ง่าย โดยที่กฎหมายใหม่ในหลายรัฐของสหรัฐอเมริกากลับสมมติฐานว่ามันใช้งานได้จริง
C2PA คืออะไร? มาตรฐานนี้พัฒนาโดยกลุ่มพันธมิตรที่รวมบริษัทชั้นนำอย่าง Adobe, Microsoft, Truepic และ BBC โดยมีจุดมุ่งหมายเพื่อฝังข้อมูลเมตาข้อมูล (metadata) แบบเข้ารหัสคริปโตกราฟิก (cryptographic signatures) ลงในไฟล์สื่อ เพื่อติดตามประวัติการแก้ไข แหล่งกำเนิด และระบุว่าสื่อนั้นถูกสร้างหรือแก้ไขโดย AI หรือไม่ ข้อมูลเหล่านี้เรียกว่า “Content Credentials” หรือ “เนื้อหาที่มีหลักฐานยืนยัน” ซึ่งจะถูกฝังในรูปแบบ JSON Web Token (JWT) และเชื่อมโยงกับบล็อกเชนเพื่อป้องกันการแก้ไข โดยผู้สร้างเนื้อหาสามารถลงนามดิจิทัลเพื่อรับประกันความถูกต้อง หากสื่อถูกแก้ไข ข้อมูลจะแสดงร่องรอยชัดเจน มาตรฐานนี้ถูกนำไปใช้ในซอฟต์แวร์อย่าง Adobe Photoshop, Microsoft Designer และเว็บเบราว์เซอร์อย่าง Chrome รวมถึงกล้องดิจิทัลบางรุ่น
อย่างไรก็ตาม เอกสารวิจัยของไมโครซอฟต์ซึ่งนำทีมโดยนักวิจัย John Yang, Jonas Geiping, Shantanu H. Joshi และ Samyak Parajuli ได้ทดสอบระบบ C2PA อย่างละเอียด โดยใช้เครื่องมือ AI ในการโจมตีสี่รูปแบบหลัก ประการแรกคือการปลอมแปลง “manifest” ซึ่งเป็นเอกสารหลักที่บรรจุข้อมูล credentials ผลการทดสอบพบว่าด้วยการปรับแต่งโมเดล Stable Diffusion เพียงเล็กน้อย สามารถสร้างภาพปลอมพร้อม credentials ที่ถูกต้องได้ถึง 93% ของกรณี โดยไม่ต้องใช้ข้อมูลฝึกเพิ่มเติมมากนัก นักวิจัยใช้เทคนิค fine-tuning บนชุดข้อมูล LAION-Aesthetics V2 เพื่อสร้างภาพที่เลียนแบบลายเซ็นดิจิทัลได้อย่างสมบูรณ์
ประการที่สองคือการลบ credentials โดยไม่ทิ้งร่องรอย ระบบ C2PA ออกแบบให้การลบข้อมูลจะถูกตรวจจับได้ แต่การทดสอบแสดงว่าสามารถลบ manifest ได้สำเร็จ 100% โดยใช้โมเดล inpainting ของ Stable Diffusion ซึ่งเติมส่วนที่หายไปด้วยเนื้อหาที่สอดคล้อง โดยไม่กระทบต่อคุณภาพภาพ นอกจากนี้ ยังสามารถหลีกเลี่ยง Active Integrity Profiles (AIPs) ซึ่งเป็นกลไกตรวจสอบเพิ่มเติมจาก Leica, Nikon และ Canon ได้อีกด้วย
ประการที่สาม การโจมตีแบบ “unawareness attack” โดยสร้างสื่อที่ credentials ไม่ตรงกับเนื้อหาจริง เช่น ภาพที่แสดงว่าเป็นภาพจริงแต่ credentials บอกว่าเป็น AI-generated สามารถทำได้ด้วย prompt engineering ในโมเดลอย่าง DALL-E 3 หรือ Midjourney โดยไม่ต้องปรับแต่งโมเดล สุดท้าย การโจมตีแบบ “confusion attack” ที่ทำให้เครื่องมือตรวจสอบอย่าง Content Credentials Verification tool สับสน โดย credentials ถูกต้องแต่เนื้อหาถูกแก้ไข สามารถทำได้ 100% ด้วย inpainting
ผลการทดสอบทั้งหมดใช้ทรัพยากรคอมพิวเตอร์ทั่วไป เช่น NVIDIA A100 GPU เพียง 8 ตัว ในการฝึกโมเดลแค่ไม่กี่ชั่วโมง แสดงให้เห็นว่าช่องโหว่เหล่านี้ไม่ใช่ทฤษฎี แต่สามารถนำไปปฏิบัติจริงได้ง่าย นักวิจัยสรุปว่าความน่าเชื่อถือของ C2PA อยู่ที่เพียง 50-70% ในสถานการณ์จริง ซึ่งต่ำเกินไปสำหรับการใช้งานเชิงพาณิชย์หรือกฎหมาย
ประเด็นสำคัญคือ กฎหมายใหม่ในสหรัฐฯ ที่กำลังจะบังคับใช้กลับสมมติฐานว่าการยืนยันสื่อ AI ใช้งานได้แล้ว เช่น รัฐโคโลราโด (Colorado) ที่บังคับให้ AI-generated media ต้องมีป้ายกำกับและลงนามคริปโต รัฐแคลิฟอร์เนีย (California) และเท็กซัส (Texas) ก็มีกฎหมายคล้ายกัน โดยอ้างอิง C2PA เป็นมาตรฐานหลัก นักวิจัยไมโครซอฟต์เตือนว่ากฎหมายเหล่านี้อาจไร้ผล เพราะผู้ไม่หวังดีสามารถหลีกเลี่ยงได้ง่าย สร้างความเสี่ยงต่อการแพร่กระจายข้อมูลเท็จ โดยเฉพาะในช่วงการเลือกตั้งที่กำลังใกล้เข้ามา
เอกสารวิจัยยังวิเคราะห์สาเหตุของช่องโหว่ โดยชี้ว่าความเปราะบางมาจากการที่ credentials ถูกฝังใน metadata ซึ่ง AI สามารถเลียนแบบหรือลบได้ง่าย นอกจากนี้ การพึ่งพา hardware trust roots เช่น Trusted Platform Modules (TPMs) ในกล้องและคอมพิวเตอร์ ก็ยังไม่ครอบคลุม เพราะผู้โจมตีสามารถใช้ซอฟต์แวร์ปลอมแปลงได้ นักวิจัยเสนอแนะทางแก้ไข เช่น การใช้ zero-knowledge proofs เพื่อยืนยันโดยไม่เปิดเผยข้อมูลทั้งหมด หรือพัฒนาโมเดลตรวจจับ adversarial examples แต่ยอมรับว่ายังไม่มีวิธีแก้ที่สมบูรณ์แบบ
ในบริบททางธุรกิจ บริษัทอย่าง Microsoft ที่พัฒนาเครื่องมืออย่าง Designer และ Video Authenticator เอง ยังคงสนับสนุน C2PA แต่การวิจัยนี้แสดงให้เห็นว่าต้องเร่งปรับปรุงอย่างจริงจัง หากไม่ทำ อาจนำไปสู่ความสูญเสียชื่อเสียงและความรับผิดชอบทางกฎหมาย โดยเฉพาะเมื่อสื่อปลอมถูกใช้ในโฆษณาหรือข่าวสารปลอม นักวิจัยเรียกร้องให้หน่วยงานกำกับดูแลและนักพัฒนา ทบทวนสมมติฐานในกฎหมาย และลงทุนวิจัยเพิ่มเติมเพื่อสร้างระบบที่แข็งแกร่งยิ่งขึ้น
เอกสารวิจัยนี้เผยแพร่เมื่อปลายเดือนกันยายน 2024 และสามารถดาวน์โหลดได้จาก arXiv สะท้อนถึงความเร่งด่วนในการพัฒนาเทคโนโลยียืนยันสื่อ AI ที่แท้จริง ท่ามกลางกระแส deepfake ที่กำลังระบาด
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)