ความตกใจเมื่อเห็นร่างกายของคุณถูกใช้ในหนังโป๊ดีฟีค

การต่อสู้ที่ยากลำบากในการลบภาพลามกที่สร้างโดย AI

ในยุคที่ปัญญาประดิษฐ์ (AI) พัฒนาอย่างรวดเร็ว ภาพลามกที่ไม่ได้รับความยินยอมซึ่งสร้างโดย deepfake กำลังแพร่กระจายอย่างกว้างขวาง สร้างความเดือดร้อนให้กับเหยื่อจำนวนมาก โดยเฉพาะอย่างยิ่งบุคคลทั่วไปที่ไม่ใช่คนดัง กรณีที่โด่งดังอย่าง Taylor Swift ในปี 2024 ได้จุดประกายให้เกิดการตื่นตัว แต่ปัญหานี้ไม่ได้จำกัดอยู่แค่คนดังเท่านั้น เหยื่อส่วนใหญ่เป็นวัยรุ่น นักสตรีมเมอร์ และบุคคลธรรมดาที่ถูกนำภาพไป合成กับเนื้อหาลามกโดยไม่ได้รับอนุญาต

แพลตฟอร์มใหญ่ๆ เช่น Pornhub และ Reddit ได้ออกนโยบายห้ามเนื้อหา deepfake ที่ไม่ได้รับความยินยอมตั้งแต่ปี 2024 Pornhub ประกาศว่าจะลบเนื้อหา AI-generated porn ที่ไม่ใช่ของผู้สร้างเองทั้งหมด ขณะที่ Reddit สั่งแบนชุมชนที่เกี่ยวข้องกับ deepfake ลามก OnlyFans ก็มีนโยบายคล้ายกัน โดยห้ามเนื้อหาที่สร้างโดย AI ที่เลียนแบบบุคคลอื่นโดยไม่ได้รับอนุญาต อย่างไรก็ตาม การบังคับใช้ยังคงเป็นความท้าทายใหญ่ เนื่องจากเนื้อหาเหล่านี้ถูกอัปโหลดใหม่บ่อยครั้งผ่านบัญชีปลอมหรือแพลตฟอร์มย่อย

กระบวนการลบเนื้อหา (takedown) อาศัยกฎหมาย DMCA (Digital Millennium Copyright Act) ของสหรัฐฯ เป็นหลัก ผู้เสียหายสามารถยื่นคำร้องให้ลบเนื้อหาที่ละเมิดลิขสิทธิ์ แต่สำหรับ deepfake ที่สร้างจากภาพถ่ายสาธารณะ การพิสูจน์การละเมิดจึงยาก AI generators เช่น Stable Diffusion หรือ LlamaPorn สามารถสร้างภาพจาก prompt ง่ายๆ โดยใช้ภาพ celeb หรือบุคคลทั่วไป ทำให้เนื้อหาเหล่านี้เลี่ยงการตรวจจับอัตโนมัติได้ง่าย

องค์กรอย่าง StopNCII.org (Stop Non-Consensual Intimate Images) ได้พัฒนาเครื่องมือ hashing ที่แปลงภาพส่วนตัวของเหยื่อเป็นรหัส hash โดยไม่เปิดเผยภาพต้นฉบับ แล้วแบ่งปันกับแพลตฟอร์มพันธมิตรกว่า 100 แห่ง เช่น Meta, TikTok และ Pornhub เพื่อตรวจจับและลบเนื้อหาที่ตรงกัน เครื่องมือนี้ช่วยลบภาพนู้ดที่ไม่ยินยอมกว่า 300,000 ภาพตั้งแต่ปี 2021 แต่สำหรับ deepfake ซึ่งเป็นภาพสังเคราะห์ใหม่ hash เดิมอาจไม่ตรง ทำให้ประสิทธิภาพลดลง

บริษัท Reality Defender ได้สร้างเครื่องมือตรวจจับ deepfake โดยใช้ AI วิเคราะห์ลักษณะเช่น pixel artifacts หรือ unnatural lighting ซึ่งช่วยแพลตฟอร์มตรวจสอบเนื้อหาได้ดีขึ้น แต่ปัญหาคือเนื้อหาเหล่านี้มักย้ายไปยังเว็บ piracy ที่กระจายศูนย์ เช่น torrent sites หรือ decentralized storage บน IPFS (InterPlanetary File System) ซึ่งยากต่อการลบเพราะไม่มีเจ้าของกลาง Torrent sites ชั้นนำ 13 แห่งตอบสนองต่อ DMCA บางส่วน แต่เว็บไซต์ deepfake เฉพาะทางมักเพิกเฉย

ตัวอย่างชัดเจนคือ LlamaPorn ซึ่งเป็นชุมชน Discord ที่มีสมาชิกกว่า 47,000 คน แชร์โมเดล AI สำหรับสร้าง deepfake ลามกจาก celeb เช่น Sydney Sweeney หรือนักแสดงไทยการ์ตูนอนิเมะ หลังถูกแบนจาก Discord ในเดือนเมษายน 2025 ชุมชนนี้ย้ายไป Telegram และเว็บส่วนตัว โดยใช้โมเดล open-source อย่าง Flux ซึ่งฝึกจากข้อมูลลามกขนาดใหญ่ ทำให้สร้างภาพคุณภาพสูงได้รวดเร็ว ผู้ดูแล LlamaPorn อย่าง “Magical Mystery” อ้างว่าพวกเขาไม่สนับสนุน nonconsensual content แต่ชุมชนยังคงแพร่กระจาย prompt และโมเดลอยู่

กฎหมายใหม่เริ่มเข้ามาช่วย เช่น DEFIANCE Act ในสหรัฐฯ ซึ่งอนุญาตให้เหยื่อฟ้องร้องผู้สร้างและเผยแพร่ deepfake ลามกได้โดยตรง คล้ายกับ Section 230 exception ในปี 2025 นอกจากนี้ EU AI Act จัด deepfake nonconsensual เป็นความเสี่ยงสูงสุด ต้องติดป้ายกำกับและห้ามในบางกรณี แต่การบังคับใช้ข้ามพรมแดนยังเป็นอุปสรรค โดยเฉพาะในประเทศที่กฎหมายลิขสิทธิ์อ่อนแอ

ผู้เชี่ยวชาญอย่าง Clare McGlynn จาก Durham University ชี้ว่า “whack-a-mole” คือสภาพที่แท้จริง การลบเนื้อหาแห่งหนึ่งแล้วมันผุดขึ้นใหม่ที่อื่น แม้แพลตฟอร์มหลักจะสะอาดขึ้น แต่ piracy sites และ dark web ยังคงเป็นแหล่งหลัก ปัญหายิ่งรุนแรงในเอเชีย เช่น ญี่ปุ่นและเกาหลีใต้ ที่ deepfake ลามกของ influencer วัยรุ่นแพร่หลาย

ในท้ายที่สุด การต่อสู้กับ AI porn nonconsensual ต้องอาศัยความร่วมมือระหว่างแพลตฟอร์ม เทคโนโลยีตรวจจับ กฎหมาย และการศึกษาเพื่อป้องกันตั้งแต่ต้นทาง แม้จะลบได้บางส่วน แต่การกำจัดทั้งหมดคงเป็นไปไม่ได้ในยุคที่ AI open-source เติบโตอย่างรวดเร็ว ผู้เสียหายต้องพึ่งพาเครื่องมืออย่าง StopNCII และ advocacy groups เพื่อปกป้องตัวเอง ในขณะที่อุตสาหกรรม AI ต้องรับผิดชอบมากขึ้นต่อผลกระทบทางสังคมที่เกิดจากเทคโนโลยีของตน

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)