การคุกคามออนไลน์กำลังเข้าสู่ยุคเอไอ

การกลั่นแกล้งออนไลน์กำลังเข้าสู่ยุคปัญญาประดิษฐ์

ในยุคที่ปัญญาประดิษฐ์ (AI) เข้ามามีบทบาทในชีวิตประจำวันมากขึ้น การกลั่นแกล้งออนไลน์กำลังพัฒนาไปสู่อีกระดับที่ซับซ้อนและรุนแรงยิ่งกว่าเดิม เครื่องมือ AI ที่เข้าถึงได้ง่ายกำลังถูกนำมาใช้ในการสร้างเนื้อหาปลอมแปลง เช่น ภาพอนาจารที่สร้างโดย AI เสียงสังเคราะห์ และข้อความที่ก่อกวน ซึ่งทำให้เหยื่อเผชิญกับความเสียหายทางจิตใจและชื่อเสียงอย่างรุนแรง บทความนี้จะวิเคราะห์แนวโน้มดังกล่าว โดยอ้างอิงจากกรณีศึกษาจริงและมุมมองของผู้เชี่ยวชาญ เพื่อให้เข้าใจถึงความท้าทายใหม่ในโลกดิจิทัล

หนึ่งในตัวอย่างที่ชัดเจนที่สุดคือการใช้ AI สร้างภาพอนาจารปลอมแปลง โดยเฉพาะอย่างยิ่งต่อผู้หญิงและเด็กสาว เครื่องมืออย่าง Stable Diffusion และ Midjourney ซึ่งเดิมทีพัฒนาเพื่อการสร้างสรรค์ศิลปะ ถูกปรับแต่งให้ผลิตภาพลึกเฟค (deepfake) ที่ดูสมจริง โดยผู้ใช้เพียงอัปโหลดภาพถ่ายของเหยื่อและเพิ่มคำสั่ง เช่น “แต่งกายด้วยชุดว่ายน้ำ” หรือ “สถานการณ์ทางเพศ” กรณีของเทย์เลอร์ สวิฟต์ นักร้องดังที่ตกเป็นเหยื่อภาพอนาจาร AI ในปี 2024 บนแพลตฟอร์ม X (อดีต Twitter) สร้างความฮือฮาและถูกแชร์นับล้านครั้ง จนแพลตฟอร์มต้องลบเนื้อหาและระงับการค้นหาชื่อของเธอชั่วคราว อย่างไรก็ตาม กรณีดังกล่าวเป็นเพียงยอด iceberg เนื่องจากเหยื่อส่วนใหญ่เป็นบุคคลธรรมดา เช่น นักเรียนมัธยมปลายในสหรัฐอเมริกา ที่ถูกเพื่อนชายใช้ AI สร้างภาพเปลือยและแพร่กระจายในโรงเรียน ส่งผลให้เกิดการฆ่าตัวตายในบางราย

นอกจากภาพแล้ว เสียงสังเคราะห์จาก AI ก็กลายเป็นอาวุธใหม่ในการกลั่นแกล้ง เทคโนโลยี voice cloning สามารถเลียนแบบเสียงของบุคคลได้ภายในไม่กี่วินาที โดยใช้ตัวอย่างเสียงสั้นๆ เพียง 30 วินาที เครื่องมืออย่าง ElevenLabs และ Respeecher ถูกนำมาใช้สร้างคลิปเสียงปลอมเพื่อข่มขู่หรือหลอกลวง เช่น กรณีภรรยาคนหนึ่งในสหราชอาณาจักรที่ถูกอดีตสามีใช้ AI สร้างเสียงของเธอพูดคำหยาบคายและสารภาพผิดต่อการนอกใจ ก่อนเผยแพร่ในโซเชียลมีเดีย สร้างความเสียหายต่อชีวิตครอบครัวและอาชีพ นอกจากนี้ AI ยังถูกใช้ในรูปแบบ deepfake video เช่น วิดีโอปลอมของนักการเมืองหรือดาราที่ถูกบิดเบือนให้พูดสิ่งที่ไม่เคยพูด เพื่อจุดประสงค์ทางการเมืองหรือส่วนตัว

แพลตฟอร์มโซเชียลมีเดียกำลังเผชิญความท้าทายในการควบคุมเนื้อหา AI เนื่องจากปริมาณมหาศาลและความรวดเร็วในการสร้าง Meta, X และ Reddit ได้ปรับปรุงระบบตรวจจับ โดย Meta ประกาศในปี 2024 ว่าจะติดป้าย “Made with AI” สำหรับเนื้อหาที่สร้างโดย AI แต่ระบบเหล่านี้ยังมีช่องโหว่ โดยเฉพาะเนื้อหาที่ถูกสร้างบนแพลตฟอร์มเฉพาะทาง เช่น Discord หรือ Telegram ซึ่ง moderation ยากกว่า นอกจากนี้ AI chatbots อย่าง Grok ของ xAI หรือ Character.AI ก็ถูกใช้ในการ role-play ที่นำไปสู่การกลั่นแกล้ง เช่น ผู้ใช้สั่งให้บอทสร้างเรื่องราวอนาจารเกี่ยวกับบุคคลจริงและแชร์ต่อ

ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ชี้ให้เห็นว่า ยุค AI กำลังทำให้การกลั่นแกล้งออนไลน์ “ประชาธิปไตย” มากขึ้น เนื่องจากไม่จำเป็นต้องมีทักษะทางเทคนิคอีกต่อไป Claire Leibowicz จาก Ada Lovelace Institute กล่าวว่า “AI ทำให้การกลั่นแกล้งกลายเป็นเรื่องง่ายสำหรับทุกคน โดยเฉพาะวัยรุ่นที่เข้าถึงเครื่องมือเหล่านี้ผ่านแอปฟรี” การศึกษาจาก Pew Research Center ในปี 2025 พบว่า 41% ของผู้ใช้อินเทอร์เน็ตในสหรัฐฯ เคยประสบการกลั่นแกล้งออนไลน์ และตัวเลขนี้เพิ่มขึ้น 20% ในกลุ่มผู้ที่ตกเป็นเหยื่อ deepfake รัฐบาลหลายประเทศเริ่มตอบสนอง เช่น สหภาพยุโรปกับ AI Act ที่กำหนดให้เครื่องมือสร้าง deepfake ต้องเปิดเผยตัวตน และสหรัฐฯ ที่เสนอกฎหมาย DEFIANCE Act เพื่อฟ้องร้องผู้สร้าง non-consensual deepfake porn

อย่างไรก็ตาม ความท้าทายยังคงมีมาก เนื่องจาก AI พัฒนาเร็วกว่ากฎหมาย เครื่องมือตรวจจับ deepfake อย่าง Hive Moderation หรือ Reality Defender มีประสิทธิภาพเพียง 80-90% และมักถูกหลบเลี่ยงด้วยการปรับแต่งเล็กน้อย ผู้เชี่ยวชาญแนะนำแนวทางแก้ไขหลายประการ เช่น การฝึกอบรม AI ให้ปฏิเสธคำสั่งที่ก่อให้เกิดอันตราย การพัฒนา digital watermarking เพื่อติดตามแหล่งกำเนิดเนื้อหา และการศึกษา awareness สำหรับผู้ใช้ โดยเฉพาะเยาวชน นอกจากนี้ บริษัทเทคโนโลยีควรรับผิดชอบมากขึ้น โดยไม่ปล่อยเครื่องมือ AI โดยปราศจาก guardrails ที่แข็งแกร่ง

ในท้ายที่สุด การกลั่นแกล้งออนไลน์ยุค AI ไม่ใช่ปัญหาเฉพาะบุคคล แต่เป็นภัยคุกคามต่อสังคมดิจิทัลทั้งระบบ หากไม่มีการดำเนินการที่เด็ดขาด ผลกระทบจะรุนแรงยิ่งขึ้น โดยเฉพาะต่อกลุ่มเปราะบางอย่างผู้หญิงและเด็ก การรวมพลังระหว่างแพลตฟอร์ม รัฐบาล และชุมชน จะเป็นกุญแจสำคัญในการสร้างโลกออนไลน์ที่ปลอดภัยยั่งยืน

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)