AI กำลังทำให้การหลอกลวงออนไลน์ง่ายขึ้นแล้ว
ในยุคที่ปัญญาประดิษฐ์ (AI) พัฒนาอย่างรวดเร็ว ผู้หลอกลวงออนไลน์กำลังใช้ประโยชน์จากเครื่องมือเหล่านี้เพื่อเพิ่มประสิทธิภาพการฉ้อโกง โดยเฉพาะอย่างยิ่งเครื่องมือสร้างเนื้อหาแบบสร้างสรรค์ (generative AI) ที่ช่วยให้พวกเขาสร้างเนื้อหาที่ดูน่าเชื่อถือและปรับแต่งได้อย่างละเอียด เช่น เสียงที่เลียนแบบ ภาพวิดีโอปลอม และข้อความหลอกลวงที่เขียนได้อย่างมืออาชีพ ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์เตือนว่า การหลอกลวงเหล่านี้กำลังกลายเป็นภัยคุกคามที่ซับซ้อนยิ่งขึ้น และอาจทำให้ผู้เสียหายจำนวนมากเพิ่มขึ้นในอนาคตอันใกล้
หนึ่งในตัวอย่างที่ชัดเจนที่สุดเกิดขึ้นเมื่อเดือนกุมภาพันธ์ที่ผ่านมาในฮ่องกง พนักงานการเงินของบริษัทแห่งหนึ่งถูกหลอกให้โอนเงินกว่า 200 ล้านดอลลาร์ฮ่องกง (ประมาณ 25 ล้านดอลลาร์สหรัฐ) ผ่านการประชุมวิดีโอปลอม โดยผู้หลอกลวงใช้ deepfake เพื่อสร้างภาพวิดีโอของผู้บริหารระดับสูงหลายคนที่สั่งการโอนเงิน พนักงานผู้ตกเป็นเหยื่อเชื่อมั่นในภาพและเสียงที่สมจริง จนยอมทำตามคำสั่งโดยไม่ตรวจสอบเพิ่มเติม กรณีนี้ถูกเปิดเผยโดยตำรวจฮ่องกง และถือเป็นตัวอย่างของการใช้ AI ในอาชญากรรมระดับมืออาชีพที่ซับซ้อน
นอกจากนี้ การโจมตีด้วยเสียงปลอม (voice cloning) กำลังแพร่หลายมากขึ้น โดยเฉพาะในรูปแบบ “grandparent scam” หรือการหลอกลวงผู้สูงอายุ โดยผู้หลอกลวงบันทึกเสียงของบุคคลที่รู้จักจากโซเชียลมีเดีย แล้วใช้ AI สร้างเสียงเลียนแบบเพื่อโทรศัพท์ขอเงินฉุกเฉิน เช่น “ยายครับ ผมประสบอุบัติเหตุ ช่วยโอนเงินหน่อยครับ” เครื่องมืออย่าง ElevenLabs หรือ Respeecher สามารถสร้างเสียงที่เหมือนจริงภายในไม่กี่วินาที โดยใช้ตัวอย่างเสียงเพียง 30 วินาที ผู้เชี่ยวชาญจากบริษัท McAfee ระบุว่า การโจมตีด้วยเสียงปลอมเพิ่มขึ้น 225% ในปีที่ผ่านมา และคาดว่าจะรุนแรงยิ่งขึ้นเมื่อ AI พัฒนา
AI ยังช่วยผู้หลอกลวงในการสร้างเว็บไซต์ปลอมและอีเมลฟิชชิง (phishing) ที่ดูเป็นมืออาชีพมากขึ้น โปรแกรมอย่าง ChatGPT สามารถเขียนข้อความหลอกลวงที่ปราศจากข้อผิดพลาดทางไวยากรณ์และปรับให้เข้ากับเหยื่อแต่ละคน เช่น สร้างอีเมลปลอมจากธนาคารที่ขอให้คลิกลิงก์เพื่อยืนยันข้อมูล รายงานจาก Federal Trade Commission (FTC) ของสหรัฐฯ ชี้ว่า การหลอกลวงโดยการปลอมตัว (impersonation scams) สร้างความเสียหายกว่า 2.7 พันล้านดอลลาร์ในปี 2023 เพิ่มขึ้นเกือบ 25% จากปีก่อนหน้า และ AI กำลังเร่งให้ตัวเลขเหล่านี้พุ่งสูงขึ้น
ผู้เชี่ยวชาญด้านความมั่นคงปลอดภัย เช่น Jen Easterly ผู้อำนวยการ Cybersecurity and Infrastructure Security Agency (CISA) ของสหรัฐฯ เตือนว่า AI ทำให้ผู้หลอกลวงสามารถดำเนินการได้ในวงกว้างและรวดเร็ว โดยไม่จำเป็นต้องมีทักษะทางเทคนิคขั้นสูงอีกต่อไป ในขณะที่บริษัทเทคโนโลยีอย่าง OpenAI และ Google กำลังพัฒนาเครื่องมือตรวจจับเนื้อหาปลอม แต่ก็ยังตามไม่ทันความเร็วของผู้ไม่หวังดี บางบริษัท เช่น Microsoft ได้เพิ่มการป้องกันใน Bing และ Copilot เพื่อบล็อกการใช้งานที่อาจนำไปสู่การหลอกลวง แต่ผู้เชี่ยวชาญเห็นว่ายังไม่เพียงพอ
ในตลาดมืด (dark web) เครื่องมือ AI สำหรับการหลอกลวงกำลังกลายเป็นสินค้าขายดี เช่น “FraudGPT” ซึ่งเป็นเวอร์ชันดัดแปลงของ ChatGPT ที่ออกแบบมาเพื่ออาชญากรรมโดยเฉพาะ สามารถสร้างสคริปต์หลอกลวง โค้ดมัลแวร์ หรือแม้แต่แผนการฉ้อโกงทั้งหมด ราคาเริ่มต้นเพียงไม่กี่สิบดอลลาร์ต่อเดือน ทำให้ผู้หลอกลวงรายย่อยเข้าถึงได้ง่าย นักวิจัยจากบริษัท Recorded Future พบว่าการค้นหาคำว่า “AI scam” ในฟอรัมมืดเพิ่มขึ้น 1,400% ในช่วงปีที่ผ่านมา
เพื่อรับมือกับภัยคุกคามนี้ ผู้เชี่ยวชาญแนะนำให้องค์กรและบุคคลทั่วไปใช้มาตรการป้องกันหลายชั้น เช่น ใช้การยืนยันตัวตนแบบหลายปัจจัย (multi-factor authentication) ตรวจสอบคำขอโอนเงินด้วยช่องทางอื่น และฝึกอบรมพนักงานให้ระวังสัญญาณของ deepfake เช่น การเคลื่อนไหวปากที่ไม่ตรงกับเสียง หรือพื้นหลังที่ผิดปกติ นอกจากนี้ หน่วยงานกำกับดูแลควรเร่งออกกฎระเบียบสำหรับเครื่องมือ AI โดยเฉพาะด้านการติดฉลากเนื้อหาที่สร้างโดย AI เพื่อเพิ่มความโปร่งใส
อย่างไรก็ตาม ความท้าทายยังคงอยู่เนื่องจาก AI พัฒนาเร็วกว่ากฎหมายและเครื่องมือตรวจจับ ผู้เชี่ยวชาญจาก MIT Technology Review อย่าง Madhumita Murgia ชี้ว่า เรากำลังเข้าสู่ยุคที่การแยกแยะจริง-ปลอมยากยิ่งขึ้น และหากไม่มีการดำเนินการที่เด็ดขาด การหลอกลวงออนไลน์ที่ขับเคลื่อนด้วย AI อาจกลายเป็นปัญหาเศรษฐกิจระดับโลก สร้างความเสียหายหลายหมื่นล้านดอลลาร์ต่อปี
องค์กรธุรกิจควรให้ความสำคัญกับการลงทุนในเทคโนโลยีป้องกัน AI เช่น ระบบตรวจจับ deepfake และการฝึกอบรมด้านความมั่นคงปลอดภัย เพื่อลดความเสี่ยงในยุคดิจิทัลนี้ ในท้ายที่สุด การตื่นตัวของทุกภาคส่วนจะเป็นกุญแจสำคัญในการต่อสู้กับภัยคุกคามที่กำลังพัฒนาอย่างต่อเนื่อง
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)