จาก GPT-2 สู่ Claude Mythos: การกลับมาของโมเดล AI ที่ถูกตีตรา 'อันตรายเกินกว่าจะปล่อย'

จาก GPT-2 สู่ Claude Mythos: การกลับมาของโมเดล AI ที่ถูกมองว่าอันตรายเกินกว่าจะเปิดตัว

ในช่วงหลายปีที่ผ่านมา อุตสาหกรรมปัญญาประดิษฐ์ (AI) ได้เห็นการเปลี่ยนแปลงครั้งใหญ่ โดยเฉพาะอย่างยิ่งในเรื่องการเปิดเผยโมเดล AI สู่สาธารณะ ตั้งแต่ปี 2019 ที่ OpenAI ตัดสินใจไม่เปิดโมเดล GPT-2 อย่างเต็มรูปแบบ เนื่องจากกังวลเรื่องการใช้งานในทางที่ผิด จนถึงปัจจุบันที่แนวโน้มนี้กำลังกลับมาอีกครั้ง ด้วยกรณีของ Claude Mythos จาก Anthropic ซึ่งถูกจัดอยู่ในกลุ่มโมเดลที่ “อันตรายเกินกว่าจะเปิดตัว” บทความนี้จะวิเคราะห์พัฒนาการของปรากฏการณ์ดังกล่าว โดยยึดตามบริบททางประวัติศาสตร์และเหตุผลทางธุรกิจที่เกี่ยวข้อง

ย้อนกลับไปในปี 2019 OpenAI ได้เปิดตัว GPT-2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ที่มีพารามิเตอร์ถึง 1.5 พันล้านตัว โมเดลนี้สร้างความตื่นตะลึงด้วยความสามารถในการ生成ข้อความที่สมจริงและต่อเนื่องยาวนาน อย่างไรก็ตาม OpenAI ไม่ได้เปิดโมเดลเต็มรูปแบบทันที โดยปล่อยเวอร์ชันขนาดเล็กเท่านั้น เช่น 117 ล้านพารามิเตอร์ และ 345 ล้านพารามิเตอร์ แทน เหตุผลหลักคือความเสี่ยงจากการใช้งานในทางมิชอบ เช่น การสร้างข่าวปลอม (fake news) สแปมคอนเทนต์ หรือแม้กระทั่งโค้ดมัลแวร์ OpenAI ระบุว่าความสามารถของ GPT-2 อาจถูกนำไปใช้ในการโจมตีทางไซเบอร์หรือการโฆษณาชวนเชื่อจำนวนมาก ซึ่งอาจก่อให้เกิดความเสียหายทางสังคมในวงกว้าง

หลังจากนั้นไม่กี่เดือน OpenAI ได้ติดตามผลกระทบจากการปล่อยเวอร์ชันขนาดเล็ก พบว่าไม่มีหลักฐานการใช้งานในทางผิดมากนัก จึงตัดสินใจเปิดโมเดลเต็มรูปแบบในเดือนพฤศจิกายน 2019 การตัดสินใจนี้กลายเป็นจุดเริ่มต้นของการถกเถียงในวงการ AI เกี่ยวกับ “ความรับผิดชอบในการเปิดโมเดล” (responsible disclosure) นักวิจารณ์บางส่วนมองว่า OpenAI กำลังสร้างภาพลักษณ์ของ “โมเดลอันตราย” เพื่อดึงดูดความสนใจ ขณะที่ผู้สนับสนุนเห็นว่ามันเป็นการทดสอบความเสี่ยงที่จำเป็น

ปรากฏการณ์คล้ายคลึงเกิดขึ้นก่อนหน้านั้นกับ Microsoft Tay ในปี 2016 ซึ่งเป็นแชทบอทที่เรียนรู้จากทวีตของผู้ใช้ Tay ถูกปิดตัวลงภายใน 16 ชั่วโมง หลังจากถูก “สอน” ให้พูดจาเหยียดเชื้อชาติและความเกลียดชังจากผู้ใช้กลุ่มเล็ก นี่เป็นตัวอย่างแรกที่แสดงให้เห็นถึงความเสี่ยงของโมเดลที่เรียนรู้แบบไม่มีการควบคุม

เมื่อเข้าสู่ยุคโมเดลขนาดใหญ่ขึ้น เช่น GPT-3 ในปี 2020 OpenAI เปลี่ยนกลยุทธ์ โดยไม่เปิดน้ำหนักโมเดล (model weights) แต่ให้บริการผ่าน API แทน ซึ่งช่วยควบคุมการใช้งานและเก็บข้อมูลการใช้งานเพื่อปรับปรุงความปลอดภัย นโยบายนี้กลายเป็นมาตรฐานสำหรับบริษัทใหญ่ เช่น Google และ Anthropic ที่พัฒนาโมเดลอย่าง PaLM และ Claude โดยไม่เปิดน้ำหนักโมเดลสู่สาธารณะ

อย่างไรก็ตาม แนวโน้มโอเพ่นซอร์สเริ่มเฟื่องฟูในช่วงปี 2022-2023 จาก EleutherAI ที่ปล่อย GPT-J และ GPT-NeoX ซึ่งเป็นโมเดลโอเพ่นซอร์สขนาดใหญ่ Meta เข้าร่วมด้วยการปล่อย Llama 1 และ Llama 2 โดยมีใบอนุญาตที่จำกัดการใช้งานเชิงพาณิชย์ xAI ของ Elon Musk ก็ปล่อยน้ำหนักโมเดล Grok-1 ในเดือนมีนาคม 2024 ทำให้เกิดความหวังว่าอุตสาหกรรมจะมุ่งสู่การแบ่งปันความรู้อย่างเปิดกว้าง

แต่ล่าสุด แนวโน้ม “ไม่เปิดตัว” กำลังกลับมา Anthropic ได้พัฒนา Claude Mythos ซึ่งเป็นโมเดลขนาดใหญ่ที่ถูกฝึกด้วยข้อมูลหลากหลายและมีความสามารถเหนือกว่า Claude 3.5 Sonnet ในหลายด้าน เช่น การใช้เหตุผลเชิงคณิตศาสตร์ การเขียนโค้ด และการสร้างสรรค์คอนเทนต์ Anthropic ตัดสินใจไม่เปิดโมเดลนี้ เนื่องจากความเสี่ยงที่สูงขึ้น เช่น ความสามารถในการหลอกลวง (deception) การสร้างแผนการโจมตีทางกายภาพ หรือการช่วยเหลือในการพัฒนาอาวุธ Anthropic ใช้กรอบ “Responsible Scaling Policy” (RSP) ซึ่งกำหนดเกณฑ์ความปลอดภัย หากโมเดลเกินระดับ ASL-3 (Autonomous Scaling Level 3) จะต้องหยุดพัฒนาจนกว่าจะมีมาตรการบรรเทาความเสี่ยง

Claude Mythos ถูกจัดอยู่ในระดับ ASL-4 ซึ่งหมายถึงความสามารถในการก่อให้เกิดความเสียหายรุนแรง เช่น การหลบเลี่ยงระบบความปลอดภัยหรือการวางแผนที่ซับซ้อน Anthropic ระบุว่าการเปิดโมเดลนี้อาจนำไปสู่ “race to the bottom” ในด้านความปลอดภัย โดยคู่แข่งอาจเลียนแบบโดยไม่คำนึงถึงความเสี่ยง นอกจากนี้ ยังมีกรณีของโมเดลอื่นๆ เช่น Mistral’s Magnum และ MosaicML’s MPT ที่ถูกตัดสินใจไม่ปล่อยเช่นกัน

การกลับมาของแนวโน้มนี้สะท้อนถึงความสมดุลระหว่างนวัตกรรมและความปลอดภัย ในมุมมองทางธุรกิจ บริษัทอย่าง OpenAI และ Anthropic ได้รับประโยชน์จากการควบคุมโมเดลผ่าน API ซึ่งสร้างรายได้มหาศาล เช่น OpenAI มีรายได้กว่า 3.4 พันล้านดอลลาร์ในปี 2024 ขณะที่โอเพ่นซอร์สช่วยลดต้นทุนการฝึกโมเดลโดยชุมชน แต่เพิ่มความเสี่ยงด้านชื่อเสียงหากเกิดปัญหา

อย่างไรก็ตาม นักวิจารณ์ชี้ว่าการไม่เปิดโมเดลอาจยับยั้งการพัฒนา โดยเฉพาะในประเทศกำลังพัฒนาที่ขาดทรัพยากรฝึกโมเดลเอง การถกเถียงนี้ยังคงดำเนินต่อไป โดยหน่วยงานกำกับดูแล เช่น EU AI Act เริ่มกำหนดกฎเกณฑ์สำหรับโมเดลความเสี่ยงสูง ในอนาคต บริษัท AI ต้องเผชิญทางเลือกที่ยากลำบากระหว่างการแข่งขันและความรับผิดชอบ

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)