โมเดลปัญญาประดิษฐ์จีน MiniMax-M2.7 รายงานว่าช่วยพัฒนาตัวเองในกระบวนการฝึกอบรม
บริษัท MiniMax ซึ่งเป็นผู้พัฒนาเทคโนโลยีปัญญาประดิษฐ์ชั้นนำจากจีน ได้เปิดตัวโมเดล MiniMax-M2.7 ซึ่งเป็นโมเดลมัลติโมดัลแบบโอเพ่นซอร์สขนาด 3 พันล้านพารามิเตอร์ โดยโมเดลนี้สามารถประมวลผลข้อมูลหลากหลายรูปแบบ เช่น ข้อความ รูปภาพ และวิดีโอ ได้อย่างมีประสิทธิภาพสูงสุด โมเดลดังกล่าวถูกเผยแพร่บนแพลตฟอร์ม Hugging Face ทำให้ผู้พัฒนาทั่วโลกสามารถเข้าถึงและนำไปใช้งานได้ฟรี
MiniMax-M2.7 โดดเด่นในด้านการสร้างวิดีโอจากข้อความ (text-to-video) โดยทำคะแนนนำหน้าคู่แข่งในหลานอันดับบอร์ดชั้นนำ เช่น VBench และ diğer benchmarks ที่วัดความสามารถในการสร้างเนื้อหาวิดีโอคุณภาพสูง นอกจากนี้ โมเดลนี้ยังรองรับการประมวลผลมัลติโมดัลแบบครบวงจร ทำให้สามารถตอบสนองคำสั่งที่ซับซ้อนซึ่งรวมข้อมูลจากหลายแหล่งเข้าด้วยกันได้อย่างราบรื่น
สิ่งที่น่าสนใจยิ่งกว่าความสามารถของโมเดลคือ รายงานจากสื่อจีนอย่าง 36Kr ระบุว่า MiniMax ได้นำโมเดล M2 เวอร์ชันก่อนหน้านี้มาใช้ในการพัฒนา M2.7 โดยตรง โดยเฉพาะในกระบวนการ distillation หรือการกลั่นกรองความรู้ (knowledge distillation) ซึ่งเป็นเทคนิคที่ใช้โมเดลขนาดใหญ่ช่วยถ่ายโอนความรู้ไปยังโมเดลขนาดเล็กกว่า เพื่อเพิ่มประสิทธิภาพโดยไม่ต้องใช้ทรัพยากร计算มหาศาล
ตามรายงานดังกล่าว ทีมพัฒนาของ MiniMax ได้ใช้ M2 ในการสร้างข้อมูลสังเคราะห์ (synthetic data) สำหรับการฝึกอบรม M2.7 โดยเฉพาะข้อมูลสำหรับการสร้างวิดีโอและการประมวลผลมัลติโมดัล นี่คือตัวอย่างของ “self-improvement loop” หรือวงจรการพัฒนาตัวเอง ซึ่งโมเดล AI ช่วยเหลือในการสร้างเวอร์ชันที่ดีขึ้นของตัวมันเอง ข้อมูลนี้ถูกเปิดเผยผ่านโพสต์บนแพลตฟอร์ม X (เดิมชื่อ Twitter) โดยผู้ใช้ @ZhonghuaDu ซึ่งอ้างอิงจากบทความของ 36Kr
กระบวนการนี้เริ่มต้นจากโมเดล M2 ซึ่งเป็นเวอร์ชันก่อนหน้าและมีประสิทธิภาพสูงอยู่แล้ว ทีมงานนำ M2 มาใช้สร้างชุดข้อมูลฝึกอบรมขนาดใหญ่ โดยมุ่งเน้นไปที่การปรับปรุงจุดอ่อนในด้านการสร้างวิดีโอ เช่น ความสมจริงของการเคลื่อนไหว ความต่อเนื่องของเฟรม และการตอบสนองต่อคำสั่งข้อความที่ซับซ้อน จากนั้น ข้อมูลที่สร้างโดย M2 จะถูกนำไปฝึกอบรม M2.7 ทำให้โมเดลใหม่มีประสิทธิภาพเหนือกว่าเดิม โดยไม่ต้องพึ่งพาข้อมูลจริงจากมนุษย์ในปริมาณมหาศาล ซึ่งช่วยลดต้นทุนและเวลาในการพัฒนา
เทคนิค knowledge distillation ในที่นี้ทำงานโดยให้โมเดล “ครู” (teacher model) ซึ่งคือ M2 สร้างการคาดการณ์ (predictions) จากข้อมูลอินพุต จากนั้นโมเดล “นักเรียน” (student model) ซึ่งคือ M2.7 จะเรียนรู้จากการคาดการณ์เหล่านั้น แทนที่จะเรียนรู้จากข้อมูลดิบเพียงอย่างเดียว วิธีนี้ช่วยให้ M2.7 สามารถจับคู่ความสามารถของ M2 ได้ใกล้เคียง ขณะที่ใช้พารามิเตอร์น้อยกว่า ทำให้เหมาะสำหรับการใช้งานบนอุปกรณ์ที่มีทรัพยากรจำกัด
MiniMax ไม่ใช่บริษัทหน้าใหม่ในวงการ AI ของจีน บริษัทนี้เคยประสบความสำเร็จกับโมเดลอย่าง Abby ซึ่งเป็นโมเดลสนทนาขนาดใหญ่ และ Haiper ซึ่งเป็นเครื่องมือสร้างวิดีโอจาก AI ที่ได้รับความนิยมระดับโลก การพัฒนา M2.7 จึงเป็นก้าวสำคัญที่แสดงให้เห็นถึงความก้าวหน้าของระบบนิเวศ AI จีน โดยเฉพาะในยุคที่การแข่งขันด้านโมเดลโอเพ่นซอร์สกำลังร้อนแรง
การที่ M2.7 สามารถขึ้นนำใน VBench leaderboard ซึ่งเป็นการทดสอบมาตรฐานสำหรับ text-to-video นั้น สะท้อนถึงความสามารถในการสร้างวิดีโอที่มีความยาวสูงสุด 10 วินาที ความละเอียด 480p และอัตราส่วนเฟรม 24 fps โดยรักษาความสอดคล้องกับคำสั่งต้นฉบับได้ดีเยี่ยม นอกจากนี้ โมเดลยังรองรับการประมวลผลภาษาจีนและอังกฤษได้อย่างมีประสิทธิภาพ ทำให้เหมาะสำหรับตลาดเอเชียและระดับสากล
รายงานจาก 36Kr ยังชี้ให้เห็นว่า การใช้โมเดลตัวเองในการพัฒนาเป็นกลยุทธ์ที่ MiniMax ใช้อย่างต่อเนื่อง เพื่อเร่งวงจรการพัฒนาให้เร็วขึ้นในสภาพแวดล้อมที่การแข่งขันดุเดือด แม้จะยังไม่มีรายละเอียดทางเทคนิคแบบละเอียดยิบที่เปิดเผย แต่การยืนยันจากแหล่งข่าวที่น่าเชื่อถือนี้ ทำให้ M2.7 กลายเป็นกรณีศึกษาสำคัญสำหรับการพัฒนา AI แบบ self-improving
ในบริบทกว้างขึ้น การพัฒนาเช่นนี้ช่วยลดการพึ่งพาข้อมูลจากภายนอก ซึ่งอาจมีข้อจำกัดด้านลิขสิทธิ์หรือคุณภาพ และเปิดโอกาสให้บริษัทขนาดกลางอย่าง MiniMax สามารถแข่งขันกับยักษ์ใหญ่อย่าง OpenAI หรือ Google ได้ โดยใช้ทรัพยากรที่จำกัดกว่า โมเดล M2.7 จึงไม่เพียงแต่เป็นเครื่องมือสำหรับนักพัฒนา แต่ยังเป็นตัวอย่างของนวัตกรรมที่ขับเคลื่อนด้วยตัวเองในอุตสาหกรรม AI
ผู้ที่สนใจสามารถดาวน์โหลดและทดลองใช้งาน MiniMax-M2.7 ได้ที่ Hugging Face ซึ่งมี لایเซนส์ Apache 2.0 อนุญาตให้ใช้งานเชิงพาณิชย์ได้อย่างอิสระ การเปิดตัวครั้งนี้ยิ่งตอกย้ำบทบาทของจีนในฐานะผู้นำด้าน AI โอเพ่นซอร์สที่กำลังเติบโตอย่างรวดเร็ว
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)