DeepSeekMath V2: ความพยายามล่าสุดของ DeepSeek ในการท้าทายฟองสบู่ AI ของสหรัฐอเมริกา
DeepSeek บริษัทสตาร์ทอัพด้านปัญญาประดิษฐ์ (AI) จากจีน ได้เปิดตัว DeepSeekMath-V2 ซึ่งเป็นโมเดลภาษาขนาดใหญ่ (Large Language Model: LLM) แบบโอเพ่นเวท (open-weights) ที่เชี่ยวชาญด้านการใช้เหตุผลทางคณิตศาสตร์ โดยถือเป็นความพยายามล่าสุดของบริษัทในการท้าทายการครองตลาด AI ของสหรัฐอเมริกา ซึ่งถูกมองว่าเป็นฟองสบู่ที่พองตัวเกินจริง โมเดลนี้ไม่เพียงแต่แสดงประสิทธิภาพเหนือกว่าโมเดลชั้นนำจากสหรัฐฯ ในด้านคณิตศาสตร์เท่านั้น แต่ยังมีต้นทุนการฝึกอบรมที่ต่ำกว่าอย่างมาก ทำให้เป็นตัวอย่างที่ชัดเจนของความก้าวหน้าทางเทคโนโลยีจากจีนที่กำลังเข้ามาแย่งชิงส่วนแบ่งตลาด
DeepSeekMath-V2 มีให้เลือกสองขนาด เพื่อตอบสนองความต้องการที่หลากหลายของผู้ใช้งาน โดยรุ่นหลัก DeepSeekMath-V2 มีพารามิเตอร์รวมทั้งสิ้น 671 พันล้านพารามิเตอร์ โดยมีพารามิเตอร์ที่ใช้งานจริง (active parameters) 37 พารามิเตอร์ ส่วนรุ่น DeepSeekMath-V2-Lite มีพารามิเตอร์รวม 16 พารามิเตอร์ และใช้งานจริง 2.4 พารามิเตอร์ ทั้งสองรุ่นนี้ใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ซึ่งช่วยให้โมเดลสามารถเลือกใช้ผู้เชี่ยวชาญเฉพาะด้าน (experts) ในแต่ละงาน ทำให้ประสิทธิภาพสูงขึ้นขณะที่ประหยัดทรัพยากรการคำนวณ สถาปัตยกรรม MoE นี้เป็นเทคนิคที่ช่วยลดความซับซ้อนในการประมวลผล โดยโมเดลจะเรียกใช้เฉพาะส่วนที่จำเป็นในแต่ละครั้ง ซึ่งแตกต่างจากโมเดลแบบ dense ที่ใช้พารามิเตอร์ทั้งหมดทุกครั้ง
ในด้านประสิทธิภาพ DeepSeekMath-V2 สร้างมาตรฐานใหม่ใน基准การทดสอบคณิตศาสตร์หลายรายการ โดยรุ่นหลักทำคะแนนสูงสุดใน MATH-500 (96.4%) AIME 2024 (86.7%) และ MATH (76.6%) ซึ่งเหนือกว่าโมเดลชั้นนำจากสหรัฐฯ เช่น Claude 3.5 Sonnet จาก Anthropic, GPT-4o จาก OpenAI และ o1-mini จาก OpenAI นอกจากนี้ ยังเอาชนะ Qwen2-Math จาก Alibaba และโมเดลอื่นๆ จากจีนด้วย รุ่น Lite ก็แสดงศักยภาพที่น่าประทับใจ โดยทำคะแนนใน MATH-500 ได้ 89.5% และ AIME 2024 ได้ 70.0% ซึ่งใกล้เคียงกับโมเดลขนาดใหญ่บางตัว แม้จะมีขนาดเล็กกว่ามาก ประสิทธิภาพเหล่านี้มาจากการฝึกอบรมที่มุ่งเน้นไปที่ปัญหาคณิตศาสตร์จริง 500,000 ข้อ รวมถึงข้อมูลสังเคราะห์ (synthetic data) ที่สร้างขึ้นเพื่อเพิ่มความหลากหลายและความยาก
กระบวนการฝึกอบรมของ DeepSeekMath-V2 ใช้เทคนิคขั้นสูง เช่น Group Relative Policy Optimization (GRPO) ซึ่งเป็นวิธีการปรับแต่งนโยบาย (policy optimization) แบบใหม่ที่ช่วยให้โมเดลเรียนรู้การใช้เหตุผลเชิงลึกได้ดีขึ้น โดยไม่ต้องพึ่งพา Reinforcement Learning from Human Feedback (RLHF) แบบดั้งเดิม ซึ่งมักมีต้นทุนสูง การฝึกอบรมรุ่นหลักใช้เวลารวมประมาณ 2.328 ล้านชั่วโมง GPU บนคลัสเตอร์ Nvidia H800 โดยมีต้นทุนรวมเพียง 5.5 ล้านดอลลาร์สหรัฐ ซึ่งต่ำกว่าต้นทุนของโมเดลชั้นนำจากสหรัฐฯ อย่างมาก เช่น GPT-4 ที่คาดว่าต้องใช้เงินหลายพันล้านดอลลาร์ ความประหยัดนี้มาจากการใช้ฮาร์ดแวร์ที่ราคาถูกกว่าและการ优化การฝึกอบรมที่ชาญฉลาด ทำให้ DeepSeek สามารถแข่งขันได้แม้จะเผชิญข้อจำกัดด้านชิปขั้นสูงจากสหรัฐฯ
ผู้ก่อตั้งและ CEO ของ DeepSeek คือ Liang Wenfeng ได้แสดงจุดยืนที่ชัดเจนต่อฟองสบู่ AI ของสหรัฐฯ โดยระบุว่าบริษัทสหรัฐฯ อย่าง OpenAI กำลังใช้การโฆษณาชวนเชื่อเพื่อดึงดูดเงินทุนมหาศาล แต่ประสิทธิภาพจริงไม่สอดคล้องกับการลงทุน เขาเปรียบเทียบว่า DeepSeekMath-V2 แสดงให้เห็นว่าจีนกำลังไล่ตามและแซงหน้าสหรัฐฯ ในด้านโมเดลโอเพ่นซอร์ส โดยเฉพาะในงานเฉพาะทางอย่างคณิตศาสตร์ Liang ยังชี้ว่าการพึ่งพาฮาร์ดแวร์จาก Nvidia ของสหรัฐฯ เป็นจุดอ่อนของบริษัทอเมริกันเอง ขณะที่จีนกำลังพัฒนาเทคโนโลยีทางเลือก
โมเดล DeepSeekMath-V2 สามารถใช้งานได้หลากหลาย เช่น การแก้โจทย์คณิตศาสตร์ระดับแข่งขัน การพิสูจน์ทฤษฎี และการช่วยเหลือการวิจัย โดยรองรับ context length ยาวถึง 128K โทเค็น ทำให้จัดการปัญหาซับซ้อนได้ดี ผู้ใช้งานสามารถดาวน์โหลดโมเดลได้ฟรีจาก Hugging Face และรันบนฮาร์ดแวร์ทั่วไปผ่าน vLLM หรือ SGLang นอกจากนี้ DeepSeek ยังเปิดตัว API สำหรับ DeepSeekMath-V2-Base ในราคาเพียง 0.14 ดอลลาร์ต่อล้านโทเค็นอินพุต และ 0.28 ดอลลาร์ต่อล้านโทเค็นเอาต์พุต ซึ่งถูกกว่าคู่แข่งอย่าง Grok-2 จาก xAI ถึง 20 เท่า
การเปิดตัว DeepSeekMath-V2 ไม่เพียงแต่เป็นชัยชนะทางเทคนิค แต่ยังเป็นสัญญาณของการเปลี่ยนแปลงในอุตสาหกรรม AI ทั่วโลก โดยแสดงให้เห็นว่าความก้าวหน้าสามารถเกิดขึ้นได้โดยไม่ต้องใช้งบประมาณพันล้านดอลลาร์ หากมีนวัตกรรมที่เหมาะสม จีนกำลังพิสูจน์ว่าตนเองเป็นผู้เล่นหลักในสนาม AI โอเพ่นซอร์ส ซึ่งอาจบังคับให้บริษัทสหรัฐฯ ต้องปรับตัวเพื่อรักษาความเป็นผู้นำ ท่ามกลางการแข่งขันที่ดุเดือดนี้ ผู้ประกอบการและนักวิจัยควรติดตามพัฒนาการของ DeepSeekMath-V2 อย่างใกล้ชิด เนื่องจากอาจเป็นจุดเริ่มต้นของยุคใหม่ใน AI คณิตศาสตร์
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)