Qwen3.5 ฟรีของ Alibaba ส่งสัญญาณว่าการแข่งขัน AI น้ำหนักเปิดของจีนยังห่างไกลจากการชะลอตัวลง

การเปิดตัว Qwen2.5-Max ฟรีของอาลีบาบา สัญญาณว่าการแข่งขัน AI โมเดลโอเพ่นเวทของจีนยังร้อนแรงไม่หยุดยั้ง

อาลีบาบาได้สร้างความฮือฮาในวงการปัญญาประดิษฐ์ (AI) อีกครั้ง ด้วยการเปิดตัวโมเดล Qwen2.5-Max และเวอร์ชันพรีวิว Qwen2.5-Max-Preview ให้ใช้งานฟรีบนแพลตฟอร์ม Hugging Face และ Alibaba Cloud Model Studio โดยโมเดลดังกล่าวถือเป็นโมเดลโอเพ่นเวท (open-weight) ที่มีประสิทธิภาพสูงสุดจากจีนในขณะนี้ การเคลื่อนไหวครั้งนี้ไม่เพียงแต่ยกระดับความสามารถของอาลีบาบาในฐานะผู้เล่นหลักในตลาด AI ของจีน แต่ยังเป็นสัญญาณชัดเจนว่าการแข่งขันพัฒนาโมเดล AI โอเพ่นเวทในจีนกำลังเร่งตัวอย่างต่อเนื่อง แม้ในช่วงที่ตลาดโลกกำลังเผชิญความท้าทายจากค่าใช้จ่ายสูงในการฝึกโมเดลขนาดใหญ่

Qwen2.5-Max มีขนาด 72 พันล้านพารามิเตอร์ (parameters) และแสดงผลงานโดดเด่นในหลากหลายเกณฑ์มาตรฐาน (benchmarks) โดยเฉพาะในด้านการใช้เหตุผล (reasoning) คณิตศาสตร์ (mathematics) และการเขียนโค้ด (coding) ผลทดสอบจาก LMSYS Chatbot Arena แสดงให้เห็นว่าโมเดลนี้ทำคะแนนสูงถึง 1,377 ELO ซึ่งสูงกว่า Llama 3.1 405B (1,357 ELO) และใกล้เคียงกับโมเดลชั้นนำอื่นๆ เช่น GPT-4o mini ในด้านการประมวลผลภาษาอังกฤษและจีน โมเดลนี้ยังเหนือกว่าโมเดลปิด (closed models) หลายตัว เช่น Claude 3.5 Sonnet และ Gemini 1.5 Pro ในบางงาน นอกจากนี้ ในเกณฑ์มาตรฐานอื่นๆ เช่น GPQA Diamond (การใช้เหตุผลทางวิทยาศาสตร์ขั้นสูง) Qwen2.5-Max ทำคะแนน 61.5% ซึ่งดีกว่า Llama 3.1 405B (59.4%) และใน AIME 2024 (คณิตศาสตร์โอลิมปิก) ได้คะแนน 81.4% สูงกว่า Llama 3.1 405B (77.5%) ส่วน LiveCodeBench (การเขียนโค้ด) ทำได้ 70.7% ดีกว่า Llama 3.1 405B (64.6%) ความสามารถเหล่านี้ทำให้ Qwen2.5-Max เป็นโมเดลที่ท้าทายผู้นำตลาดโลกได้อย่างแท้จริง

การเปิดตัวครั้งนี้เป็นส่วนหนึ่งของซีรีส์ Qwen2.5 ซึ่งอาลีบาบาได้ปล่อยโมเดลหลากหลายขนาดตั้งแต่ 0.5 พันล้านจนถึง 72 พันล้านพารามิเตอร์ โดย Qwen2.5-Max ถือเป็นรุ่นท็อปที่แข็งแกร่งที่สุด เวอร์ชันพรีวิวช่วยให้นักพัฒนาสามารถทดสอบและปรับใช้ได้ทันที โดยอาลีบาบาเน้นย้ำว่าการปล่อยฟรีนี้มุ่งส่งเสริมการนำไปใช้งานจริง (real-world adoption) เพื่อรวบรวมข้อมูลผู้ใช้ ปรับปรุงโมเดล และสร้างระบบนิเวศ (ecosystem) ที่แข็งแกร่ง

หากมองภาพรวม จีนกำลังกลายเป็นศูนย์กลางการแข่งขัน AI โอเพ่นเวทที่ดุเดือด โดยมีผู้เล่นหลักหลายรายที่ผลัดกันปล่อยโมเดลชั้นนำอย่างต่อเนื่อง ตัวอย่างเช่น DeepSeek-V3 (671 พันล้านพารามิเตอร์) จาก DeepSeek ซึ่งทำคะแนนสูงใน MATH-500 (97.3%) และ AIME 2024 (81.0%) สูงกว่า Qwen2.5-Max ในบางด้าน Moonshot AI กับ Kimi K2 ซึ่งแข็งแกร่งในด้านการใช้เหตุผลยาว (long-context reasoning) และ Zhipu AI กับ GLM-4-Plus (431 พันล้านพารามิเตอร์) ที่ทำคะแนน GPQA สูงถึง 71.5% นอกจากนี้ยังมี Yi-Large (200 พันล้านพารามิเตอร์) จาก 01.AI และ MiniMax-M1 ซึ่งทั้งหมดล้วนเป็นโมเดลโอเพ่นเวทที่ท้าทายโมเดลตะวันตกอย่าง Llama และ Mistral

กลยุทธ์การปล่อยโมเดลฟรีหรือโอเพ่นเวทของบริษัทจีนเหล่านี้มีเหตุผลเชิงกลยุทธ์ชัดเจน ประการแรก ช่วยดึงดูดนักพัฒนาและผู้ใช้งานจำนวนมาก สร้างฐานผู้ใช้ขนาดใหญ่เพื่อเก็บข้อมูลปรับปรุงโมเดลในรอบถัดไป ประการที่สอง ลดอุปสรรคในการเข้าถึงสำหรับธุรกิจขนาดเล็กและสตาร์ทอัพในจีน ซึ่งช่วยกระตุ้นนวัตกรรมในระบบนิเวศท้องถิ่น ประการที่สาม สร้างอิทธิพลทางอ้อมต่อตลาดโลก โดยโมเดลเหล่านี้มักรองรับภาษาจีนและบริบทวัฒนธรรมเอเชียได้ดีกว่าโมเดลตะวันตก ทำให้เหมาะสำหรับตลาดเกิดใหม่

การแข่งขันนี้ยังสะท้อนถึงความได้เปรียบของจีนในด้านโครงสร้างพื้นฐาน AI โดยบริษัทอย่าง DeepSeek สามารถฝึกโมเดลขนาดใหญ่ด้วยต้นทุนต่ำกว่าผู้เล่นตะวันตกหลายเท่า เนื่องจากเข้าถึงชิป Nvidia H100 และ H800 จำนวนมาก ขณะที่บริษัทอเมริกันเผชิญข้อจำกัดจากมาตรการควบคุมการส่งออก ผลลัพธ์คือ จีนผลิตโมเดลโอเพ่นเวทชั้นนำได้บ่อยครั้งกว่า เช่น DeepSeek-V3 ตามด้วย Qwen2.5-Max และคาดว่าจะมี GLM-4V หรือ Yi-34B ตามมาในไม่ช้า

อย่างไรก็ตาม การแข่งขันนี้ไม่ได้จำกัดอยู่แค่ประสิทธิภาพ benchmarks เท่านั้น แต่เน้นที่ความสามารถใช้งานจริง เช่น การรองรับ long-context (Qwen2.5-Max รองรับ 128K โทเค็น) และการปรับแต่ง (fine-tuning) สำหรับงานเฉพาะ เช่น การแปลภาษา การสรุปเอกสาร หรือการวิเคราะห์ข้อมูลธุรกิจ นักวิเคราะห์มองว่าการเคลื่อนไหวของอาลีบาบาจะเร่งให้บริษัทอื่นๆ ในจีนต้องตอบโต้ด้วยโมเดลใหม่ๆ ส่งผลให้ปี 2025 จะเป็นปีที่โมเดลโอเพ่นเวทจากจีนครองส่วนแบ่งตลาดมากขึ้น

ในท้ายที่สุด การปล่อย Qwen2.5-Max ฟรีของอาลีบาบาไม่ใช่แค่ชัยชนะเชิงเทคนิค แต่เป็นกลยุทธ์ธุรกิจที่ชาญฉลาด ช่วยยืนยันว่าการแข่งขัน AI โอเพ่นเวทของจีนยังคงเร่งเครื่องต่อไป โดยไม่มีวี่แววชะลอตัว สร้างแรงกดดันให้ผู้เล่นทั่วโลกต้องเร่งพัฒนาเพื่อตามทัน

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)