Alibaba เปิดตัว Qwen3-72B-A3B แบบโอเพ่นซอร์ส ท้าชน GPT-4o mini และ Claude 3.5 Sonnet ในราคาต่ำกว่าหลายเท่า
Alibaba Cloud ประกาศเปิดตัวโมเดลภาษาขนาดใหญ่รุ่นใหม่ Qwen3-72B-A3B ซึ่งเป็นโมเดลแบบโอเพ่นซอร์ส (open-source) ที่มีศักยภาพสูง โดยมุ่งเป้าไปที่การแข่งขันกับโมเดลชั้นนำจากผู้ให้บริการรายใหญ่อย่าง OpenAI และ Anthropic โดยเฉพาะ GPT-4o mini และ Claude 3.5 Sonnet ในขณะที่ให้ประสิทธิภาพใกล้เคียงกันแต่ต้นทุนการใช้งานต่ำกว่าอย่างมีนัยสำคัญ
Qwen3-72B-A3B เป็นโมเดลหลัก (flagship model) ในตระกูล Qwen3 ซึ่งพัฒนาบนสถาปัตยกรรม Mixture-of-Experts (MoE) โดยมีพารามิเตอร์ทั้งหมด 72 พันล้านตัว แต่ใช้งานพารามิเตอร์ที่ใช้งานจริงเพียง 3 พันล้านตัวเท่านั้น การออกแบบดังกล่าวช่วยให้โมเดลมีประสิทธิภาพสูงในการประมวลผล โดยเฉพาะในงานที่ต้องการความเร็วและประหยัดทรัพยากร ทำให้เหมาะสมสำหรับการใช้งานในสภาพแวดล้อมธุรกิจที่คำนึงถึงต้นทุน
ประสิทธิภาพเหนือชั้นใน基准ทดสอบหลัก
จากการทดสอบบนชุดข้อมูลมาตรฐานหลายชุด Qwen3-72B-A3B แสดงผลงานที่โดดเด่น โดยเฉพาะในด้านคณิตศาสตร์และการเขียนโค้ด ซึ่งเอาชนะโมเดลปิด (closed-source) ชั้นนำหลายตัวได้
-
คณิตศาสตร์: บน基准 AIME 2024 (American Invitational Mathematics Examination) Qwen3-72B-A3B ทำคะแนนได้ 85.7% ซึ่งสูงกว่า GPT-4o mini (84.9%) และ Claude 3.5 Sonnet (83.5%) ในขณะที่ MATH-500 ทำได้ 94.6% สูงกว่า GPT-4o mini (92.3%) และ GPQA Diamond ทำได้ 61.0% ซึ่งใกล้เคียงกับ Claude 3.5 Sonnet (61.7%)
-
การเขียนโค้ด: บน LiveCodeBench Qwen3-72B-A3B ทำคะแนน 70.7% สูงกว่า GPT-4o mini (64.6%) และ Claude 3.5 Sonnet (64.1%) ส่วน CodeForces Elo rating อยู่ที่ 2054 คะแนน ดีกว่า GPT-4o (1972) แต่ต่ำกว่า Claude 3.5 Sonnet เล็กน้อย (2060)
-
การให้เหตุผลและความรู้ทั่วไป: ใน MMLU-Pro Qwen3-72B-A3B ทำได้ 78.0% ซึ่งใกล้เคียงกับ Claude 3.5 Sonnet (78.5%) แต่สูงกว่า GPT-4o mini (75.8%) ขณะที่ใน Arena-Hard ทำได้ 92.2% สูงกว่า GPT-4o mini (89.2%) แต่ต่ำกว่า Claude 3.5 Sonnet (95.1%)
นอกจากนี้ โมเดลยังรองรับความยาวคอนเท็กซ์ (context length) สูงถึง 32,768 โทเค็น และสามารถขยายได้ถึง 131,072 โทเค็นผ่านเทคนิค YaRN ทำให้เหมาะสำหรับงานที่ต้องการข้อมูลยาวๆ เช่น การวิเคราะห์เอกสารธุรกิจหรือการสรุปเนื้อหารายงานขนาดใหญ่
ต้นทุนต่ำกว่าอย่างเห็นได้ชัด
จุดเด่นสำคัญของ Qwen3-72B-A3B คือต้นทุนการใช้งานที่ต่ำกว่าคู่แข่งอย่างมาก โดยเฉพาะในการอนุมาน (inference) ซึ่งเป็นขั้นตอนหลักในการใช้งานโมเดลภาษา
| โมเดล | ต้นทุนการอนุมาน (USD/ล้านโทเค็น) | ประสิทธิภาพสัมพัทธ์ |
|---|---|---|
| Qwen3-72B-A3B | 0.07 | สูง |
| GPT-4o mini | 0.60 | ใกล้เคียง |
| Claude 3.5 Sonnet | 3.00 | ใกล้เคียง |
จากตารางเปรียบเทียบ พบว่า Qwen3-72B-A3B มีต้นทุนต่ำกว่า GPT-4o mini ถึง 8.5 เท่า และต่ำกว่า Claude 3.5 Sonnet ถึง 42 เท่า ในขณะที่ประสิทธิภาพอยู่ในระดับใกล้เคียงหรือเหนือกว่าในหลายด้าน การประหยัดต้นทุนนี้เกิดจากสถาปัตยกรรม MoE ที่ช่วยลดการใช้ทรัพยากรคอมพิวเตอร์ ทำให้องค์กรธุรกิจสามารถนำไปใช้งานในปริมาณมากได้โดยไม่กระทบงบประมาณ
ความสามารถหลากหลายและการรองรับหลายภาษา
Qwen3-72B-A3B ยังมีความสามารถรอบด้าน เช่น การสร้างภาพ (image generation) ผ่านการรวมกับโมเดล Qwen2.5-VL และการใช้เครื่องมือภายนอก (tool use) รวมถึงการสนับสนุนภาษาหลายภาษา โดยเฉพาะภาษาจีนและภาษาอังกฤษอย่างแข็งแกร่ง นอกจากนี้ ยังมีเวอร์ชันควอนไทซ์ (quantized versions) ที่มีขนาดเล็กลง เช่น Q4_K_M และ Q5_K_M ซึ่งช่วยให้รันบนฮาร์ดแวร์ทั่วไปได้ง่ายขึ้น
Alibaba ยังเปิดตัวโมเดลขนาดเล็กในตระกูลเดียวกัน เช่น Qwen3-30B-A3B, Qwen3-4B, Qwen3-1.7B และ Qwen3-0.6B เพื่อตอบโจทย์การใช้งานที่หลากหลาย ตั้งแต่เซิร์ฟเวอร์ขนาดใหญ่ไปจนถึงอุปกรณ์ปลายทาง
การเข้าถึงและการใช้งาน
โมเดลทั้งหมดพร้อมใช้งานฟรีผ่านแพลตฟอร์ม Hugging Face โดยมีน้ำหนักโมเดล (model weights) แบบเปิด นักพัฒนาสามารถดาวน์โหลดและปรับแต่งได้ตามต้องการ นอกจากนี้ Alibaba ยังให้บริการผ่าน Qwen Chat ที่ https://chat.qwen.ai ซึ่งรองรับการใช้งานทันทีโดยไม่ต้องติดตั้ง
การเปิดตัวครั้งนี้ยืนยันถึงกลยุทธ์ของ Alibaba ในการผลักดันเทคโนโลยี AI แบบเปิด เพื่อแข่งขันกับยักษ์ใหญ่ในอุตสาหกรรม โดย Qwen3-72B-A3B ถือเป็นตัวอย่างที่ชัดเจนของการนำเสนอทางเลือกที่มีประสิทธิภาพสูงในราคาที่เข้าถึงได้ สำหรับองค์กรธุรกิจที่กำลังมองหาโซลูชัน AI ที่คุ้มค่า
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)