คิวเหวิน 3.5 โอเพ่นซอร์สของอาลีบาบา เล็งท้าชน GPT-5 มินิ และ Claude Sonnet 4.5 ในราคาเพียงเสี้ยวเดียว

Alibaba เปิดตัว Qwen3-72B-A3B แบบโอเพ่นซอร์ส ท้าชน GPT-4o mini และ Claude 3.5 Sonnet ในราคาต่ำกว่าหลายเท่า

Alibaba Cloud ประกาศเปิดตัวโมเดลภาษาขนาดใหญ่รุ่นใหม่ Qwen3-72B-A3B ซึ่งเป็นโมเดลแบบโอเพ่นซอร์ส (open-source) ที่มีศักยภาพสูง โดยมุ่งเป้าไปที่การแข่งขันกับโมเดลชั้นนำจากผู้ให้บริการรายใหญ่อย่าง OpenAI และ Anthropic โดยเฉพาะ GPT-4o mini และ Claude 3.5 Sonnet ในขณะที่ให้ประสิทธิภาพใกล้เคียงกันแต่ต้นทุนการใช้งานต่ำกว่าอย่างมีนัยสำคัญ

Qwen3-72B-A3B เป็นโมเดลหลัก (flagship model) ในตระกูล Qwen3 ซึ่งพัฒนาบนสถาปัตยกรรม Mixture-of-Experts (MoE) โดยมีพารามิเตอร์ทั้งหมด 72 พันล้านตัว แต่ใช้งานพารามิเตอร์ที่ใช้งานจริงเพียง 3 พันล้านตัวเท่านั้น การออกแบบดังกล่าวช่วยให้โมเดลมีประสิทธิภาพสูงในการประมวลผล โดยเฉพาะในงานที่ต้องการความเร็วและประหยัดทรัพยากร ทำให้เหมาะสมสำหรับการใช้งานในสภาพแวดล้อมธุรกิจที่คำนึงถึงต้นทุน

ประสิทธิภาพเหนือชั้นใน基准ทดสอบหลัก

จากการทดสอบบนชุดข้อมูลมาตรฐานหลายชุด Qwen3-72B-A3B แสดงผลงานที่โดดเด่น โดยเฉพาะในด้านคณิตศาสตร์และการเขียนโค้ด ซึ่งเอาชนะโมเดลปิด (closed-source) ชั้นนำหลายตัวได้

  • คณิตศาสตร์: บน基准 AIME 2024 (American Invitational Mathematics Examination) Qwen3-72B-A3B ทำคะแนนได้ 85.7% ซึ่งสูงกว่า GPT-4o mini (84.9%) และ Claude 3.5 Sonnet (83.5%) ในขณะที่ MATH-500 ทำได้ 94.6% สูงกว่า GPT-4o mini (92.3%) และ GPQA Diamond ทำได้ 61.0% ซึ่งใกล้เคียงกับ Claude 3.5 Sonnet (61.7%)

  • การเขียนโค้ด: บน LiveCodeBench Qwen3-72B-A3B ทำคะแนน 70.7% สูงกว่า GPT-4o mini (64.6%) และ Claude 3.5 Sonnet (64.1%) ส่วน CodeForces Elo rating อยู่ที่ 2054 คะแนน ดีกว่า GPT-4o (1972) แต่ต่ำกว่า Claude 3.5 Sonnet เล็กน้อย (2060)

  • การให้เหตุผลและความรู้ทั่วไป: ใน MMLU-Pro Qwen3-72B-A3B ทำได้ 78.0% ซึ่งใกล้เคียงกับ Claude 3.5 Sonnet (78.5%) แต่สูงกว่า GPT-4o mini (75.8%) ขณะที่ใน Arena-Hard ทำได้ 92.2% สูงกว่า GPT-4o mini (89.2%) แต่ต่ำกว่า Claude 3.5 Sonnet (95.1%)

นอกจากนี้ โมเดลยังรองรับความยาวคอนเท็กซ์ (context length) สูงถึง 32,768 โทเค็น และสามารถขยายได้ถึง 131,072 โทเค็นผ่านเทคนิค YaRN ทำให้เหมาะสำหรับงานที่ต้องการข้อมูลยาวๆ เช่น การวิเคราะห์เอกสารธุรกิจหรือการสรุปเนื้อหารายงานขนาดใหญ่

ต้นทุนต่ำกว่าอย่างเห็นได้ชัด

จุดเด่นสำคัญของ Qwen3-72B-A3B คือต้นทุนการใช้งานที่ต่ำกว่าคู่แข่งอย่างมาก โดยเฉพาะในการอนุมาน (inference) ซึ่งเป็นขั้นตอนหลักในการใช้งานโมเดลภาษา

โมเดล ต้นทุนการอนุมาน (USD/ล้านโทเค็น) ประสิทธิภาพสัมพัทธ์
Qwen3-72B-A3B 0.07 สูง
GPT-4o mini 0.60 ใกล้เคียง
Claude 3.5 Sonnet 3.00 ใกล้เคียง

จากตารางเปรียบเทียบ พบว่า Qwen3-72B-A3B มีต้นทุนต่ำกว่า GPT-4o mini ถึง 8.5 เท่า และต่ำกว่า Claude 3.5 Sonnet ถึง 42 เท่า ในขณะที่ประสิทธิภาพอยู่ในระดับใกล้เคียงหรือเหนือกว่าในหลายด้าน การประหยัดต้นทุนนี้เกิดจากสถาปัตยกรรม MoE ที่ช่วยลดการใช้ทรัพยากรคอมพิวเตอร์ ทำให้องค์กรธุรกิจสามารถนำไปใช้งานในปริมาณมากได้โดยไม่กระทบงบประมาณ

ความสามารถหลากหลายและการรองรับหลายภาษา

Qwen3-72B-A3B ยังมีความสามารถรอบด้าน เช่น การสร้างภาพ (image generation) ผ่านการรวมกับโมเดล Qwen2.5-VL และการใช้เครื่องมือภายนอก (tool use) รวมถึงการสนับสนุนภาษาหลายภาษา โดยเฉพาะภาษาจีนและภาษาอังกฤษอย่างแข็งแกร่ง นอกจากนี้ ยังมีเวอร์ชันควอนไทซ์ (quantized versions) ที่มีขนาดเล็กลง เช่น Q4_K_M และ Q5_K_M ซึ่งช่วยให้รันบนฮาร์ดแวร์ทั่วไปได้ง่ายขึ้น

Alibaba ยังเปิดตัวโมเดลขนาดเล็กในตระกูลเดียวกัน เช่น Qwen3-30B-A3B, Qwen3-4B, Qwen3-1.7B และ Qwen3-0.6B เพื่อตอบโจทย์การใช้งานที่หลากหลาย ตั้งแต่เซิร์ฟเวอร์ขนาดใหญ่ไปจนถึงอุปกรณ์ปลายทาง

การเข้าถึงและการใช้งาน

โมเดลทั้งหมดพร้อมใช้งานฟรีผ่านแพลตฟอร์ม Hugging Face โดยมีน้ำหนักโมเดล (model weights) แบบเปิด นักพัฒนาสามารถดาวน์โหลดและปรับแต่งได้ตามต้องการ นอกจากนี้ Alibaba ยังให้บริการผ่าน Qwen Chat ที่ https://chat.qwen.ai ซึ่งรองรับการใช้งานทันทีโดยไม่ต้องติดตั้ง

การเปิดตัวครั้งนี้ยืนยันถึงกลยุทธ์ของ Alibaba ในการผลักดันเทคโนโลยี AI แบบเปิด เพื่อแข่งขันกับยักษ์ใหญ่ในอุตสาหกรรม โดย Qwen3-72B-A3B ถือเป็นตัวอย่างที่ชัดเจนของการนำเสนอทางเลือกที่มีประสิทธิภาพสูงในราคาที่เข้าถึงได้ สำหรับองค์กรธุรกิจที่กำลังมองหาโซลูชัน AI ที่คุ้มค่า

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)