Nemotron 3 ของ NVIDIA เปลี่ยนจาก Transformers แบบบริสุทธิ์เป็นไฮบริด Mamba เพื่อรัน AI Agents ได้อย่างมีประสิทธิภาพ

NVIDIA Nemotron-3: เปลี่ยนจากสถาปัตยกรรม Transformer แบบบริสุทธิ์ สู่ฮิบริด Mamba เพื่อการรันเอเจนต์ AI อย่างมีประสิทธิภาพ

บริษัท NVIDIA ผู้บุกเบิกด้านเทคโนโลยีปัญญาประดิษฐ์ (AI) ได้เปิดตัวโมเดลภาษา Nemotron-3 8B Instruct ซึ่งเป็นโมเดลใหม่ล่าสุดที่ปฏิวัติวงการด้วยการทิ้งสถาปัตยกรรม Transformer แบบดั้งเดิม แล้วหันมาใช้วิธีการผสมผสานระหว่าง Transformer กับ Mamba หรือ Selective State Space Model (SSM) แทน โมเดลนี้ถูกออกแบบมาเพื่อการอนุมาน (inference) ที่มีประสิทธิภาพสูง โดยเฉพาะอย่างยิ่งสำหรับเอเจนต์ AI ที่ต้องจัดการกับบริบทยาวๆ (long contexts) ซึ่งเป็นความท้าทายหลักในยุคปัจจุบัน

Nemotron-3 8B Instruct มีพารามิเตอร์ทั้งหมด 8 พันล้านตัว โดยใช้สถาปัตยกรรมแบบสลับชั้น (alternating layers) ระหว่างชั้น Transformer กับชั้น Mamba ซึ่งช่วยให้โมเดลสามารถประมวลผลลำดับข้อมูลยาวๆ ได้อย่างมีประสิทธิภาพ โดยไม่ต้องเผชิญกับปัญหาความซับซ้อนแบบกำลังสอง (quadratic complexity) ที่เป็นจุดอ่อนของ Transformer แบบบริสุทธิ์ Mamba ซึ่งพัฒนาโดยนักวิจัยจากแสตนฟอร์ดและบริษัท Tri Dao ได้รับการยอมรับว่าสามารถขยายขนาดตามความยาวบริบทแบบเชิงเส้น (linear scaling) ทำให้เหมาะสมกับงานที่ต้องการความจำ (memory) น้อยลงและความเร็วสูงขึ้น โดยเฉพาะในสถานการณ์ที่เอเจนต์ AI ต้องตัดสินใจต่อเนื่องหลายขั้นตอน

การฝึกโมเดล Nemotron-3 ดำเนินการบนชุดข้อมูลขนาดมหาศาลถึง 9 ล้านล้านโทเค็น (9 trillion tokens) โดยใช้โครงสร้างข้อมูลคุณภาพสูงจาก NVIDIA ซึ่งช่วยให้โมเดลมีความสามารถในการเข้าใจภาษาธรรมชาติและการให้เหตุผล (reasoning) ในระดับชั้นนำ บริบทสูงสุดที่รองรับอยู่ที่ 128,000 โทเค็น ซึ่งเทียบเท่ากับเอกสารยาวหลายร้อยหน้า ทำให้เหมาะสำหรับการใช้งานจริงในธุรกิจ เช่น การวิเคราะห์เอกสาร การสนทนาต่อเนื่อง หรือการวางแผนกลยุทธ์อัตโนมัติ

ในด้านประสิทธิภาพ NVIDIA ได้ทดสอบ Nemotron-3 8B Instruct บนชุด基准มาตรฐานหลายชุด โดยเฉพาะงานที่เกี่ยวข้องกับเอเจนต์ AI เช่น Berkeley Function Calling Leaderboard (BFCL) ซึ่งวัดความสามารถในการเรียกฟังก์ชัน (function calling) โมเดลนี้ทำคะแนนได้สูงถึง 77.4% สูงกว่าโมเดลขนาดใกล้เคียงกันอย่าง Llama 3.1 8B (71.5%) และ Qwen2.5 7B (74.5%) นอกจากนี้ ยังโดดเด่นใน TAU-bench (Turn-taking Agent Understanding benchmark) ที่วัดการสนทนาต่อเนื่องและการเข้าใจบริบทยาว โดยทำคะแนนเฉลี่ย 65.5% ซึ่งเหนือกว่าโมเดลคู่แข่งอย่าง Gemma 2 9B (57.1%) และ Mistral Nemo 12B (55.6%)

สิ่งที่ทำให้ Nemotron-3 แตกต่างคือการผสาน Mamba เข้ากับ Transformer อย่างชาญฉลาด ชั้น Mamba ช่วยจัดการการพึ่งพาแบบไกล (long-range dependencies) ด้วยการใช้โครงสร้างทางคณิตศาสตร์ที่คล้ายกับ RNN แต่มีประสิทธิภาพสูงกว่า ในขณะที่ชั้น Transformer ยังคงรักษาความสามารถในการจับคู่ความสัมพันธ์ท้องถิ่น (local patterns) ผลลัพธ์คือ โมเดลมี KV cache (key-value cache) ที่เล็กลงกว่า Transformer แบบเต็มรูปแบบถึง 5 เท่า ส่งผลให้การอนุมานบนฮาร์ดแวร์ทั่วไปเร็วขึ้น โดยเฉพาะ GPU รุ่นใหม่ของ NVIDIA อย่าง H100 หรือ Blackwell

NVIDIA ยังได้เผยแพร่น้ำหนักโมเดล (model weights) แบบเปิดภายใต้ใบอนุญาต Apache 2.0 บนแพลตฟอร์ม Hugging Face ทำให้ผู้พัฒนาและธุรกิจสามารถดาวน์โหลด นำไปปรับแต่ง (fine-tune) และใช้งานได้ฟรี นอกจากนี้ ยังมีเวอร์ชัน Nemotron-3 8B Base สำหรับผู้ที่ต้องการฝึกต่อยอดเอง โมเดลนี้ถูกฝึกด้วยเครื่องมือ NeMo ของ NVIDIA ซึ่งเป็นเฟรมเวิร์กสำหรับการฝึกโมเดลขนาดใหญ่แบบกระจาย (distributed training)

สำหรับการใช้งานจริง Nemotron-3 เหมาะกับเอเจนต์ AI ในธุรกิจ เช่น ระบบช่วยเหลือลูกค้า (customer service agents) ที่ต้องจำบทสนทนาก่อนหน้า การวิเคราะห์ข้อมูลทางการเงินที่ยาวนาน หรือหุ่นยนต์อัจฉริยะที่ต้องวางแผนเส้นทางแบบเรียลไทม์ ประสิทธิภาพด้านความเร็วและหน่วยความจำต่ำลง ทำให้สามารถรันบนอุปกรณ์เอ็นจ์จอย (edge devices) ได้ โดยไม่ต้องพึ่งคลาวด์เสมอไป ซึ่งช่วยลดต้นทุนและเพิ่มความเป็นส่วนตัวของข้อมูล

อย่างไรก็ตาม ผู้เชี่ยวชาญชี้ว่า Mamba ยังอยู่ในระยะเริ่มต้น และอาจมีจุดอ่อนในงานที่ต้องการความแม่นยำสูงสุดเมื่อเทียบกับ Transformer ขนาดใหญ่ แต่ NVIDIA มองว่านี่คือก้าวสำคัญสู่ “post-Transformer era” ที่โมเดลจะมีประสิทธิภาพสูงขึ้นโดยไม่ต้องเพิ่มพารามิเตอร์มหาศาล การเปิดตัว Nemotron-3 จึงไม่เพียงเป็นความก้าวหน้าทางเทคนิค แต่ยังเป็นกลยุทธ์ทางธุรกิจที่ช่วย NVIDIA รักษาความเป็นผู้นำในตลาด AI agents ซึ่งคาดว่าจะเติบโตอย่างรวดเร็วในปี 2025

ด้วยศักยภาพดังกล่าว ธุรกิจต่างๆ สามารถนำ Nemotron-3 ไปประยุกต์ใช้เพื่อเพิ่มประสิทธิภาพการดำเนินงาน ลดค่าใช้จ่ายด้านคอมพิวติ้ง และเร่งนวัตกรรม AI โดยไม่ต้องลงทุนใหม่ทั้งหมด NVIDIA จึงยืนยันว่าโมเดลนี้จะเป็นฐานสำคัญสำหรับ Nemotron รุ่นถัดไป ที่จะผสานเทคโนโลยีล้ำสมัยยิ่งขึ้น

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)