GTC 2026: ด้วย Groq 3 LPX Nvidia เพิ่มฮาร์ดแวร์สำหรับการอนุมานโดยเฉพาะลงในแพลตฟอร์มของตัวเองเป็นครั้งแรก

GTC 2026 กับ Groq 3 และ LPX: Nvidia เพิ่มฮาร์ดแวร์สำหรับการอนุมานโดยเฉพาะครั้งแรกในแพลตฟอร์มของตน

ในการประชุม GTC 2026 ซึ่งเป็นเวทีสำคัญของ Nvidia ในการนำเสนอวิสัยทัศน์และนวัตกรรมด้านปัญญาประดิษฐ์ (AI) บริษัทได้ประกาศความก้าวหน้าที่สำคัญหลายประการ โดยเฉพาะการเพิ่มฮาร์ดแวร์ที่ออกแบบมาเพื่อการอนุมาน (inference) โดยเฉพาะเป็นครั้งแรกในประวัติศาสตร์ของแพลตฟอร์ม Nvidia ที่ผ่านมา Nvidia มุ่งเน้นหลักที่การฝึกอบรมโมเดล AI ขนาดใหญ่ แต่ในยุคปัจจุบันที่การใช้งาน AI ในเชิงพาณิชย์ขยายตัวอย่างรวดเร็ว ความต้องการด้านการอนุมานที่มีประสิทธิภาพสูง ความหน่วงต่ำ และต้นทุนต่ำกลายเป็นปัจจัยกำหนดความสำเร็จของธุรกิจ ทำให้ Nvidia ต้องปรับกลยุทธ์เพื่อตอบสนองความต้องการนี้

จุดเด่นของการประกาศครั้งนี้คือการเปิดตัวชิป Groq 3 จาก Groq ซึ่งเป็นบริษัทสตาร์ทอัพด้าน AI inference ที่ได้รับการสนับสนุนจาก Nvidia Groq 3 ถือเป็นรุ่นที่สามของชิป Language Processing Unit (LPU) ที่ Groq พัฒนาขึ้น โดยมีประสิทธิภาพเหนือกว่าชิป LPU รุ่นก่อนหน้าอย่างมาก ชิปนี้สามารถประมวลผลโทเค็นได้สูงสุดถึง 2,000 โทเค็นต่อวินาที สำหรับโมเดลขนาดใหญ่ เช่น Llama 3.1 405B ซึ่งเป็นอัตราการอนุมานที่รวดเร็วที่สุดในตลาดปัจจุบัน การออกแบบของ Groq 3 ใช้สถาปัตยกรรมที่เน้นการประมวลผลแบบขนานสูง โดยมีจำนวนคอร์ประมวลผลเพิ่มขึ้น 4 เท่าเมื่อเทียบกับ Groq 2 และใช้กระบวนการผลิต 5 นาโนเมตรจาก TSMC ซึ่งช่วยลดการใช้พลังงานลง 30% ขณะที่เพิ่มแบนด์วิดธ์หน่วยความจำ HBM3e สูงถึง 16 TB/s

นอกจากนี้ Groq ยังประกาศ LPX ซึ่งเป็นรูปแบบการเชื่อมต่อใหม่สำหรับระบบ LPU cluster LPX ย่อมาจาก Low-Power eXtended ยกเว้นชื่ออย่างเป็นทางการ แต่เป็นเทคโนโลยีที่ช่วยให้สามารถスケลได้ถึง 1 ล้านคอร์ LPU ในคลัสเตอร์เดียวกัน โดยใช้การเชื่อมต่อแบบ optical interconnect ที่มี latency ต่ำกว่า 1 ไมโครวินาที LPX ช่วยแก้ปัญหาคอขวดในการสื่อสารระหว่างชิป ทำให้ระบบ GroqChip Processor (GCP) สามารถรองรับ workload การอนุมานขนาดใหญ่ได้อย่างมีประสิทธิภาพ เช่น การให้บริการ chatbot หรือ generative AI ในระดับ enterprise โดยไม่สูญเสียความเร็วแม้ในสเกลที่ใหญ่โต

สำหรับ Nvidia การเพิ่มฮาร์ดแวร์ inference โดยเฉพาะครั้งนี้มาภายใต้แพลตฟอร์ม Rubin ซึ่งเป็น roadmap สู่ปี 2026 Rubin R100 ถือเป็น GPU รุ่นใหม่ที่ออกแบบมาเพื่อ inference โดยตรง โดยมี Tensor Core ที่ปรับแต่งสำหรับ sparsity และ quantization รองรับ FP4 และ INT4 เพื่อลดขนาดโมเดลลง 4 เท่าโดยไม่สูญเสียความแม่นยำ Nvidia ระบุว่า Rubin จะให้ประสิทธิภาพ inference สูงขึ้น 4 เท่าเมื่อเทียบกับ Blackwell B200 ในด้าน tokens per second per watt และสามารถスケลได้ถึง 100 พีตาฟลอปส์ในระบบ DGX รุ่นใหม่ นอกจากนี้ Nvidia ยังเปิดตัว NVLink Fusion ซึ่งเป็น interconnect ใหม่ที่เชื่อมต่อ GPU กับ LPU ของ Groq ได้โดยตรง ช่วยให้ลูกค้าสามารถผสมผสานฮาร์ดแวร์ได้ตาม workload ที่ต้องการ

การประกาศเหล่านี้สะท้อนถึงการเปลี่ยนแปลงในอุตสาหกรรม AI ที่การฝึกอบรม (training) เริ่มเข้าสู่จุดอิ่มตัว ขณะที่การอนุมานกลายเป็นตลาดหลัก โดย Gartner คาดการณ์ว่าตลาด inference จะเติบโต 5 เท่าภายในปี 2027 Nvidia ซึ่งครองส่วนแบ่งตลาด GPU กว่า 90% จึงต้องแข่งขันกับผู้เล่นใหม่เช่น Groq, Cerebras และ SambaNova ที่เชี่ยวชาญด้าน inference โดยตรง Groq 3 และ LPX จะถูกนำไปใช้ใน GroqCloud ซึ่งเป็นบริการ cloud inference ที่ให้บริการโมเดล open-source ฟรีสำหรับนักพัฒนา และมีแผนขยายไปยัง enterprise partners เช่น Microsoft Azure และ Google Cloud

Jensen Huang CEO ของ Nvidia กล่าวในงาน GTC ว่า “ยุคถัดไปของ AI คือ real-time inference ที่ทุกคนเข้าถึงได้ Rubin และพันธมิตรอย่าง Groq จะทำให้ AI ใช้งานได้จริงในทุกอุตสาหกรรม ตั้งแต่ยานยนต์ไปจนถึงการแพทย์” การผสาน Groq 3 เข้ากับ ecosystem ของ Nvidia ผ่าน CUDA-X และ NIM (Nvidia Inference Microservices) จะช่วยลด barrier สำหรับนักพัฒนา ทำให้สามารถ deploy โมเดลได้รวดเร็วขึ้น 10 เท่า

อย่างไรก็ตาม ความท้าทายยังคงมี เช่น การจัดการ heat dissipation ใน LPX cluster และการ optimize software stack สำหรับ hybrid GPU-LPU Groq วางแผนปล่อย Groq 3 ในไตรมาส 4 ปีนี้ โดยราคาเริ่มต้นที่ 50,000 ดอลลาร์ต่อชิป ขณะที่ Nvidia Rubin จะตามมาในปี 2026 ราคาระบบ DGX Rubin คาดว่าจะอยู่ที่ 500,000 ดอลลาร์

การประกาศที่ GTC 2026 นี้ไม่เพียงยืนยันตำแหน่งผู้นำของ Nvidia แต่ยังแสดงถึงการเปิดรับพันธมิตรเพื่อครองตลาด inference ที่กำลังบูม โดย Groq 3 และ LPX จะเป็นตัวเร่งสำคัญในการเปลี่ยน AI จาก lab สู่ production

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)