ความเร็ว ห่วงโซ่อุปทาน และกลยุทธ์มาบรรจบกันในดีล “การเข้าซื้อแบบกึ่ง ๆ” มูลค่า 20,000 ล้านดอลลาร์ของ Nvidia ต่อ Groq
ในยุคที่ปัญญาประดิษฐ์ (AI) กำลังเติบโตอย่างรวดเร็ว Nvidia ผู้ผลิตชิปชั้นนำของโลก กำลังเผชิญกับความท้าทายครั้งใหญ่ในด้านห่วงโซ่อุปทาน โดยเฉพาะการผลิตชิปสำหรับการประมวลผล AI ที่มีความต้องการสูงสุดเป็นประวัติการณ์ ล่าสุด Nvidia ได้ตกลงทำสัญญาสั่งซื้อชิปจำนวนมหาศาลจาก Groq สตาร์ทอัพผู้พัฒนาชิป AI inference ที่เร็วที่สุดในตลาด โดยดีลนี้มีมูลค่าประมาณ 20,000 ล้านดอลลาร์ ซึ่งนักวิเคราะห์มองว่าเป็นรูปแบบ “การเข้าซื้อแบบกึ่ง ๆ” (quasi-acquisition) ที่ช่วยให้ Nvidia ได้รับเทคโนโลยีขั้นสูงโดยไม่ต้องรับภาระด้านกฎระเบียบการ并购เต็มรูปแบบ
Groq ซึ่งก่อตั้งโดยอดีตวิศวกรจาก Google ได้รับความสนใจจากวงการเทคโนโลยีมาอย่างยาวนาน ด้วยสถาปัตยกรรม Language Processing Unit (LPU) ที่ออกแบบมาเพื่อการประมวลผลภาษาธรรมชาติและ AI inference โดยเฉพาะ LPU ของ Groq ใช้เทคโนโลยี chiplet interconnect ที่เชื่อมต่อชิปย่อยเข้าด้วยกันในรูปแบบ tensor streaming processor ซึ่งช่วยให้ประสิทธิภาพสูงกว่าชิป GPU ทั่วไปถึง 10 เท่าในการประมวลผลโทเค็นต่อวินาที (tokens per second) ตัวอย่างเช่น Groq LPU สามารถประมวลผลโมเดล Llama 2 70B ได้ถึง 500 โทเค็นต่อวินาที ขณะที่ GPU ของ Nvidia อย่าง H100 ทำได้เพียง 50-100 โทเค็นต่อวินาทีเท่านั้น ความเร็วนี้ทำให้ Groq เหมาะสำหรับแอปพลิเคชัน real-time เช่น chatbot และ generative AI ที่ต้องการ latency ต่ำ
ดีลระหว่าง Nvidia และ Groq นี้เกิดขึ้นท่ามกลางวิกฤตชิปขาดแคลนที่ Nvidia กำลังเผชิญ Nvidia ผลิตชิป Blackwell B200 ล่าสุดของตนเองไม่ทันความต้องการ โดย TSMC โรงงานผลิตชิปหลักของ Nvidia มีกำลังการผลิตจำกัด ส่งผลให้ Nvidia ต้องหันไปพึ่งพาซัพพลายเออร์อื่นเพื่อเสริมกำลังการผลิต Groq ซึ่งใช้กระบวนการผลิต 4nm ของ GlobalFoundries และ TSMC สามารถผลิตชิป LPU ได้ในปริมาณมาก โดยสัญญานี้ครอบคลุมการสั่งซื้อชิป LPU กว่า 100,000 ชิ้น มูลค่ารวม 20,000 ล้านดอลลาร์ ซึ่งเท่ากับมูลค่าตลาดปัจจุบันของ Groq ที่ประมาณ 2,800 ล้านดอลลาร์จากการระดมทุนรอบ Series D
กลยุทธ์ของ Nvidia ในดีลนี้ชัดเจน คือการรักษาความเป็นผู้นำในตลาด AI โดยไม่ต้องเสี่ยงกับการเข้าซื้อเต็มรูปแบบที่อาจถูกหน่วยงานกำกับดูแลอย่าง FTC หรือ EU สอบสวนฐานผูกขาด การสั่งซื้อขนาดใหญ่นี้ไม่เพียงช่วยแก้ปัญหาห่วงโซ่อุปทาน แต่ยังช่วย Nvidia เข้าถึงเทคโนโลยี LPU ที่แตกต่างจาก GPU ของตนเอง ซึ่ง LPU เน้น inference ในขณะที่ GPU ของ Nvidia ถนัด training ทำให้ Nvidia สามารถนำเสนอโซลูชันครบวงจรได้ดีขึ้น นอกจากนี้ Groq ยังคงเป็นบริษัทอิสระ สามารถขายชิปให้ลูกค้าอื่น ๆ เช่น Microsoft และ Anthropic ต่อไป ซึ่งช่วยกระจายความเสี่ยงในอุตสาหกรรม
อย่างไรก็ตาม ดีลนี้ยังมีความเสี่ยง โดยเฉพาะด้านการผลิต Groq ต้องขยายโรงงานเพื่อรองรับคำสั่งซื้อขนาดใหญ่ ซึ่งอาจเผชิญปัญหาคอขวดคล้ายกับ Nvidia น more over การแข่งขันในตลาด inference กำลังร้อนแรง ด้วยคู่แข่งอย่าง Cerebras, Graphcore และ Tenstorrent ที่พัฒนาชิปทางเลือกเช่นกัน ขณะที่ hyperscalers อย่าง Amazon และ Google พัฒนาชิปในบ้าน (in-house) เพื่อลดการพึ่งพา Nvidia
จากมุมมองห่วงโซ่อุปทาน ดีลนี้สะท้อนถึงการเปลี่ยนแปลงครั้งใหญ่ในอุตสาหกรรมเซมิคอนดักเตอร์ ความต้องการชิป AI คาดว่าจะพุ่งสูงถึง 1 ล้านชิ้นต่อปีภายในปี 2025 Nvidia ซึ่งครองส่วนแบ่งตลาด GPU กว่า 90% ต้องกระจายแหล่งผลิตเพื่อหลีกเลี่ยง single point of failure การร่วมมือกับ Groq ช่วยเสริมความยืดหยุ่น โดย Groq สามารถผลิตชิปได้เร็วกว่าเนื่องจากออกแบบเฉพาะทางและใช้กระบวนการผลิตที่หลากหลาย
ด้านกลยุทธ์ Nvidia กำลังปรับตัวรับมือกับการเปลี่ยนผ่านจาก training สู่ inference ซึ่งคาดว่าจะเป็นตลาดใหญ่กว่าในอนาคต การ inference ต้องการชิปที่ประหยัดพลังงานและเร็ว Groq LPU ใช้พลังงานเพียง 100W ต่อชิป เทียบกับ H100 ที่ 700W ทำให้เหมาะสำหรับ data center ขนาดใหญ่ Nvidia จึงวางแผนรวม LPU เข้ากับระบบ CUDA ecosystem ของตน เพื่อให้ซอฟต์แวร์ทำงานข้ามแพลตฟอร์มได้
ผลกระทบต่อตลาดชัดเจน หุ้น Nvidia พุ่งขึ้น 5% หลังข่าวรั่วไหล ขณะที่ Groq ได้รับการประเมินมูลค่าที่สูงขึ้น นักวิเคราะห์จาก Morgan Stanley มองว่า ดีลนี้เป็น “win-win” โดย Nvidia ได้ชิปเพิ่มโดยไม่เพิ่มหนี้สิน ส่วน Groq ได้รายได้มั่นคงเพื่อขยายธุรกิจ อย่างไรก็ตาม ผู้เชี่ยวชาญเตือนว่า หาก Groq ไม่สามารถส่งมอบตามกำหนด อาจกระทบชื่อเสียง Nvidia หนัก
สรุปแล้ว การเคลื่อนไหวของ Nvidia กับ Groq เป็นตัวอย่างคลาสสิกของการรวมตัวระหว่างความเร็ว เทคโนโลยีขั้นสูง ห่วงโซ่อุปทานที่ยั่งยืน และกลยุทธ์เชิงรุก ในโลก AI ที่เปลี่ยนแปลงรวดเร็ว บริษัทที่ปรับตัวได้ดีที่สุดจะครองตลาด ดีลนี้ไม่เพียงแก้ปัญหาปัจจุบัน แต่ยังวางรากฐานสำหรับอนาคตของการประมวลผล AI
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)