ปักกิ่งอนุมัติการขายชิป H200 ของ Nvidia ขณะที่บริษัทพัฒนาเวอร์ชันพร้อมสำหรับจีนของชิป Groq สำหรับการอนุมาน

ปักกิ่งอนุมัติการขายชิป H200 ของ NVIDIA ในจีน ขณะบริษัทพัฒนาชิปอนุมานิ Groq เวอร์ชันเฉพาะสำหรับตลาดจีน

ในบริบทของความตึงเครียดทางการค้าระหว่างสหรัฐอเมริกากับจีนที่ส่งผลกระทบต่ออุตสาหกรรมเซมิคอนดักเตอร์และปัญญาประดิษฐ์ (AI) รัฐบาลจีนได้อนุมัติให้ NVIDIA Corporation ซึ่งเป็นผู้นำตลาดชิปกราฟิกและ AI สามารถจำหน่ายชิป H200 Tensor Core GPU ในตลาดจีนได้แล้ว การอนุมัติดังกล่าวถือเป็นพัฒนาการสำคัญ เนื่องจากชิป H200 เป็นรุ่นที่ทรงพลังกว่าชิป H20 ซึ่งได้รับการอนุมัติไปก่อนหน้านี้ และช่วยเสริมศักยภาพการแข่งขันของ NVIDIA ในตลาดจีนที่กำลังเติบโตอย่างรวดเร็ว แม้จะเผชิญข้อจำกัดด้านการส่งออกจากสหรัฐฯ

ชิป H200 เป็นส่วนหนึ่งของตระกูล Hopper architecture ของ NVIDIA ซึ่งออกแบบมาเพื่อการประมวลผล AI ขนาดใหญ่ โดยมีหน่วยความจำ HBM3e ขนาด 141GB และแบนด์วิดธ์หน่วยความจำสูงถึง 4.8 TB/s ทำให้เหมาะสำหรับงานฝึกโมเดลภาษาขนาดใหญ่ (Large Language Models: LLMs) และการอนุมานิ (Inference) ที่ต้องการประสิทธิภาพสูง การอนุมัติจากหน่วยงานกำกับดูแลของจีน เช่น National Development and Reform Commission (NDRC) และ Ministry of Commerce (MOFCOM) เกิดขึ้นหลังจาก NVIDIA ปรับปรุงชิปรุ่นนี้ให้สอดคล้องกับกฎระเบียบด้านความมั่นคงของจีน โดยลดประสิทธิภาพบางส่วนเพื่อหลีกเลี่ยงการถูกห้ามส่งออกจากฝั่งสหรัฐฯ

ก่อนหน้านี้ ในปี 2023 สหรัฐฯ ได้ออกมาตรการควบคุมการส่งออกชิปขั้นสูง เช่น H100 และ A100 เพื่อป้องกันการเข้าถึงเทคโนโลยี AI ที่อาจใช้ในวัตถุประสงค์ทางทหารของจีน ส่งผลให้ NVIDIA ต้องพัฒนาชิปเวอร์ชันพิเศษสำหรับจีน เช่น H20 ซึ่งมีประสิทธิภาพต่ำกว่าฮาร์ดแวร์รุ่นท็อปของสหรัฐฯ ประมาณ 30-50% แต่ยังคงตอบโจทย์ลูกค้าจีน เช่น Alibaba, Baidu, Tencent และ Huawei ที่ต้องการโครงสร้างพื้นฐาน AI สำหรับบริการคลาวด์และการพัฒนาโมเดล AI ภายในประเทศ

การอนุมัติชิป H200 จึงเป็นชัยชนะเชิงยุทธศาสตร์สำหรับ NVIDIA ซึ่งคาดว่าจะช่วยฟื้นยอดขายในจีนที่เคยคิดเป็นสัดส่วนกว่า 20-25% ของรายได้รวมก่อนเกิดข้อจำกัด ลูกค้าจีนหลายรายได้เริ่มสั่งซื้อ H20 ในปริมาณมากตั้งแต่ปลายปี 2023 และตอนนี้ H200 จะช่วยยกระดับประสิทธิภาพให้สูงขึ้น โดยเฉพาะในด้านการฝึกโมเดล AI ที่ซับซ้อน เช่น โมเดลขนาดพันล้านพารามิเตอร์

นอกจากนี้ NVIDIA ยังกำลังเร่งพัฒนาชิปอนุมานิเวอร์ชันเฉพาะสำหรับตลาดจีน โดยอิงจากเทคโนโลยีคล้ายกับ Groq Inference Chip ซึ่งเป็นชิปประมวลผลภาษา (Language Processing Unit: LPU) ที่ Groq Inc. พัฒนาขึ้นเพื่อการอนุมานิ AI ที่รวดเร็วสูงสุด ชิป Groq LPU สามารถประมวลผลโทเค็นได้ถึง 500 โทเค็นต่อวินาทีต่อผู้ใช้ ซึ่งเร็วกว่า GPU ทั่วไปหลายเท่า โดยอาศัยสถาปัตยกรรมที่ออกแบบเฉพาะสำหรับงานอนุมานิ LLMs ทำให้ประหยัดพลังงานและลดความล่าช้า (Latency)

NVIDIA มองเห็นโอกาสในตลาดอนุมานิ AI ของจีนที่กำลังขยายตัว เนื่องจากหลังการฝึกโมเดลแล้ว การใช้งานจริงในแอปพลิเคชัน เช่น แชทบอท การแปลภาษา และระบบแนะนำ ต้องการชิปที่เน้นความเร็วและต้นทุนต่ำ ชิปเวอร์ชันจีนนี้จะถูกปรับให้สอดคล้องกับข้อกำหนดด้านประสิทธิภาพของสหรัฐฯ คล้าย H20/H200 โดยคาดว่าจะเปิดตัวในช่วงครึ่งหลังของปี 2024 หรือต้นปี 2025 การพัฒนานี้ช่วยให้ NVIDIA แข่งขันกับผู้เล่นท้องถิ่นอย่าง Huawei Ascend, Biren Technology และ Moore Threads ซึ่งกำลังผลักดันชิป AI 国产化 (Made in China)

นักวิเคราะห์จากบริษัทวิจัยอย่าง TrendForce และ Canalys คาดการณ์ว่าตลาดเซิร์ฟเวอร์ AI ในจีนจะมีมูลค่ากว่า 50 พันล้านดอลลาร์สหรัฐในปี 2024 โดย NVIDIA ยังคงครองส่วนแบ่งกว่า 90% แม้จะมีข้อจำกัด อย่างไรก็ตาม ความเสี่ยงยังคงมีอยู่ หากสหรัฐฯ ขยายมาตรการควบคุมเพิ่มเติม เช่น ในเดือนตุลาคม 2023 ที่เพิ่มข้อจำกัดต่อชิป A800/H800

CEO ของ NVIDIA คุณ Jensen Huang เคยระบุในงานประชุมนักลงทุนว่า บริษัทมุ่งมั่นพัฒนาโซลูชันที่ “China-ready” เพื่อรักษาตำแหน่งผู้นำ โดยผสานเทคโนโลยีเช่น NVLink สำหรับการเชื่อมต่อหลาย GPU และ TensorRT-LLM สำหรับการ优化อนุมานิ ชิป H200 จะทำงานร่วมกับระบบ DGX และ HGX ที่ลูกค้าจีนนิยมใช้ สนับสนุนการสร้างคลัสเตอร์ขนาดใหญ่สำหรับงาน AI

สรุปแล้ว การอนุมัติชิป H200 และการพัฒนาชิปอนุมานิ Groq-like แสดงถึงกลยุทธ์การปรับตัวของ NVIDIA ต่อสภาพแวดล้อมทางภูมิรัฐศาสตร์ ซึ่งช่วยรักษาการเติบโตในตลาดจีนที่เป็นแหล่งรายได้หลัก ขณะเดียวกันก็เร่งนวัตกรรมเพื่อตอบสนองความต้องการด้าน AI ที่หลากหลาย โดยไม่ละเมิดกฎระเบียบระหว่างประเทศ

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)