Google Cloud ตั้งเป้าครอง 10% ของรายได้ประจำปี Nvidia ด้วย TPU

Google Cloud มุ่งชิงส่วนแบ่งรายได้ 10% จาก Nvidia ด้วยชิป TPU

Google Cloud กำลังวางกลยุทธ์เชิงรุกเพื่อแย่งชิงส่วนแบ่งรายได้จาก Nvidia ผู้ครองตลาดชิปกราฟิก (GPU) สำหรับงานปัญญาประดิษฐ์ (AI) โดยตั้งเป้าที่ระดับ 10% ของรายได้ทั้งปีของ Nvidia ซึ่งเท่ากับมูลค่าหลายพันล้านดอลลาร์สหรัฐ ด้วยการโปรโมตชิป Tensor Processing Unit (TPU) ซึ่งเป็นชิปประมวลผลแบบกำหนดเอง (ASIC) ที่ออกแบบมาสำหรับงานฝึกโมเดล AI โดยเฉพาะ

ตามข้อมูลล่าสุด Nvidia มียอดรายได้รวมในปีงบประมาณ 2024 สูงถึง 60.9 พันล้านดอลลาร์สหรัฐ โดยเฉพาะไตรมาสแรกของปีงบประมาณ 2025 ที่มียอดขายทะลุ 26 พันล้านดอลลาร์สหรัฐ เพิ่มขึ้นกว่า 260% จากปีก่อน หาก Google Cloud สามารถกินส่วนแบ่ง 10% ได้จริง จะเท่ากับรายได้ประมาณ 6 พันล้านดอลลาร์สหรัฐต่อปี ซึ่งจะเป็นความสำเร็จที่สำคัญในการแข่งขันตลาดคลาวด์คอมพิวติ้ง

Ed Price รองประธานฝ่ายผลิตภัณฑ์และเทคโนโลยีของ Google Cloud กล่าวในการสัมภาษณ์กับ The Decoder ว่า “เรามองว่าตลาดชิป AI สำหรับการฝึกโมเดลมีขนาดใหญ่พอที่จะรองรับผู้เล่นหลายราย Google Cloud ตั้งเป้าที่ 10% ของรายได้ Nvidia โดยมุ่งเน้นที่ลูกค้าธุรกิจขนาดใหญ่ที่ต้องการทางเลือกที่คุ้มค่ากว่า” Price เน้นย้ำว่า TPU ไม่เพียงแต่ราคาถูกกว่า GPU ของ Nvidia แต่ยังมีประสิทธิภาพสูงกว่าในงาน AI บางประเภท โดยเฉพาะการฝึกโมเดลขนาดใหญ่

ข้อได้เปรียบของ TPU ต่อ GPU ของ Nvidia

TPU เป็นชิปที่ Google พัฒนาขึ้นตั้งแต่ปี 2016 เพื่อตอบโจทย์งาน machine learning โดยเฉพาะ โดยมีสถาปัตยกรรมที่ปรับแต่งให้เหมาะกับการคำนวณเมทริกซ์ (matrix multiplication) ซึ่งเป็นหัวใจของการฝึกโมเดล AI ทำให้มีประสิทธิภาพต่อวัตต์ (performance per watt) สูงกว่า GPU ทั่วไป Google Cloud นำเสนอ TPU ในรูปแบบ Cloud TPU Pods ซึ่งเชื่อมต่อชิปหลายตัวเข้าด้วยกันเพื่อสร้างระบบขนาดใหญ่ เช่น TPU v5p Pod ที่มีชิป 8,960 ตัว สามารถฝึกโมเดล Gemini 1.0 Ultra ได้ในเวลาไม่กี่สัปดาห์

ในด้านราคา TPU v5e มีต้นทุนต่ำกว่า Nvidia A100 ถึง 4 เท่า โดยราคาต่อชั่วโมงอยู่ที่ 1.20 ดอลลาร์สหรัฐต่อชิป เทียบกับ A100 ที่ 3.67 ดอลลาร์สหรัฐ สำหรับ TPU v5p ซึ่งเทียบชั้น H100 ของ Nvidia ในด้านประสิทธิภาพ มีราคา 4.20 ดอลลาร์สหรัฐต่อชิ่วโมง ถูกกว่า H100 ถึง 1.8 เท่า นอกจากนี้ Ironwood ซึ่งเป็น TPU รุ่นใหม่ที่ประกาศเมื่อเร็วๆ นี้ มีประสิทธิภาพสูงขึ้น 2 เท่าในด้านการฝึกโมเดล และ 4.5 เท่าในด้านการให้บริการ (inference) เมื่อเทียบกับ TPU v5p โดยมีราคาต่อหน่วยประสิทธิภาพ (cost per performance) ต่ำกว่าอีก

การเปรียบเทียบประสิทธิภาพและการใช้งานจริง

จากการทดสอบภายใน Google Cloud พบว่า TPU v5p มีประสิทธิภาพสูงกว่า H100 ถึง 2.8 เท่าในงาน MLPerf Training v4.0 สำหรับโมเดล GPT-3 175B โดยใช้พลังงานน้อยกว่า นอกจากนี้ TPU ยังเหมาะสำหรับงาน AI ที่ใช้ framework JAX หรือ TensorFlow ซึ่งเป็นเครื่องมือหลักของ Google ทำให้การย้าย workload จาก GPU ไป TPU ทำได้ง่าย ลูกค้าอย่าง Apple, Deutsche Telekom และ Stability AI ได้เริ่มใช้งาน TPU แล้ว โดย Stability AI เลือก TPU v5p Pod ขนาด 9,216 ชิปสำหรับฝึกโมเดล Stable Virtual Camera

อย่างไรก็ตาม TPU ยังมีข้อจำกัด โดยทำงานได้ดีที่สุดกับ workload ที่ออกแบบมาให้เหมาะสมกับสถาปัตยกรรมของมัน หากใช้ CUDA-based code จาก Nvidia อาจต้องปรับปรุงโค้ดใหม่ ซึ่งเป็นอุปสรรคสำหรับนักพัฒนาบางราย แต่ Google Cloud ได้พัฒนาเครื่องมือช่วยแปลงโค้ดอัตโนมัติเพื่อลดความยุ่งยากนี้

กลยุทธ์การแข่งขันในตลาดคลาวด์

ตลาดคลาวด์ AI กำลังขยายตัวอย่างรวดเร็ว โดย AWS, Microsoft Azure และ Google Cloud เป็นผู้เล่นหลัก Nvidia ครองส่วนแบ่งตลาด GPU กว่า 80% แต่ Google Cloud มองว่า TPU จะช่วยลดการพึ่งพา Nvidia และเพิ่มส่วนแบ่งตลาดของตัวเอง Ed Price ระบุว่า “ลูกค้าธุรกิจหลายรายกังวลเรื่องการผูกขาดของ Nvidia เราจึงนำเสนอทางเลือกที่โปร่งใสและคุ้มค่า” นอกจากนี้ Google ยังเปิด Trillium ชิป TPU รุ่นถัดไปสำหรับพันธมิตรภายนอก เพื่อขยาย ecosystem

การแข่งขันนี้ไม่ใช่แค่เรื่องราคา แต่รวมถึงความยั่งยืนด้วย TPU v5p มีประสิทธิภาพต่อวัตต์สูงถึง 3 เท่าของ H100 ช่วยลดการใช้พลังงานใน data center ซึ่งเป็นประเด็นสำคัญสำหรับลูกค้าที่มุ่งเน้น ESG (Environmental, Social, Governance)

มุมมองอนาคตของ Google Cloud

ด้วยการลงทุนใน TPU Google Cloud วางตำแหน่งตัวเองเป็นผู้นำด้าน AI infrastructure ที่เน้นประสิทธิภาพและต้นทุนต่ำ หากสามารถดึงดูดลูกค้าจาก Nvidia ได้ตามเป้า 10% จะไม่เพียงเพิ่มรายได้ แต่ยังเสริมความแข็งแกร่งให้กับ ecosystem ของ Google ในยุค AI ที่กำลังบูม Nvidia เองก็ตอบโต้ด้วยชิป Blackwell รุ่นใหม่ แต่ Google Cloud เชื่อมั่นในข้อได้เปรียบของ ASIC ที่ปรับแต่งได้เฉพาะทาง

สรุปแล้ว การผลักดัน TPU ของ Google Cloud ถือเป็นกลยุทธ์ที่ชาญฉลาดในการท้าทายยักษ์ใหญ่ Nvidia ท่ามกลางตลาดที่กำลังเติบโต โดยเน้นที่ลูกค้าธุรกิจที่ต้องการ scalability และ cost-efficiency ในระยะยาว

(จำนวนคำประมาณ 750 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)