การมีอยู่ของ TPU จากกูเกิลช่วยให้ OpenAI ประหยัดต้นทุนชิป Nvidia ได้ถึง 30%
ในวงการปัญญาประดิษฐ์ที่กำลังเติบโตอย่างรวดเร็ว การแข่งขันด้านฮาร์ดแวร์ประมวลผลถือเป็นปัจจัยสำคัญที่กำหนดความสำเร็จขององค์กรชั้นนำ โดยล่าสุด แซม อัลต์แมน ซีอีโอของ OpenAI ได้เปิดเผยข้อมูลที่น่าสนใจในพอดแคสต์ “The Logan Bartlett Show” ว่า การมีอยู่ของหน่วยประมวลผล Tensor Processing Unit (TPU) จากกูเกิล ได้ก่อให้เกิดแรงกดดันต่อ Nvidia จนทำให้ OpenAI สามารถประหยัดต้นทุนในการจัดซื้อชิปกราฟิกประมวลผล (GPU) จาก Nvidia ได้ประมาณ 30% ในดีลล่าสุด
OpenAI ซึ่งเป็นผู้พัฒนาโมเดลภาษาขนาดใหญ่ เช่น GPT-4 และ ChatGPT พึ่งพาโครงสร้างพื้นฐานด้านฮาร์ดแวร์อย่างหนัก โดยชิป Nvidia H100 ถือเป็นแกนหลักในการฝึกฝนและรันโมเดล AI ของบริษัท อย่างไรก็ตาม OpenAI ไม่ได้จำกัดตัวเองอยู่แค่ Nvidia เท่านั้น โดยบริษัทใช้บริการคลาวด์ Azure จาก Microsoft รวมถึงชิป MI300X จาก AMD และยังมีข้อตกลงกับ Broadcom เพื่อพัฒนาชิปเฉพาะทาง (ASIC) ที่ออกแบบมาเพื่อการประมวลผล AI โดยเฉพาะ
จุดสำคัญที่อัลต์แมนเน้นย้ำคือ แม้ OpenAI จะไม่ได้ใช้งาน TPU ของกูเกิลในปริมาณมากนัก เนื่องจาก TPU เหล่านี้มีให้บริการผ่าน Google Cloud แต่ตัวชิปเหล่านี้กลับสร้างผลกระทบทางอ้อมที่สำคัญ การประกาศและการมีอยู่จริงของ TPU ได้บังคับให้ Nvidia ต้องแข่งขันด้านราคาอย่างดุเดือด อัลต์แมนกล่าวอย่างตรงไปตรงมาว่า “การมีอยู่ของ TPU นั้นยอดเยี่ยมมาก เพราะมันบังคับให้ Nvidia ต้องก้าวร้าวมากขึ้นในเรื่องราคา” คำพูดนี้สะท้อนถึงพลังของการแข่งขันในตลาดที่ Nvidia ครองส่วนแบ่งตลาดสูงถึง 80-95% ในด้าน GPU สำหรับ AI
ตลาดชิป AI ในปัจจุบันเต็มไปด้วยคู่แข่งที่พยายามท้าทายความเป็นผู้นำของ Nvidia ผู้เล่นรายอื่น เช่น AMD, Intel, Graphcore, Groq และ Cerebras ต่างพัฒนาผลิตภัณฑ์เพื่อแย่งชิงส่วนแบ่ง แต่ Nvidia ยังคงรักษาความได้เปรียบด้วยระบบนิเวศซอฟต์แวร์ที่แข็งแกร่ง เช่น CUDA ซึ่งเป็นแพลตฟอร์มที่นักพัฒนา AI ทั่วโลกคุ้นเคย อย่างไรก็ตาม การปรากฏตัวของทางเลือกอื่น ๆ โดยเฉพาะ TPU จากกูเกิล ซึ่งออกแบบมาเพื่อการประมวลผลเทนเซอร์โดยเฉพาะ ได้สร้างแรงกดดันให้ Nvidia ต้องปรับกลยุทธ์การกำหนดราคา
TPU ของกูเกิลเริ่มต้นพัฒนาตั้งแต่ปี 2016 เพื่อรองรับงานฝึกโมเดล AI ใน Google Cloud โดยเวอร์ชันล่าสุด เช่น TPU v5p สามารถประมวลผลได้ในระดับเพตะฟลอปส์ (petaflops) ซึ่งแข่งขันได้กับ H100 ของ Nvidia แม้ OpenAI จะเลือกใช้ Nvidia เป็นหลักเนื่องจากประสิทธิภาพและความยืดหยุ่น แต่การมี TPU เป็นตัวเลือกในตลาดทำให้ลูกค้าอย่าง OpenAI สามารถเจรจาต่อรองราคาได้ดีขึ้น โดยเฉพาะในช่วงที่ความต้องการชิปพุ่งสูงจากกระแส AI Boom
ผลกระทบนี้เกิดขึ้นท่ามกลางบริบทที่ OpenAI ต้องเผชิญกับความท้าทายด้านต้นทุน โดยก่อนหน้านี้บริษัทเคยปรับขึ้นราคาบริการ ChatGPT เพื่อชดเชยต้นทุนชิปที่สูงขึ้นจาก Nvidia แต่การประหยัด 30% ในดีลล่าสุดนี้ ถือเป็นข่าวดีที่ช่วยเสริมขีดความสามารถในการแข่งขัน อัลต์แมนยังชี้ให้เห็นว่า OpenAI กำลังกระจายความเสี่ยงโดยไม่พึ่งพา Nvidia เพียงผู้เดียว การลงทุนในชิป MI300X จาก AMD และ ASIC จาก Broadcom แสดงถึงกลยุทธ์ระยะยาวในการลดการพึ่งพาผู้ผลิตรายเดียว
การแข่งขันนี้ไม่เพียงส่งผลดีต่อ OpenAI แต่ยังเป็นประโยชน์ต่ออุตสาหกรรม AI โดยรวม การมีผู้เล่นหลายรายในตลาดช่วยลดอุปสรรคด้านต้นทุน ทำให้สตาร์ทอัพและองค์กรขนาดกลางสามารถเข้าถึงเทคโนโลยี AI ได้ง่ายขึ้น Nvidia ซึ่งมีมูลค่าตลาดพุ่งสูงจากกระแส AI ต้องเผชิญแรงกดดันจากทั้งคู่แข่งด้านฮาร์ดแวร์และกฎระเบียบจากรัฐบาล เช่น การสอบสวนจากหน่วยงานกำกับดูแลในสหรัฐฯ เกี่ยวกับการผูกขาดตลาด
สรุปแล้ว การมีอยู่ของ TPU จากกูเกิลได้พิสูจน์ให้เห็นถึงพลังของการแข่งขันที่แท้จริงในอุตสาหกรรม ซึ่งช่วยให้ OpenAI สามารถจัดการต้นทุนได้อย่างมีประสิทธิภาพมากขึ้น แม้จะไม่ได้ใช้งาน TPU โดยตรง แต่แรงกดดันทางตลาดนี้ได้เปลี่ยนแปลงพฤติกรรมของ Nvidia ส่งผลให้ดีลจัดซื้อชิปมีราคาที่สมเหตุสมผลยิ่งขึ้น สถานการณ์นี้ยังคงเป็นเครื่องเตือนใจว่าอนาคตของ AI จะขึ้นอยู่กับสมดุลระหว่างนวัตกรรมและการแข่งขันด้านราคา
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)