IBM นำ Groq’s AI inference ที่รวดเร็วสุดขีดมาสู่แพลตฟอร์ม watsonx

IBM ได้นำเทคโนโลยีการอนุมาน (Inference) ปัญญาประดิษฐ์ (AI) ที่เร็วเป็นพิเศษของ Groq มาใช้ในแพลตฟอร์ม AI ของตนเอง คือ watsonx ซึ่งเป็นการผสานรวมเชิงกลยุทธ์ที่มุ่งเน้นการปฏิวัติประสิทธิภาพในการประมวลผลโมเดลภาษาขนาดใหญ่ (LLMs) สำหรับองค์กรธุรกิจ นักพัฒนา และผู้ใช้งานทั่วไป การผนวกรวมนี้ตอกย้ำความมุ่งมั่นของ IBM ในการส่งมอบโครงสร้างพื้นฐาน AI ที่ล้ำสมัยและมีประสิทธิภาพสูงที่สุดแก่ลูกค้าของตน

Groq เป็นที่รู้จักจากชิปประมวลผลเฉพาะทางที่เรียกว่า Language Processor Unit (LPU) ซึ่งได้รับการออกแบบมาเพื่อวัตถุประสงค์เฉพาะในการเร่งความเร็วของการอนุมาน AI โดยเฉพาะ LPU ของ Groq สามารถประมวลผลโทเค็นได้เร็วกว่าหน่วยประมวลผลกราฟิก (GPUs) ทั่วไปอย่างมาก ทำให้การตอบสนองของแอปพลิเคชัน AI เป็นไปอย่างรวดเร็วและต่อเนื่องในระดับที่ไม่เคยมีมาก่อน การร่วมมือครั้งนี้ทำให้อุตสาหกรรมตระหนักถึงความสำคัญของการเพิ่มประสิทธิภาพความเร็วในการอนุมาน ซึ่งเป็นกุญแจสำคัญในการนำ AI ไปปรับใช้ในเชิงพาณิชย์และเชิงปฏิบัติ

การนำเทคโนโลยีของ Groq มาใช้ใน IBM watsonx นั้น เป็นไปตามแนวคิดการสร้างระบบนิเวศ AI แบบเปิด (Open AI Ecosystem) ซึ่ง IBM มีวิสัยทัศน์ที่จะให้ลูกค้าสามารถเข้าถึงเครื่องมือและเทคโนโลยี AI ที่ดีที่สุด ไม่ว่าจะเป็นแหล่งที่มาใดก็ตาม ผ่าน watsonx.ai, watsonx.data และ watsonx.governance แพลตฟอร์ม watsonx จะนำเสนอตัวเลือกโมเดลที่หลากหลาย (Model Zoo) รวมถึงโมเดลพื้นฐาน (Foundation Models) ของ IBM เอง และโมเดลโอเพนซอร์สชั้นนำอื่นๆ การผสานรวม Groq เข้ามาจะช่วยให้โมเดลเหล่านี้สามารถทำงานภายใต้สภาวะที่มีประสิทธิภาพสูงสุด

ในระยะเริ่มต้นของการดำเนินการ Groq จะถูกนำมาใช้เพื่อปรับปรุงประสิทธิภาพของการอนุมานสำหรับโมเดลภาษาขนาดเล็กและขนาดกลางบางรุ่น (Smaller and Mid-size LLMs) ที่ทำงานบน watsonx.ai โมเดลเหล่านี้มักถูกใช้สำหรับงานด้านภาษาในองค์กรธุรกิจที่ต้องการความเร็วในการประมวลผลสูง เช่น การสร้างคำตอบแบบเรียลไทม์ การสรุปข้อความ และการประมวลผลภาษาธรรมชาติเชิงโต้ตอบ (Interactive NLP) ประสิทธิภาพที่เพิ่มขึ้นนี้คาดว่าจะช่วยลดความล่าช้า (Latency) ในการตอบสนองของแอปพลิเคชัน AI ในระดับที่สามารถวัดผลได้ ซึ่งเป็นปัจจัยสำคัญในการปรับปรุงประสบการณ์ของผู้ใช้ (UX) และประสิทธิภาพการดำเนินงานของธุรกิจ

สำหรับองค์กรธุรกิจ การเข้าถึงความเร็วของ Groq ผ่าน watsonx หมายถึงความสามารถในการปรับขนาด (Scalability) การใช้งาน AI โดยไม่ต้องลงทุนในโครงสร้างพื้นฐานเฉพาะทางที่ซับซ้อนและมีราคาสูง การใช้พลังประมวลผลของ LPU ในลักษณะบริการคลาวด์ (Cloud-as-a-Service) ช่วยให้ลูกค้าสามารถดำเนินการอนุมาน AI ด้วยต้นทุนที่เหมาะสมและมีประสิทธิภาพการใช้พลังงานที่เหนือกว่า GPUs ทั่วไป IBM เล็งเห็นว่าค่าใช้จ่ายและประสิทธิภาพในการอนุมานเป็นจุดคอขวดหลักในการนำ AI มาใช้ในวงกว้าง และการร่วมมือกับ Groq เป็นการตอบโจทย์ความท้าทายนี้โดยตรง

การบูรณาการนี้ยังสอดคล้องกับกลยุทธ์ของ IBM ในการเป็นผู้นำด้าน AI สำหรับองค์กร (Enterprise AI) ซึ่งเน้นหนักเรื่องความน่าเชื่อถือ ความโปร่งใส และการกำกับดูแล (Governance) AI การนำเสนอทางเลือกโครงสร้างพื้นฐานที่มีประสิทธิภาพสูงสุดให้ลูกค้าเลือกใช้ในการประมวลผลโมเดลของตนเอง เช่นเดียวกับที่ Groq นำเสนอ LPU ที่ออกแบบมาเพื่อการอนุมานโดยเฉพาะ เป็นการเสริมสร้างจุดยืนของ watsonx ในฐานะแพลตฟอร์ม AI แบบโมดูลาร์ที่สามารถปรับเปลี่ยนได้ตามความต้องการทางธุรกิจเฉพาะ

ปัจจุบัน IBM ได้นำเสนอความสามารถใหม่ๆ ใน watsonx อย่างต่อเนื่อง เช่น การเปิดตัวโมเดลพื้นฐานที่อัปเกรดแล้ว และการเพิ่มชุดเครื่องมือสำหรับนักพัฒนา การนำ Groq มาเสริมศักยภาพในการอนุมานจึงเป็นส่วนสำคัญที่ช่วยให้ความสามารถเหล่านี้สามารถนำไปใช้งานได้จริงด้วยความเร็วสูงสุด การเคลื่อนไหวนี้บ่งชี้อย่างชัดเจนว่าสงคราม AI ในตลาดองค์กรไม่ได้จำกัดอยู่แค่เพียงขนาดของโมเดลเท่านั้น แต่ยังรวมถึงความเร็วและประสิทธิภาพของฮาร์ดแวร์เบื้องหลังที่ขับเคลื่อนโมเดลเหล่านั้นด้วย ความร่วมมือระหว่าง IBM และ Groq จึงเป็นตัวอย่างที่ชัดเจนของการใช้ประโยชน์จากนวัตกรรมฮาร์ดแวร์เพื่อปลดล็อกศักยภาพสูงสุดของซอฟต์แวร์ AI

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)