ปัญหาใหญ่ที่สุดของ OpenAI อาจไม่ใช่การพัฒนา AI แต่เป็นการชักชวนให้บริษัทต่างๆ นำไปใช้งานจริงนอกเหนือจาก ChatGPT
OpenAI ได้รับการยกย่องในฐานะผู้นำด้านปัญญาประดิษฐ์ (AI) ด้วยการพัฒนาโมเดลที่ล้ำสมัยอย่าง GPT-4o และ o1-preview ซึ่งแสดงให้เห็นถึงความก้าวหน้าทางเทคนิคที่เหนือชั้น อย่างไรก็ตาม ความท้าทายที่แท้จริงของบริษัทอาจไม่ใช่การสร้างเทคโนโลยีเหล่านี้ แต่เป็นการโน้มน้าวให้องค์กรธุรกิจนำ AI ไปใช้งานในระดับองค์กรอย่างกว้างขวางเกินกว่าการใช้งาน ChatGPT สำหรับผู้บริโภคทั่วไป
ChatGPT ประสบความสำเร็จอย่างท่วมท้นในตลาดผู้บริโภค โดยมีผู้ใช้งานรายสัปดาห์มากกว่า 200 ล้านราย ซึ่งส่วนใหญ่เป็นบุคคลทั่วไปที่ใช้สำหรับการสนทนา การสร้างเนื้อหา หรือช่วยเหลือในงานประจำวัน รายได้จากฝั่งผู้บริโภคเติบโตอย่างรวดเร็ว แต่เมื่อพิจารณาถึงศักยภาพทางธุรกิจ OpenAI ยังเผชิญอุปสรรคในการขยายฐานลูกค้าองค์กร รายได้จากบริการ ChatGPT Enterprise ซึ่งออกแบบมาเพื่อธุรกิจ เติบโตขึ้น 4 เท่าตั้งแต่เปิดตัวในปี 2566 แต่จำนวนลูกค้าอยู่ที่เพียงหลายพันราย เทียบกับฐานผู้ใช้ผู้บริโภคที่มหาศาลแล้ว ถือว่าน้อยมาก
องค์กรธุรกิจหลายแห่งเริ่มทดลองใช้งานผลิตภัณฑ์ของ OpenAI เช่น Assistants API ซึ่งช่วยให้สามารถสร้างตัวช่วย AI ที่กำหนดเองได้ รวมถึง Custom GPTs ที่ปรับแต่งตามความต้องการเฉพาะ แต่การนำไปใช้งานจริงในกระบวนการทำงานหลักยังคงจำกัด Microsoft ซึ่งเป็นพันธมิตรหลัก ได้รวม OpenAI เข้ากับผลิตภัณฑ์อย่าง Microsoft 365 Copilot และ Azure AI ทำให้เกิดการใช้งานในระดับองค์กรบางส่วน อย่างไรก็ตาม การยอมรับจากบริษัทอื่นๆ นอกเหนือจาก Microsoft ยังช้าและไม่ต่อเนื่อง
สาเหตุหลักของปัญหานี้มาจากหลายปัจจัยด้านเศรษฐกิจและเทคนิค ประการแรกคือต้นทุนที่สูง ChatGPT Enterprise มีราคาเริ่มต้นที่ 20 ดอลลาร์สหรัฐต่อผู้ใช้ต่อเดือน ซึ่งเมื่อรวมกับค่าใช้จ่ายในการพัฒนาแอปพลิเคชันที่ใช้ API ของ OpenAI แล้ว อาจสูงถึงหลักล้านดอลลาร์ต่อปีสำหรับองค์กรขนาดใหญ่ นอกจากนี้ การใช้งานโมเดลขั้นสูงอย่าง GPT-4o ยังมีค่าใช้จ่ายตามปริมาณโทเค็น (token-based pricing) ซึ่งคาดเดายากและอาจพุ่งสูงหากใช้งานหนัก
ประการที่สองคือความซับซ้อนในการผสานรวม (integration) องค์กรธุรกิจต้องการ AI ที่เชื่อมต่อกับระบบภายใน เช่น ฐานข้อมูล CRM ERP หรือเครื่องมือความปลอดภัยทางไซเบอร์ ซึ่งต้องใช้ทีมวิศวกรที่มีความเชี่ยวชาญในการพัฒนา Retrieval-Augmented Generation (RAG) เพื่อดึงข้อมูลจากเอกสารภายในโดยไม่รั่วไหล OpenAI ได้พัฒนาเครื่องมืออย่าง Connectors เพื่อช่วยเหลือ แต่ยังไม่เพียงพอต่อความต้องการที่หลากหลายของแต่ละอุตสาหกรรม
ประการที่สามคือความกังวลเรื่องความเป็นส่วนตัวของข้อมูลและความปลอดภัย องค์กรหลายแห่งกลัวว่าการส่งข้อมูล敏感 ไปยังเซิร์ฟเวอร์ของ OpenAI จะเสี่ยงต่อการละเมิดกฎหมายอย่าง GDPR หรือ PDPA แม้ OpenAI จะรับประกันการไม่ใช้ข้อมูลลูกค้าอัตรโนมัติเพื่อฝึกโมเดล แต่ความเชื่อมั่นยังไม่สมบูรณ์ นอกจากนี้ การพิสูจน์ผลตอบแทนจากการลงทุน (ROI) ยังเป็นอุปสรรค เนื่องจาก AI ช่วยเพิ่มประสิทธิภาพได้ แต่ยากที่จะวัดผลเป็นตัวเลขที่ชัดเจน เช่น ลดเวลาในการตอบลูกค้า 30% หรือเพิ่มยอดขาย 10%
ตัวอย่างการใช้งานที่ประสบความสำเร็จมีจำกัด เช่น Morgan Stanley ใช้ OpenAI สำหรับการวิเคราะห์เอกสารทางการเงิน Salesforce รวมเข้ากับ Einstein GPT และบริษัทเทคโนโลยีอย่าง GitHub Copilot ที่ช่วยนักพัฒนาเขียนโค้ด แต่กรณีเหล่านี้เป็นข้อยกเว้นมากกว่ากฎเกณฑ์ทั่วไป ผู้บริหารองค์กรจำนวนมากยังคงมองว่า AI เป็นเครื่องมือเสริม ไม่ใช่แกนหลักของธุรกิจ เนื่องจากโมเดลปัจจุบันยังมีข้อจำกัด เช่น การเกิดภาพหลอน (hallucinations) หรือความไม่สม่ำเสมอในการตอบสนอง
คู่แข่งอย่าง Anthropic (Claude) และ Google (Gemini) กำลังเร่งไล่ตาม โดยมุ่งเน้นผลิตภัณฑ์สำหรับองค์กร เช่น Anthropic’s Claude Enterprise ที่ราคาถูกกว่าและเน้นความปลอดภัย หรือ Google’s Vertex AI ที่ผสานกับ Google Cloud ได้อย่างราบรื่น OpenAI จึงจำเป็นต้องปรับกลยุทธ์ โดยเน้นพัฒนาเครื่องมือ enterprise-grade เช่น การสนับสนุน fine-tuning โมเดลส่วนตัวมากขึ้น ลดต้นทุน API และสร้าง ecosystem พันธมิตรที่กว้างขวางยิ่งกว่าเดิม
ในท้ายที่สุด ความสำเร็จระยะยาวของ OpenAI จะขึ้นอยู่กับการเปลี่ยนจาก “ผู้สร้าง AI ที่เก่งที่สุด” สู่ “ผู้ให้บริการ AI ที่ใช้งานได้จริงในธุรกิจ” หากไม่สามารถแก้ไขปัญหาการนำไปใช้ได้ ศักยภาพทางเทคโนโลยีที่เหนือชั้นอาจกลายเป็นเพียงศิลปะที่ไม่มีผู้ซื้อ
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)