OpenAI ฆ่าโมเดล AI ที่ผู้ใช้รักมากเกินไป ทิ้งคดีความและความหลงไว้เบื้องหลัง

OpenAI ยุติการใช้งานโมเดล AI ที่ผู้ใช้ชื่นชอบมากเกินไป ทิ้งไว้เพียงคดีความและภาพลวงตา

OpenAI ผู้พัฒนาระบบปัญญาประดิษฐ์ชั้นนำ ได้ตัดสินใจยุติการสนับสนุนโมเดล “gpt-4o-2024-08-06” ซึ่งเป็นเวอร์ชันถ่ายทอดภาพ (snapshot) ของ GPT-4o ที่เปิดให้บริการสำหรับการปรับแต่งละเอียด (fine-tuning) โมเดลนี้ได้รับความนิยมอย่างสูงจากนักพัฒนา เนื่องจากประสิทธิภาพที่เหนือกว่าเวอร์ชันปัจจุบันหลายด้าน โดยเฉพาะในงานที่ต้องการการปรับแต่งเฉพาะทาง การตัดสินใจดังกล่าวประกาศเมื่อวันที่ 14 พฤศจิกายน 2567 โดยกำหนดวันสิ้นสุดการใช้งานในวันที่ 20 พฤศจิกายน 2567 ซึ่งให้ระยะเวลาการแจ้งเตือนเพียง 6 วันเท่านั้น สร้างความไม่พอใจอย่างกว้างขวางในชุมชนนักพัฒนา

โมเดล gpt-4o-2024-08-06 ถือเป็นหนึ่งในเวอร์ชัน snapshot ที่ OpenAI เปิดให้บริการตั้งแต่เดือนสิงหาคม 2567 โดยมีจุดเด่นในด้านความสามารถในการปรับแต่งให้เหมาะสมกับงานเฉพาะ เช่น การวิเคราะห์ข้อมูล การสร้างเนื้อหา และการตอบสนองที่แม่นยำ นักพัฒนาหลายรายรายงานว่าหลังจาก fine-tune โมเดลนี้แล้ว ประสิทธิภาพที่ได้ดีกว่า GPT-4o เวอร์ชันล่าสุดอย่างชัดเจน โดยเฉพาะในด้านความฉลาดและความสม่ำเสมอของผลลัพธ์ ตัวอย่างเช่น ผู้ใช้ในฟอรัม Reddit และ OpenAI Developer Community ได้โพสต์ข้อความอาลัยอาวรณ์ เช่น “RIP gpt-4o-2024-08-06 – the pinnacle of GPT-4o” และ “It was noticeably smarter and more consistent than today’s GPT-4o” ซึ่งสะท้อนถึงความผูกพันที่ผู้ใช้มีต่อโมเดลนี้

เหตุผลที่ OpenAI นำโมเดลนี้มาออกจากระบบนั้น มาจากนโยบายที่ชัดเจนในการจัดการ snapshot สำหรับ fine-tuning โดย OpenAI ระบุว่า snapshot เหล่านี้เป็นเพียงเวอร์ชันชั่วคราวที่ใช้สำหรับการทดสอบและพัฒนา ไม่ได้ออกแบบให้ใช้งานถาวร หลังจากนั้น ผู้ใช้จะต้องย้ายไปใช้เวอร์ชันโมเดลหลักล่าสุด เช่น gpt-4o-2024-11-20 ซึ่งเป็น snapshot ใหม่ที่เพิ่งเปิดตัว อย่างไรก็ตาม นโยบายดังกล่าวทำให้เกิดความสับสน เนื่องจากผู้ใช้บางรายได้ลงทุนเวลาและทรัพยากรในการ fine-tune โมเดลเก่า และไม่สามารถถ่ายโอนผลงานไปยังเวอร์ชันใหม่ได้โดยตรงโดยไม่สูญเสียประสิทธิภาพ OpenAI แนะนำให้ผู้ใช้ทำการ fine-tune ใหม่บนโมเดลปัจจุบัน แต่หลายคนมองว่านี่เป็นภาระที่ไม่สมเหตุสมผล

ประเด็นสำคัญที่เกิดขึ้นคือ การถดถอยของประสิทธิภาพ (performance regression) ในโมเดลรุ่นใหม่ ซึ่งเป็นปัญหาที่พบได้บ่อยในวงการ AI OpenAI ยอมรับว่าการอัปเดตโมเดลอาจนำไปสู่การเปลี่ยนแปลงที่ไม่คาดคิด โดยอ้างถึง “alignment tax” ซึ่งหมายถึงต้นทุนที่เกิดจากการปรับโมเดลให้สอดคล้องกับนโยบายด้านความปลอดภัยและจริยธรรมมากขึ้น ส่งผลให้โมเดลบางเวอร์ชันอาจดู “โง่ลง” หรือถูกจำกัดมากกว่าเดิมในสายตาผู้ใช้ นักพัฒนาจึงหันไปพึ่ง snapshot เก่าที่มีสมดุลที่ดีกว่า เช่น gpt-4o-2024-08-06 ซึ่งให้ผลลัพธ์ที่ “ฉลาดกว่าและสม่ำเสมอมากกว่า” ตามคำให้การของผู้ใช้

การยุติโมเดลนี้ยังเชื่อมโยงกับบริบททางกฎหมายที่ OpenAI กำลังเผชิญ คดีความหลายคดีที่รุกล้ำเข้ามา เช่น คดีจาก New York Times ที่กล่าวหา OpenAI ละเมิดลิขสิทธิ์ในการฝึกโมเดล หรือคดีจากนักเขียนและศิลปินที่เรียกร้องค่าชดเชย นอกจากนี้ ยังมีคดีจาก Elon Musk ผู้ร่วมก่อตั้ง OpenAI ซึ่งฟ้องร้องว่าบริษัทเบี่ยงเบนจากพันธกิจดั้งเดิม คดีเหล่านี้สร้างแรงกดดันให้ OpenAI ต้องปรับโครงสร้างโมเดลอย่างเร่งด่วน เพื่อหลีกเลี่ยงความเสี่ยงทางกฎหมายเพิ่มเติม การตัดสินใจยุติ snapshot เก่าอาจเป็นส่วนหนึ่งของกลยุทธ์ดังกล่าว เพื่อบังคับให้ผู้ใช้ย้ายไปยังเวอร์ชันที่ “ปลอดภัย” มากขึ้น

นอกจากนี้ การเคลื่อนไหวครั้งนี้ยังเผยให้เห็นถึงภาพลวงตา (delusion) ในอุตสาหกรรม AI ที่ผู้คนเชื่อว่าการพัฒนาโมเดลจะก้าวหน้าอย่างต่อเนื่องและเชิงเส้นเสมอไป ในความเป็นจริง ประสิทธิภาพของโมเดลสามารถผันผวนได้ ขึ้นอยู่กับการฝึกข้อมูลใหม่ การปรับพารามิเตอร์ และการบังคับใช้กฎเกณฑ์ด้านความปลอดภัย OpenAI เองเคยเผชิญปัญหาคล้ายกันในอดีต เช่น การถดถอยของ GPT-4 Turbo ซึ่งผู้ใช้บ่นว่า “โง่ลง” หลังอัปเดต ผู้เชี่ยวชาญในวงการเตือนว่าภาพลวงตานี้เสี่ยงทำให้เกิดความคาดหวังที่ไม่สมจริง และอาจนำไปสู่ความผิดหวังในระยะยาว

สำหรับนักพัฒนาที่ได้รับผลกระทบ OpenAI ให้คำแนะนำในการย้ายข้อมูล โดยใช้เครื่องมือ API เพื่อดึงโมเดล fine-tuned ที่มีอยู่ก่อนวันที่ 20 พฤศจิกายน 2567 และทำการ fine-tune ใหม่บน snapshot ล่าสุด อย่างไรก็ตาม กระบวนการนี้อาจใช้เวลานานและต้นทุนสูง โดยเฉพาะสำหรับโปรเจกต์ขนาดใหญ่ ชุมชนนักพัฒนาจึงเรียกร้องให้ OpenAI เปลี่ยนนโยบาย โดยเสนอให้ snapshot เก่ามีอายุการใช้งานนานขึ้น หรือเปิดใช้งานแบบถาวรสำหรับกรณีพิเศษ

สรุปแล้ว การยุติ gpt-4o-2024-08-06 เป็นตัวอย่างที่ชัดเจนของความท้าทายในการจัดการวงจรชีวิตโมเดล AI ในยุคที่เทคโนโลยีพัฒนาอย่างรวดเร็ว OpenAI ต้อง cân bằngระหว่างนวัตกรรม ความปลอดภัย และความพึงพอใจของผู้ใช้ ท่ามกลางคดีความที่รุมเร้าและความคาดหวังที่สูงล้น หากไม่ปรับปรุงนโยบาย ผู้ใช้ในอนาคตอาจหันไปหาคู่แข่ง เช่น Anthropic หรือ Google ที่อาจให้ความยืดหยุ่นมากกว่า สถานการณ์นี้เป็นบทเรียนสำคัญสำหรับอุตสาหกรรม AI ในการสร้างความไว้วางใจระยะยาวกับชุมชนนักพัฒนา

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)