อีลยา ซัตสเคเวอร์ ชี้ว่าจำเป็นต้องมีกระบวนทัศน์การเรียนรู้ใหม่ และบริษัทของเขากำลังไล่ตามมันอยู่แล้ว
อีลยา ซัตสเคเวอร์ ผู้ร่วมก่อตั้งและอดีตหัวหน้าศาสตร์ของ OpenAI และผู้ก่อตั้ง Safe Superintelligence Inc. (SSI) ได้กล่าวสุนทรพจน์ในงาน Y Combinator’s AI Startup School เมื่อสัปดาห์ที่แล้ว โดยเขาโต้แย้งว่าการฝึกโมเดลด้วย Reinforcement Learning from Human Feedback (RLHF) ซึ่งเป็นกระบวนทัศน์หลักในปัจจุบัน ได้ถึงขีดจำกัดแล้ว และจำเป็นต้องมีกระบวนทัศน์การเรียนรู้ใหม่เพื่อความก้าวหน้าต่อไป
“เรายึดติดกับ RLHF มาสักพักแล้ว และมันก็ยอดเยี่ยม แต่ผมคิดว่าเราต้องการกระบวนทัศน์การเรียนรู้ใหม่” ซัตสเคเวอร์กล่าว
เขาชี้ว่าการขยายขนาดคอมพิวต์ ข้อมูล และขนาดโมเดล ได้ขับเคลื่อนความก้าวหน้าที่น่าประทับใจ แต่กฎการขยายขนาดเหล่านั้นกำลังถึงจุดอิ่มตัว และจำเป็นต้องมีแนวคิดใหม่
บริษัทใหม่ของซัตสเคเวอร์ คือ SSI กำลังไล่ตามกระบวนทัศน์ใหม่นี้ โดยมุ่งเน้นไปที่การพัฒนา superintelligence ที่ปลอดภัยตั้งแต่แรกเริ่ม SSI ก่อตั้งโดยซัตสเคเวอร์ร่วมกับดาเนียล กรอส และดาเนียลา อามodio ซึ่งทั้งสามเคยทำงานร่วมกันที่ OpenAI โดย SSI ระดมทุนได้ 1 พันล้านดอลลาร์สหรัฐจากนักลงทุนชั้นนำ โดยไม่เจือปนด้วยแรงจูงใจทางธุรกิจอื่นๆ เพื่อมุ่งสร้าง AI ที่ฉลาดที่สุดเท่าที่เป็นไปได้อย่างปลอดภัย
ในสุนทรพจน์ ซัตสเคเวอร์อธิบายว่าการขยายขนาดได้ผลดีในอดีต แต่ตอนนี้กำลังชะลอตัว “การขยายขนาดน่าทึ่งมาก แต่ผมคิดว่าเรากำลังถึงจุดสิ้นสุดของการขยายขนาด หรืออย่างน้อยก็การขยายขนาดที่ง่ายๆ แล้ว” เขากล่าว พร้อมยกตัวอย่างว่าโมเดลขนาดใหญ่ช่วยให้ AI เก่งขึ้น แต่การปรับปรุงเพิ่มเติมยากขึ้นเรื่อยๆ
เขาย้ำว่าการปรับปรุงประสิทธิภาพการเรียนรู้เป็นสิ่งสำคัญ โดยเฉพาะการใช้คอมพิวต์ในเวลาทดสอบ (test-time compute) ซึ่งหมายถึงการให้โมเดลใช้เวลาคิดนานขึ้น ค้นหา และวางแผน แทนที่จะพึ่งพาโมเดลขนาดใหญ่เพียงอย่างเดียว ซัตสเคเวอร์ยกตัวอย่าง AlphaGo ที่ใช้การค้นหาแบบ Monte Carlo Tree Search (MCTS) เพื่อเอาชนะมนุษย์ ซึ่งแสดงให้เห็นว่าการใช้คอมพิวต์เพิ่มเติมในเวลาทดสอบสามารถสร้างความฉลาดที่เหนือกว่า
นอกจากนี้ เขาพูดถึงแนวคิด world models ซึ่งเป็นโมเดลที่เรียนรู้ที่จะคาดการณ์อนาคตจากข้อมูล โดยไม่ต้องมีรางวัลจากมนุษย์ World models ช่วยให้ AI เข้าใจโลกจริงและวางแผนได้ดีขึ้น ซัตสเคเวอร์เชื่อว่านี่คือทิศทางที่ถูกต้อง โดยชี้ว่าการรวม world models เข้ากับการค้นหาในเวลาทดสอบจะนำไปสู่ความก้าวหน้าครั้งใหญ่
ซัตสเคเวอร์ยังกล่าวถึง Joint Embedding Predictive Architectures (JEPA) ของยานน์ เลอคูน ซึ่งเป็นวิธีการเรียนรู้แบบไม่ใช้ generative model โดย JEPA ฝึกให้โมเดลคาดการณ์การแสดงออกในอวกาศ embedding ร่วมกัน แทนที่จะสร้างพิกเซลทั้งหมด ซึ่งช่วยลดความซับซ้อนและเพิ่มประสิทธิภาพ เขาเห็นว่านี่เป็นตัวอย่างของกระบวนทัศน์ใหม่ที่หลีกเลี่ยงข้อจำกัดของ RLHF
RLHF ซึ่งใช้กันอย่างแพร่หลายในโมเดลอย่าง ChatGPT อาศัยการให้รางวัลจากมนุษย์เพื่อปรับโมเดลให้ตอบสนองตามความชอบ แต่ซัตสเคเวอร์ชี้ว่าวิธีนี้มีขีดจำกัด โดยเฉพาะเมื่อข้อมูลจากมนุษย์มีจำกัดและโมเดลซับซ้อนขึ้น เขาเสนอว่าการเรียนรู้แบบ self-supervised หรือใช้ world models จะช่วยให้โมเดลเรียนรู้จากข้อมูลดิบได้มีประสิทธิภาพมากขึ้น
SSI กำลังมุ่งพัฒนากระบวนทัศน์นี้ โดยเน้นความปลอดภัยเป็นหลัก “เราต้องการสร้าง superintelligence ที่ปลอดภัย และเราจะไม่หยุดจนกว่าจะสำเร็จ” ซัตสเคเวอร์กล่าว บริษัทวางแผนใช้โครงสร้างองค์กรที่มุ่งเน้นการวิจัย โดยนักวิจัยจะได้รับค่าตอบแทนเท่าเทียม ไม่ขึ้นกับผลผลิต เพื่อส่งเสริมการทำงานระยะยาว
ในสุนทรพจน์ ซัตสเคเวอร์ยังพูดถึงอนาคตของ AI โดยคาดว่า AI จะช่วยแก้ปัญหาที่ยากที่สุดของมนุษยชาติ เช่น การรักษาโรค การค้นพบทางวิทยาศาสตร์ใหม่ๆ และการพัฒนาเทคโนโลยีพลังงานสะอาด แต่เพื่อให้ถึงจุดนั้น จำเป็นต้องมีนวัตกรรมในการเรียนรู้ใหม่
เขายกตัวอย่างจากประวัติศาสตร์ AI ว่าความก้าวหน้าอย่าง Recurrent Neural Networks (RNNs) และ Transformers เกิดจากการเปลี่ยนกระบวนทัศน์ และตอนนี้ถึงเวลาของการเปลี่ยนแปลงครั้งถัดไป ซัตสเคเวอร์มั่นใจว่า SSI จะเป็นผู้นำในการนี้ โดยทีมงานมีประสบการณ์จาก OpenAI และมุ่งมั่นกับวิสัยทัศน์ระยะยาว
สุนทรพจน์นี้เผยแพร่เต็มรูปแบบทาง YouTube และ transcript สามารถเข้าถึงได้ โดยสะท้อนมุมมองของซัตสเคเวอร์ที่เป็นหนึ่งในผู้นำทางความคิดด้าน AI ซึ่งเคยมีบทบาทสำคัญในการพัฒนาโมเดลอย่าง GPT-4
การประกาศของซัตสเคเวอร์เน้นย้ำว่าอุตสาหกรรม AI กำลังเข้าสู่ยุคใหม่ ที่การขยายขนาดอย่างเดียวไม่พออีกต่อไป แต่ต้องอาศัยนวัตกรรมพื้นฐานในการเรียนรู้ เพื่อปลดล็อกศักยภาพที่แท้จริงของปัญญาประดิษฐ์
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)