ยันน์ เลคัน ต้องการแทนที่แนวคิด agi ด้วย «ปัญญาเกินมนุษย์ที่ปรับตัวได้»

ยันน์ เลกูน เสนอให้ทดแทนแนวคิด AGI ด้วย “สติปัญญาปรับตัวได้เหนือมนุษย์”

ยันน์ เลกูน หัวหน้าฝ่ายปัญญาประดิษฐ์ของเมตา (Meta) ได้แสดงความเห็นในบทสัมภาษณ์กับ The Decoder ว่า แนวคิดเรื่องปัญญาประดิษฐ์ทั่วไป (Artificial General Intelligence: AGI) ที่ถูกพูดถึงอย่างกว้างขวางในปัจจุบันนั้น มีการใช้งานที่คลุมเครือและถูกนำไปใช้ในทางที่ผิด โดยเฉพาะอย่างยิ่งเพื่อดึงดูดการลงทุนจากนักลงทุน เขาเสนอให้เลิกใช้คำว่า AGI และแทนที่ด้วยคำว่า “สติปัญญาปรับตัวได้เหนือมนุษย์” (Superhuman Adaptable Intelligence) ซึ่งเป็นแนวคิดที่ชัดเจนยิ่งขึ้นในการอธิบายระบบปัญญาประดิษฐ์รุ่นถัดไป

เลกูนชี้ให้เห็นว่า คำว่า AGI ถูกนิยามแตกต่างกันไปในแต่ละบุคคล บางคนมองว่าเป็นระบบที่สามารถทำงานได้เทียบเท่ามนุษย์ในทุกด้าน บางคนเห็นว่าเป็นระบบที่ฉลาดกว่ามนุษย์หลายล้านเท่า หรือแม้กระทั่งระบบที่สามารถครองโลกได้ตามแบบในนิยายวิทยาศาสตร์ เขาเชื่อว่าคำนี้ถูกนำมาใช้เป็นเครื่องมือทางการตลาดโดยบริษัทเทคโนโลยีขนาดใหญ่ เพื่อสร้างความตื่นเต้นและดึงดูดเงินทุน โดยเฉพาะในยุคที่การแข่งขันด้านปัญญาประดิษฐ์กำลังร้อนแรง

แนวคิด “สติปัญญาปรับตัวได้เหนือมนุษย์” ของเลกูน เน้นที่ระบบปัญญาประดิษฐ์ที่สามารถเรียนรู้และปรับตัวได้ดีกว่ามนุษย์ในสภาพแวดล้อมใหม่ๆ โดยอาศัยประสบการณ์จริงจากการโต้ตอบกับโลกภายนอก ระบบดังกล่าวจะต้องสร้าง “แบบจำลองของโลก” (world model) ในตัวเอง เพื่อทำนายผลลัพธ์ของการกระทำต่างๆ และวางแผนล่วงหน้าได้อย่างมีประสิทธิภาพ แตกต่างจากโมเดลภาษาขนาดใหญ่ (Large Language Models: LLMs) ในปัจจุบัน เช่น ChatGPT หรือ Llama ซึ่งเลกูนวิจารณ์ว่าเป็นเพียงระบบจับคู่รูปแบบ (pattern matching) ที่ขาดความเข้าใจเชิงลึกและไม่สามารถเรียนรู้จากประสบการณ์จริงได้

เลกูนอธิบายว่า ระบบสติปัญญาปรับตัวได้เหนือมนุษย์จะต้องมีสถาปัตยกรรมที่คล้ายคลึงกับสมองของสัตว์เลี้ยงลูกด้วยนม โดยมีส่วนประกอบหลักสามส่วน ได้แก่

  1. โมดูลสร้างแบบจำลองโลก: รับข้อมูลจากเซ็นเซอร์และสร้างความเข้าใจเกี่ยวกับสภาพแวดล้อมทางกายภาพและสังคม เพื่อทำนายสิ่งที่จะเกิดขึ้นหากดำเนินการใดๆ

  2. โมดูลวางแผน: ใช้แบบจำลองโลกในการค้นหาลำดับการกระทำที่เหมาะสมเพื่อบรรลุเป้าหมาย โดยคำนึงถึงความไม่แน่นอนและความเสี่ยง

  3. โมดูลการเรียนรู้: ปรับปรุงแบบจำลองและกลยุทธ์วางแผนจากผลลัพธ์ของการกระทำจริง เพื่อให้เกิดการเรียนรู้อย่างต่อเนื่อง

ระบบดังกล่าวจะต้องขับเคลื่อนด้วย “วัตถุประสงค์” (objective-driven) แทนการพึ่งพาการคาดเดาคำถัดไป (next-token prediction) อย่างเดียว ซึ่งเป็นจุดอ่อนของ LLMs ปัจจุบัน เลกูนยกตัวอย่างว่า หุ่นยนต์ที่ใช้ระบบนี้จะสามารถเรียนรู้ทักษะใหม่ๆ เช่น การหยิบของหรือเดินทางในสภาพแวดล้อมที่ไม่คุ้นเคย ได้เร็วกว่ามนุษย์ โดยไม่ต้องใช้ข้อมูลฝึกอบรมจำนวนมหาศาล

ในส่วนของกรอบเวลา เลกูนประเมินว่าระบบสติปัญญาปรับตัวได้เหนือมนุษย์จะเกิดขึ้นได้ในอีก 10-20 ปีข้างหน้า โดยอาศัยความก้าวหน้าทางฮาร์ดแวร์ เช่น ชิปประมวลผลประสิทธิภาพสูง และการพัฒนาสถาปัตยกรรมใหม่ๆ เขาไม่เชื่อในภัยคุกคามแบบ “การครองโลก” จาก AGI ตามที่นักวิจารณ์บางคนกังวล เนื่องจากระบบที่แท้จริงจะต้องมีเป้าหมายที่ชัดเจนและควบคุมได้ ไม่ใช่ระบบที่เติบโตอย่างไม่คาดคิด

เลกูนยังชี้ให้เห็นถึงความท้าทายในการพัฒนาระบบดังกล่าว โดยเฉพาะการสร้างแบบจำลองโลกที่ซับซ้อนพอจะเข้าใจฟิสิกส์ สังคมศาสตร์ และจิตวิทยา รวมถึงการจัดการกับข้อมูลจำนวนมากจากประสบการณ์จริง นอกจากนี้ เขายังวิจารณ์บริษัทคู่แข่ง เช่น OpenAI ที่มุ่งเน้น LLMs ขนาดยักษ์ ซึ่งเขาเห็นว่าไม่ใช่เส้นทางที่ยั่งยืน โดยเมตากำลังลงทุนในโครงการอย่าง Joint Embedding Predictive Architecture (JEPA) เพื่อสร้างแบบจำลองโลกที่ปราศจากข้อจำกัดของการคาดเดาคำถัดไป

การเสนอแนวคิดใหม่นี้ของเลกูน ไม่เพียงช่วยให้เกิดความชัดเจนในวงการปัญญาประดิษฐ์เท่านั้น แต่ยังเป็นแนวทางในการกำหนดมาตรฐานสำหรับการวิจัยและพัฒนาในอนาคต โดยเน้นที่ความสามารถในการปรับตัวและเรียนรู้ที่เหนือมนุษย์อย่างแท้จริง แทนการไล่ตามคำศัพท์ที่คลุมเครืออย่าง AGI ซึ่งอาจนำไปสู่ความเข้าใจผิดและการลงทุนที่ไม่เหมาะสม

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)