กูเกิลนำเสนอ MIRAS และ Titans เส้นทางที่เป็นไปได้สู่ AI ที่เรียนรู้อย่างต่อเนื่อง

กูเกิลเสนอแนวทาง MIRAS และ Titans สู่ปัญญาประดิษฐ์ที่เรียนรู้อย่างต่อเนื่อง

นักวิจัยจากกูเกิล ดีพไมน์ด์ ได้ตีพิมพ์เอกสารวิจัยที่เสนอแนวทางการพัฒนาปัญญาประดิษฐ์ (AI) ที่สามารถเรียนรู้อย่างต่อเนื่อง โดยมุ่งเน้นไปที่ระบบ MIRAS (Memory-augmented Iterative Retrieval-Augmented Synthesis) และ Titans ซึ่งเป็นขั้นตอนสำคัญในการก้าวสู่ระบบ AI ที่ปรับตัวได้แบบเรียลไทม์ โดยไม่สูญเสียความรู้เดิม เอกสารดังกล่าวชื่อว่า “Mirasol: Towards Continuously Learning AI Agents” ชี้ให้เห็นถึงปัญหาหลักของโมเดลภาษาขนาดใหญ่ (LLM) ในปัจจุบันที่เป็นระบบแบบคงที่ (static) ซึ่งถูกฝึกฝนครั้งเดียวในช่วง pre-training และ fine-tuning จากนั้นจึงใช้งานโดยไม่มีการอัปเดตความรู้ใหม่ ส่งผลให้ AI ไม่สามารถปรับตัวเข้ากับข้อมูลใหม่ได้อย่างมีประสิทธิภาพ

ปัญหาหลักที่ MIRAS และ Titans มุ่งแก้ไขคือ “catastrophic forgetting” หรือการลืมความรู้เก่าเมื่อเรียนรู้สิ่งใหม่ รวมถึงความท้าทายในการ scale ระบบให้รองรับผู้ใช้จำนวนมากและข้อมูลมหาศาล นักวิจัยเสนอว่า ทางออกคือการผสมผสานเทคนิค Retrieval-Augmented Generation (RAG) เข้ากับหน่วยความจำภายนอก (external memory) เพื่อให้ AI สามารถดึงข้อมูลเก่า สังเคราะห์ข้อมูลใหม่ และปรับปรุงตัวเองแบบวนซ้ำ (iterative) โดยไม่ต้องฝึกฝนใหม่ทั้งหมด

MIRAS คือระบบต้นแบบที่ออกแบบมาเพื่อการเรียนรู้แบบต่อเนื่อง โดยทำงานบนพื้นฐาน RAG แบบขั้นสูง MIRAS ประกอบด้วยส่วนหลักสามส่วน ได้แก่ (1) หน่วยความจำระยะยาว (long-term memory) ที่เก็บประสบการณ์การสนทนาและผลลัพธ์ก่อนหน้าในรูปแบบ vector embeddings (2) กระบวนการดึงข้อมูลแบบวนซ้ำ (iterative retrieval) ที่ค้นหาความทรงจำที่เกี่ยวข้องหลายรอบเพื่อเพิ่มความแม่นยำ และ (3) การสังเคราะห์แบบมีหน่วยความจำ (memory-augmented synthesis) ที่รวมข้อมูลดึงได้เข้ากับ prompt เพื่อสร้างผลลัพธ์ที่ดีขึ้น

กระบวนการทำงานของ MIRAS สามารถอธิบายได้ดังนี้ เมื่อผู้ใช้ถามคำถาม ระบบจะเริ่มด้วยการดึงความทรงจำที่เกี่ยวข้องจากฐานข้อมูล จากนั้นใช้ LLM สร้าง prompt ชั่วคราว (scratchpad prompt) เพื่อวิเคราะห์และสังเคราะห์ข้อมูล หากผลลัพธ์ยังไม่สมบูรณ์ ระบบจะวนซ้ำกระบวนการดึงและสังเคราะห์หลายรอบ จนกว่าจะได้คำตอบที่ครอบคลุม สุดท้าย ระบบจะสรุปบทเรียนใหม่และบันทึกเป็นความทรงจำใหม่ในฐานข้อมูล นักวิจัยทดสอบ MIRAS บนชุดข้อมูล HotpotQA ซึ่งเป็นงานตอบคำถามที่ซับซ้อน โดยพบว่าประสิทธิภาพดีขึ้นอย่างมีนัยสำคัญ โดยเฉพาะในงานที่ต้องใช้ข้อมูลหลายแหล่ง MIRAS สามารถลดข้อผิดพลาดจาก hallucination (การสร้างข้อมูลเท็จ) ได้ โดยอาศัยความทรงจำจริงจากประสบการณ์ก่อนหน้า

Titans คือวิสัยทัศน์ขั้นต่อไปที่ขยายสเกล MIRAS ให้ใหญ่โตยิ่งขึ้น โดยสมมติฐานว่า Titans จะเป็นระบบขนาดยักษ์ที่รองรับผู้ใช้หลายล้านคน หน่วยความจำขนาดเพตะไบต์ (petabyte-scale memory) และการประมวลผลแบบขนานจำนวนมาก Titans จะทำงานเหมือน MIRAS แต่ในระดับอุตสาหกรรม โดยเก็บประสบการณ์จากการโต้ตอบจริงกับผู้ใช้ทั่วโลก ทำให้ระบบเรียนรู้จากข้อมูลหลากหลายและปรับตัวเข้ากับโลกจริงได้ดีขึ้น นักวิจัยคาดว่า Titans จะนำไปสู่ “test-time training” หรือการฝึกฝนแบบเรียลไทม์ระหว่างใช้งาน โดยใช้เทคนิคอย่าง synthetic data generation และ self-improvement loops เพื่อให้ AI พัฒนาตัวเองโดยอัตโนมัติ

เอกสารวิจัยชี้ให้เห็นถึงความท้าทายสำคัญหลายประการในการนำ MIRAS และ Titans สู่การใช้งานจริง ประการแรกคือการจัดการหน่วยความจำขนาดใหญ่ ซึ่งต้องใช้เทคนิค compression และ eviction policies เพื่อลบความทรงจำที่ไม่สำคัญ ประการที่สองคือความเป็นส่วนตัวและความปลอดภัย โดยต้องป้องกันการรั่วไหลของข้อมูลผู้ใช้ ประการที่สามคือ computational cost ที่สูง โดย Titans อาจต้องใช้ GPU นับพันตัว นักวิจัยเสนอทางแก้ด้วยการใช้ mixture-of-experts (MoE) architecture และ distributed computing

นอกจากนี้ ยังมีการเปรียบเทียบกับระบบที่มีอยู่ เช่น Grok จาก xAI หรือระบบ RAG ทั่วไป โดย MIRAS แสดงให้เห็นถึงการปรับปรุงที่เหนือกว่า โดยเฉพาะในงาน multi-hop reasoning (การ推理แบบหลายขั้นตอน) ผลการทดลองระบุว่า MIRAS สามารถทำคะแนน F1 score สูงถึง 68.5% บน HotpotQA เทียบกับ RAG มาตรฐานที่ 62.3% ซึ่งพิสูจน์ถึงประสิทธิภาพของการใช้หน่วยความจำแบบ iterative

แนวทางนี้สอดคล้องกับทิศทางของกูเกิลในการพัฒนา AI agent ที่ชาญฉลาดยิ่งขึ้น เช่น Gemini และ Project Astra ซึ่งมุ่งสู่การเรียนรู้จากโลกจริง MIRAS และ Titans จึงเป็นก้าวสำคัญที่อาจนำไปสู่ AGI (Artificial General Intelligence) ที่เรียนรู้ตลอดชีวิต โดยไม่ต้องพึ่งพาการฝึกฝนแบบ batch ขนาดใหญ่เท่านั้น นักวิจัยสรุปว่า แม้จะยังอยู่ในขั้นทดลอง แต่ระบบเหล่านี้เปิดประตูสู่ยุค AI ที่ปรับตัวได้อย่างแท้จริง และเชิญชวนชุมชนนักวิจัยให้ทดลอง implement ตาม open-source code ที่เผยแพร่ควบคู่กัน

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)