นักวิจัย AI ชาวอเมริกัน แอนดรเจย์ คาร์ปาธี กล่าวว่า AI ที่มีตัวตน (agentic AI) ยังอยู่ห่างไกลจากความคาดหวังในอุตสาหกรรม หากไม่ถึง

นักวิจัยด้านปัญญาประดิษฐ์ (AI) ชื่อดัง Andrej Karpathy แสดงทัศนะที่ชาญฉลาดและมีความรอบคอบเกี่ยวกับ “Agentic AI” โดยกล่าวว่าเทคโนโลยีนี้ยังห่างไกลจากระดับความคาดหวังที่ตลาดสร้างขึ้น ซึ่งอาจต้องใช้เวลาอีกหลายปีกว่าจะสามารถบรรลุศักยภาพที่โฆษณาไว้ได้ แนวคิดของ Agentic AI หมายถึงระบบ AI ที่สามารถดำเนินการตามเป้าหมายที่ซับซ้อนได้อย่างอิสระ โดยไม่จำเป็นต้องมีการป้อนข้อมูลหรือการกำกับดูแลจากมนุษย์อย่างต่อเนื่อง

Karpathy ผู้มีบทบาทสำคัญในการพัฒนา AI ที่องค์กรชั้นนำ เช่น Tesla และ OpenAI ได้เน้นย้ำถึงความซับซ้อนที่แท้จริงในการสร้าง Intelligent Agents ที่ทำงานได้อย่างน่าเชื่อถือในโลกจริง เขาเปรียบเทียบความแตกต่างระหว่างความก้าวหน้าอย่างรวดเร็วของ Large Language Models (LLMs) หรือโมเดลภาษาขนาดใหญ่ กับการพัฒนา Agentic AI ซึ่งต้องเผชิญกับอุปสรรคทางเทคนิคที่ใหญ่กว่ามาก

ในฐานะที่เป็นผู้สังเกตการณ์ในอุตสาหกรรม AI Karpathy ชี้ให้เห็นอย่างชัดเจนว่าแม้ว่า LLMs จะแสดงความสามารถในการทำความเข้าใจและสร้างภาษาที่น่าทึ่ง แต่การนำความสามารถเหล่านั้นมาใช้ในรูปแบบของ “Agent” ที่สามารถวางแผนระยะยาว จัดการกับข้อผิดพลาด และโต้ตอบกับสภาพแวดล้อมที่คาดเดาไม่ได้ได้อย่างมีประสิทธิภาพ ยังเป็นเรื่องที่ท้าทายอย่างยิ่ง

ความคาดหวังของตลาดต่อ Agentic AI นั้นถูกขับเคลื่อนโดยกรณีการใช้งานเชิงทฤษฎี (Hypothetical Use Cases) เช่น AI ที่สามารถจัดการการจองการเดินทางทั้งหมดได้โดยอัตโนมัติ หรือ AI ที่สามารถดำเนินการวิจัยและพัฒนาซอฟต์แวร์ที่ซับซ้อนได้เอง อย่างไรก็ตาม Karpathy ตั้งข้อสังเกตว่าความก้าวหน้าในปัจจุบันมักจะหยุดชะงักเมื่อต้องเผชิญกับความจำเป็นในการ “การวางแผนขั้นสูง” (Advanced Planning) และ “การประมวลผลตามขั้นตอน” (Procedural Processing) ซึ่งเป็นรากฐานของการกระทำเชิงตัวแทน (Agentic Action)

หนึ่งในประเด็นหลักที่ Karpathy ให้ความสำคัญคือปัญหาที่เรียกว่า “การสังเกตสภาพแวดล้อม” (Environmental Observation) ในขณะที่มนุษย์สามารถรับรู้และประมวลผลข้อมูลในโลกจริงได้อย่างง่ายดาย การจำลองสภาพแวดล้อมนั้นสำหรับ Agentic AI เพื่อให้สามารถตัดสินใจได้อย่างถูกต้องเป็นสิ่งที่ยากยิ่ง หาก Agent ล้มเหลวในการตีความสถานะปัจจุบันของสภาพแวดล้อมอย่างถูกต้อง (เช่น การตีความหน้าจอคอมพิวเตอร์ หรือข้อมูลอินพุตจากอินเทอร์เฟซ) การกระทำที่ตามมาก็จะล้มเหลวตามไปด้วย ซึ่งเป็นจุดบกพร่องที่ทำให้ Agents ในปัจจุบันยังไม่สามารถทำงานในที่ที่ไม่ได้รับการควบคุมอย่างสมบูรณ์ได้

นอกจากนี้ Karpathy ยังได้ให้มุมมองเชิงปฏิบัติเกี่ยวกับสิ่งที่เขาเรียกว่า “วงจรประสาทหลอน” (Hallucination Cycle) ในระบบ AI เมื่อ Agent ทำการกระทำที่ผิดพลาดในสภาพแวดล้อมดิจิทัลหรือทางกายภาพ ข้อมูลป้อนกลับ (Feedback) ที่ได้รับจากการกระทำนั้นอาจทำให้ Agent เข้าใจผิดพลาดต่อไป ซึ่งเป็นการขยายข้อผิดพลาดเริ่มต้นออกไปเรื่อยๆ จนกว่า Agent จะล้มเหลวในภารกิจทั้งหมดอย่างสิ้นเชิง ปัญหานี้สร้างความท้าทายอย่างมากต่อความน่าเชื่อถือและความยืดหยุ่น (Robustness) ของ Agents ที่ต้องทำงานแบบเสรี

Karpathy สรุปอย่างเป็นกลางว่า แม้จะมีการลงทุนและการวิจัยจำนวนมากในด้าน Agentic AI แต่การบรรลุเป้าหมายที่ Agent สามารถทำงานได้อย่างอิสระและมีประสิทธิภาพเทียบเท่ากับความสามารถที่โฆษณาในสื่อต่างๆ ยังคงต้องใช้ “นวัตกรรมพื้นฐาน” (Fundamental Innovation) อีกมากมายในด้านการวางแผน การจัดการหน่วยความจำระยะยาว และการพัฒนาความสามารถในการโต้ตอบกับสภาพแวดล้อมแบบเปิด (Open-ended Environments) เขาคาดว่า Agentic AI ที่แท้จริงซึ่งสามารถจับคู่กับความคาดหวังของอุตสาหกรรม อาจจะปรากฏขึ้นอย่างเป็นรูปธรรมในอีกหลายปีข้างหน้า ไม่ใช่แค่เพียงไม่กี่เดือนตามที่หลายคนคาดหวัง

ดังนั้น สำหรับองค์กรที่กำลังพิจารณาการนำ Agentic AI มาใช้ในเชิงกลยุทธ์ ควรตั้งความคาดหวังไว้อย่างระมัดระวังและยอมรับว่าเทคโนโลยีนี้ยังอยู่ในช่วงเริ่มต้นของการเติบโต ที่ต้องมีการทดสอบอย่างเข้มงวดและการพัฒนาอย่างต่อเนื่องเพื่อพิสูจน์ความคุ้มค่าและความน่าเชื่อถือในสภาพแวดล้อมทางธุรกิจที่ซับซ้อน

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)