ทำไมถึงถึงเวลาที่ต้องปรับความคาดหวังต่อปัญญาประดิษฐ์ใหม่
ในช่วงไม่กี่ปีที่ผ่านมา เทคโนโลยีปัญญาประดิษฐ์ (AI) ได้กลายเป็นหัวข้อที่ได้รับความสนใจอย่างมหาศาล โดยเฉพาะอย่างยิ่งโมเดลภาษาขนาดใหญ่ (Large Language Models หรือ LLMs) เช่น ChatGPT ที่จุดประกายความตื่นเต้นให้กับสาธารณชน นักลงทุน และผู้นำธุรกิจทั่วโลก ผู้คนคาดหวังว่า AI จะนำมาซึ่งการปฏิวัติครั้งใหญ่ในทุกระดับ ตั้งแต่การแพทย์ การศึกษา ไปจนถึงเศรษฐกิจโดยรวม อย่างไรก็ตาม หลังจากผ่านพ้นกระแส hype ไปแล้ว ข้อมูลล่าสุดชี้ให้เห็นว่าความก้าวหน้าของ AI กำลังชะลอตัวลง และถึงเวลาที่เราควรปรับความคาดหวังให้สมจริงยิ่งขึ้น
ตามรายงานจาก MIT Technology Review ความคืบหน้าของ AI ในช่วงปี 2024-2025 แสดงให้เห็นถึงการชะลอตัวที่ชัดเจน โดยเฉพาะในด้านประสิทธิภาพของโมเดลใหม่ๆ เช่น GPT-4o, Claude 3.5 Sonnet และ Gemini 1.5 Pro นักวิจัยจาก Epoch AI ได้วิเคราะห์แนวโน้มและพบว่า อัตราการปรับปรุงประสิทธิภาพต่อการเพิ่มพลังคำนวณกำลังลดลงอย่างมีนัยสำคัญ ในอดีต การเพิ่มขนาดโมเดลและข้อมูลฝึกสอนจะนำมาซึ่งการเติบโตแบบทวีคูณ (scaling laws) แต่ปัจจุบัน เรากำลังเข้าสู่ยุคของ “diminishing returns” หรือผลตอบแทนที่ลดลง
ตัวอย่างที่ชัดเจนคือ การทดสอบบนบ enchmarks มาตรฐาน เช่น MMLU (Massive Multitask Language Understanding) ซึ่งวัดความสามารถในการตอบคำถามทั่วไป โมเดลในปี 2023 สามารถทำคะแนนได้ราว 70-80% แต่โมเดลปี 2024-2025 ทำได้เพียง 85-90% เท่านั้น แม้จะใช้ทรัพยากรคำนวณมากขึ้นหลายเท่า นอกจากนี้ ในงานที่ซับซ้อน เช่น การใช้เหตุผลเชิงคณิตศาสตร์ (math reasoning) หรือการเขียนโค้ด โมเดลเหล่านี้ยังคงล้มเหลวบ่อยครั้ง โดยมีอัตราความถูกต้องต่ำกว่า 50% ในบางกรณี
นักวิจัยชื่อดังอย่าง François Chollet ผู้สร้าง Keras framework กล่าวว่า “เรากำลังเผชิญกับกำแพงที่ยากจะทะลุทะลวง” เขาชี้ให้เห็นว่า AI ปัจจุบันยังขาด “general intelligence” หรือปัญญาทั่วไปที่มนุษย์มี โดยพึ่งพาการจำข้อมูลจำนวนมหาศาลมากกว่าการเรียนรู้ที่แท้จริง สิ่งนี้ทำให้ AI เก่งในงานที่เคยเห็นมาก่อน แต่ไร้ประสิทธิภาพในสถานการณ์ใหม่ๆ หรือ “out-of-distribution” data
นอกจากนี้ ปัญหาด้านข้อมูลฝึกสอนกำลังกลายเป็นอุปสรรคใหญ่ ข้อมูลคุณภาพสูงบนอินเทอร์เน็ตกำลังหมดลง เนื่องจากเนื้อหาที่สร้างโดย AI เอง (synthetic data) เริ่มปนเปื้อน ทำให้เกิด “model collapse” หรือการเสื่อมประสิทธิภาพของโมเดลรุ่นถัดไป การศึกษาจาก Rice University และมหาวิทยาลัยอื่นๆ ยืนยันว่า หากใช้ข้อมูลสังเคราะห์มากเกินไป โมเดลจะสูญเสียความหลากหลายและความแม่นยำ
ในเชิงธุรกิจ บริษัทเทคโนโลยีชั้นนำอย่าง OpenAI, Anthropic และ Google กำลังเผชิญแรงกดดันจากนักลงทุนที่คาดหวังผลตอบแทนมหาศาล Sam Altman CEO ของ OpenAI เคยประกาศว่าจะบรรลุ AGI (Artificial General Intelligence) ภายในไม่กี่ปี แต่ล่าสุดบริษัทต้องปรับลดคาดการณ์ โดยยอมรับว่าการพัฒนายังคงเป็นกระบวนการที่ยาวนานและไม่แน่นอน การลงทุนใน AI พุ่งสูงถึงหลายล้านล้านดอลลาร์สหรัฐ แต่ ROI (Return on Investment) ยังไม่ชัดเจน โดยเฉพาะในงานที่ต้องการความน่าเชื่อถือสูง เช่น การวินิจฉัยทางการแพทย์หรือระบบอัตโนมัติในอุตสาหกรรม
ผู้เชี่ยวชาญแนะนำให้ “reset expectations” โดยมุ่งเน้นไปที่การปรับปรุงคุณภาพมากกว่าขนาด เช่น การพัฒนา AI ที่เชื่อถือได้ (reliable AI) ผ่านเทคนิคอย่าง Retrieval-Augmented Generation (RAG) หรือการฝึกแบบ few-shot learning นอกจากนี้ ควรลงทุนในงานเฉพาะทาง (domain-specific AI) เช่น AI สำหรับกฎหมายหรือวิทยาศาสตร์ แทนการไล่ล่าความสามารถทั่วไป นักวิจัยจาก DeepMind ชี้ว่า การรวม AI เข้ากับ robotics หรือ hardware จะให้ผลลัพธ์ที่ดีกว่าโมเดลภาษาล้วนๆ
รัฐบาลและหน่วยงานกำกับดูแลก็เริ่มตื่นตัว โดยสหภาพยุโรปมี AI Act ที่บังคับให้บริษัทเปิดเผยข้อมูลด้านความเสี่ยง ในสหรัฐฯ มีการถกเถียงเรื่องการควบคุมชิป GPU เพื่อป้องกันการแข่งขันที่ไม่ยั่งยืน สิ่งเหล่านี้จะช่วยให้อุตสาหกรรม AI เติบโตอย่างสมดุลมากขึ้น
สรุปแล้ว การปรับความคาดหวังไม่ใช่การยอมแพ้ แต่เป็นการวางรากฐานที่มั่นคงสำหรับอนาคต AI จะยังคงเปลี่ยนแปลงโลก แต่ไม่ใช่ในรูปแบบ sci-fi ที่เราคุ้นเคย หากแต่เป็นเครื่องมือที่ช่วยเสริมศักยภาพมนุษย์ในงานประจำวัน ธุรกิจควรเตรียมพร้อมโดยลงทุนในบุคลากรที่เข้าใจ AI อย่างแท้จริง และพัฒนาโซลูชันที่แก้ปัญหาจริง ไม่ใช่ไล่ตาม hype ชั่วคราว
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)