ทำไมการทำนายอนาคตของปัญญาประดิษฐ์จึงยากเย็นนัก
ในวงการเทคโนโลยีปัญญาประดิษฐ์ (AI) การทำนายอนาคตมักเต็มไปด้วยความไม่แน่นอน แม้ผู้เชี่ยวชาญจะพยายามคาดการณ์กันอย่างขยันขันแข็ง แต่ผลลัพธ์ที่เกิดขึ้นจริงมักเบี่ยงเบนจากที่คาดไว้อย่างสิ้นเชิง บทความนี้จะวิเคราะห์เหตุผลหลักที่ทำให้การทำนายความก้าวหน้าของ AI เป็นเรื่องท้าทาย โดยอาศัยข้อมูลและมุมมองจากบทวิเคราะห์ล่าสุดของ MIT Technology Review
ประการแรก ความก้าวหน้าของ AI มักเกิดขึ้นแบบก้าวกระโดด (exponential leaps) แทนที่จะเป็นการพัฒนาแบบเชิงเส้น (linear progression) ซึ่งเป็นลักษณะที่มนุษย์คุ้นเคย ยกตัวอย่างเช่น ในช่วงปี 2023-2025 โมเดลภาษาขนาดใหญ่ (large language models) อย่าง GPT-4 และผู้สืบทอดได้สร้างความก้าวหน้าอย่างรวดเร็วจากการเพิ่มขนาดข้อมูล การประมวลผล และพารามิเตอร์ แต่ผู้เชี่ยวชาญหลายคน เช่น Yann LeCun จาก Meta กลับมองว่าการ scaling นี้จะถึงจุดอิ่มตัว (diminishing returns) ในไม่ช้า ขณะที่นักทำนายอย่าง Ray Kurzweil ยังยืนยันว่าจะเกิด “singularity” ภายในปี 2045 ที่ AI จะเหนือกว่ามนุษย์ทุกด้าน ความขัดแย้งนี้สะท้อนถึงความยากในการคาดการณ์เพราะไม่มีกฎเกณฑ์แน่นอนว่าจะเกิด paradigm shift ใหม่เมื่อใด เช่น การเปลี่ยนจาก transformer architecture ไปสู่ระบบใหม่ที่ประสิทธิภาพสูงกว่า
ประการที่สอง ปัจจัยภายนอกที่ควบคุมไม่ได้มีบทบาทสำคัญ เช่น การขาดแคลนข้อมูลฝึกอบรมคุณภาพสูง (high-quality training data) และพลังงานสำหรับการประมวลผล ในปี 2025 บริษัทเทคโนโลยีชั้นนำอย่าง OpenAI และ Google DeepMind เผชิญปัญหาข้อมูลหมดสิ้น โดยต้องหันไปใช้ synthetic data ซึ่งอาจนำไปสู่ปัญหาความน่าเชื่อถือ นอกจากนี้ การใช้พลังงานมหาศาลสำหรับศูนย์ข้อมูล AI คิดเป็นสัดส่วนถึง 2-3% ของการใช้ไฟฟ้าทั่วโลก ส่งผลให้เกิดข้อจำกัดด้านกฎระเบียบและต้นทุน ผู้เชี่ยวชาญอย่าง Timnit Gebru ชี้ว่าปัญหาเหล่านี้อาจชะลอความก้าวหน้าได้อย่างไม่คาดฝัน ทำให้การทำนายที่อิงจากแนวโน้มปัจจุบันผิดพลาด
ประการที่สาม ความไม่สอดคล้องกันของความเห็นจากผู้เชี่ยวชาญ (expert disagreement) เป็นอุปสรรคใหญ่ ในแบบสำรวจ Metaculus และอื่นๆ พบว่าผู้เชี่ยวชาญด้าน AI แบ่งออกเป็นสองฝั่ง: ค่าย乐观 (optimists) ที่เชื่อใน AGI (artificial general intelligence) ภายในทศวรรษหน้า และค่าย pessimists ที่คาดว่าจะล่าช้าออกไปหลายสิบปี เช่น Shane Legg ผู้ร่วมก่อตั้ง DeepMind เคยทำนาย AGI ในปี 2028 แต่ปรับลดความมั่นใจลงเหลือ 50% ในภายหลัง ความแตกต่างนี้เกิดจากสมมติฐานที่ต่างกัน เช่น การประเมินอัตราการ scaling ของ compute หรือผลกระทบจาก regulation เช่น EU AI Act ที่กำหนดกรอบความปลอดภัยเข้มงวด สถานการณ์เหล่านี้ทำให้การทำนายกลายเป็นเกมแห่งความน่าจะเป็นมากกว่าความแน่นอน
นอกจากนี้ ประวัติศาสตร์ยืนยันถึงความยากนี้ โครงการ AI ในทศวรรษ 1970-1980 เคยล้มเหลวเพราะ “AI winter” จากการ overpromise เช่น ELIZA chatbot ที่ดูฉลาดแต่พื้นฐานตื้นเขิน ในยุคปัจจุบัน Transformer จาก Google ในปี 2017 ก็เป็นตัวอย่างของ breakthrough ที่ไม่มีใครคาดการณ์ไว้ล่วงหน้า Gary Marcus นักวิจารณ์ AI ชี้ว่าการทำนายมักล้มเหลวเพราะมองข้าม “black swan events” เช่น การค้นพบ algorithm ใหม่หรือวิกฤตเศรษฐกิจที่กระทบงบประมาณ R&D
เพื่อรับมือกับความท้าทายนี้ ผู้เชี่ยวชาญแนะนำวิธีการทำนายแบบใหม่ เช่น การใช้ superforecasting จาก Philip Tetlock ที่อาศัยการอัปเดตความน่าจะเป็นอย่างต่อเนื่อง (Bayesian updating) และการรวมมุมมองหลากหลาย นอกจากนี้ การพัฒนา benchmarks ที่แข็งแกร่ง เช่น ARC-AGI หรือ BIG-bench ช่วยวัดความก้าวหน้าได้แม่นยำกว่าเดิม แต่แม้กระนั้น ความไม่แน่นอนยังคงอยู่เพราะ AI เป็นเทคโนโลยีที่พัฒนาตนเอง (self-improving) ซึ่งอาจนำไปสู่ feedback loops ที่คาดเดายาก
สรุปแล้ว การทำนายอนาคตของ AI ยากเพราะรวมเอาปัจจัย exponential growth, ข้อจำกัดทรัพยากร, ความเห็นที่ขัดแย้ง, และเหตุการณ์ไม่คาดฝันเข้าไว้ด้วยกัน องค์กรธุรกิจควรเตรียมพร้อมด้วยกลยุทธ์ยืดหยุ่น เช่น การลงทุนในหลายแนวทาง R&D และการติดตาม indicator ชั้นนำ เพื่อลดความเสี่ยงจากความไม่แน่นอนนี้ ในที่สุด การทำนายที่ดีที่สุดคือการยอมรับว่าอนาคตของ AI คือเรื่องที่คาดการณ์ไม่ได้อย่างสมบูรณ์
(จำนวนคำ: 728)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)