โอเพ่นเอไอครบรอบ 10 ปี: แซม อัลต์แมน คาดการณ์ว่าซูเปอร์อินเทลลิเจนซ์จะมาถึงภายในปี 2035
บริษัท OpenAI ผู้บุกเบิกด้านปัญญาประดิษฐ์ (AI) ได้เฉลิมฉลองครบรอบ 10 ปีการก่อตั้ง เมื่อวันที่ 11 ธันวาคม 2568 โดยแซม อัลต์แมน ประธานเจ้าหน้าที่บริหาร (CEO) ได้เผยแพร่โพสต์บล็อกที่สะท้อนถึงเส้นทางที่ผ่านมาและวิสัยทัศน์อนาคต โดยคาดการณ์ว่าซูเปอร์อินเทลลิเจนซ์ หรือปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์ทุกด้าน จะเกิดขึ้นภายในอีกไม่กี่พันวัน หรือประมาณปี 2035 ซึ่งเป็นการประมาณการณ์ที่ท้าทายและกระตุ้นให้เกิดการถกเถียงในวงการเทคโนโลยี
OpenAI ก่อตั้งขึ้นเมื่อวันที่ 11 ธันวาคม 2558 ในฐานะองค์กรไม่แสวงผลกำไร โดยมีวัตถุประสงค์หลักคือพัฒนา AGI (Artificial General Intelligence) หรือปัญญาประดิษฐ์ทั่วไปที่สามารถทำงานได้เทียบเท่าหรือเหนือกว่ามนุษย์ในทุกระดับ โดยกลุ่มผู้ก่อตั้งประกอบด้วยนักวิจัยชั้นนำ เช่น Ilya Sutskever Greg Brockman และ Elon Musk ซึ่งมุ่งเน้นการแบ่งปันผลงานวิจัยอย่างเปิดเผยเพื่อประโยชน์ส่วนรวม อย่างไรก็ตาม ในปี 2561 OpenAI ได้ปรับโครงสร้างเป็นบริษัททุนจำกัด (capped-profit) เพื่อดึงดูดเงินทุนจำนวนมหาศาล โดยได้รับการสนับสนุนจาก Microsoft กว่า 13,000 ล้านดอลลาร์สหรัฐ ซึ่งช่วยเร่งการพัฒนาโมเดล AI ขนาดใหญ่
ในโพสต์บล็อกล่าสุดของอัลต์แมน เขาได้ทบทวนความก้าวหน้าที่น่าทึ่งในช่วง 10 ปีที่ผ่านมา โดยเฉพาะการพัฒนาโมเดลภาษาขนาดใหญ่ (Large Language Models) เช่น GPT series ซึ่งนำไปสู่การเปิดตัว ChatGPT ในเดือนพฤศจิกายน 2565 ที่กลายเป็นผลิตภัณฑ์ AI ที่ได้รับความนิยมสูงสุดในประวัติศาสตร์ โดยมีผู้ใช้งานรายเดือนกว่า 200 ล้านรายภายในปี 2567 นอกจากนี้ OpenAI ยังขยายขอบเขตสู่สื่อหลายรูปแบบ เช่น DALL-E สำหรับการสร้างภาพ Sora สำหรับวิดีโอ และโมเดลเสียงขั้นสูง ซึ่งช่วยให้ AI สามารถเข้าใจและสร้างเนื้อหาได้ใกล้เคียงมนุษย์มากขึ้น
อัลต์แมนชี้ให้เห็นถึงอัตราการเติบโตแบบทวีคูณ (exponential growth) ในด้านพลังการประมวลผล ความสามารถของโมเดล และการลงทุน โดยในช่วงเริ่มต้น OpenAI ใช้เงินทุนเพียง 100 ล้านดอลลาร์ แต่ปัจจุบันมีการลงทุนรวมกว่า 100,000 ล้านดอลลาร์ การฝึกโมเดล GPT-4 ใช้ชิปประมาณ 25,000 ตัว ขณะที่โมเดลล่าสุดต้องการทรัพยากรมากกว่านั้นหลายเท่า ความก้าวหน้านี้มาจากการปรับปรุงสถาปัตยกรรม การฝึกข้อมูลขนาดใหญ่ และเทคนิคการปรับแต่ง (fine-tuning) ที่มีประสิทธิภาพสูงขึ้น
อย่างไรก็ตาม อัลต์แมนยอมรับถึงความท้าทายที่สำคัญ โดยเฉพาะด้านความปลอดภัย (safety) และการจัดแนว (alignment) ของ AI กับค่านิยมมนุษย์ OpenAI ได้ก่อตั้งทีม Superalignment ซึ่งนำโดย Ilya Sutskever เพื่อพัฒนาวิธีการควบคุม AGI ให้ปลอดภัย แม้ทีมนี้จะยุติลงในเดือนพฤษภาคม 2567 หลัง Sutskever ลาออก แต่ OpenAI ยังคงมุ่งมั่นในด้านนี้ โดยอัลต์แมนระบุว่าการบรรลุซูเปอร์อินเทลลิเจนซ์จะต้องมากับมาตรการรักษาความปลอดภัยที่แข็งแกร่ง เพื่อป้องกันความเสี่ยงที่อาจเกิดขึ้น เช่น การใช้งานในทางที่ผิดหรือการสูญเสียการควบคุม
อัลต์แมนประมาณการณ์ไทม์ไลน์อย่างละเอียด โดย AGI ระดับมนุษย์ (human-level AGI) อาจมาถึงในอีก 2-5 ปี ขณะที่ซูเปอร์อินเทลลิเจนซ์จะตามมาไม่นานหลังจากนั้น “อีกไม่กี่พันวัน” ซึ่งคำนวณจากวันนี้ (ปลายปี 2567) จะตกประมาณปี 2030-2035 การคาดการณ์นี้สอดคล้องกับแนวโน้มข้อมูลที่ผ่านมา เช่น ความสามารถในการแก้ปัญหาคณิตศาสตร์ที่เพิ่มขึ้นจาก 10% เป็น 90% ในเวลาเพียง 3 ปี และคะแนน GPQA (Graduate-Level Google-Proof Q&A) ที่พุ่งจาก 25% เป็นเกือบ 90% ในโมเดล o3 ล่าสุด
ในแง่เศรษฐกิจ อัลต์แมนมองว่าซูเปอร์อินเทลลิเจนซ์จะนำมาซึ่งการเติบโตทางเศรษฐกิจมหาศาล โดย GDP โลกอาจเพิ่มขึ้นหลายเท่าจากการเพิ่มผลผลิตแรงงาน AI สามารถทำงานแทนมนุษย์ในงานซับซ้อน เช่น การวิจัยทางการแพทย์ การออกแบบยา และการแก้ปัญหาสภาพภูมิอากาศ แต่ต้องมีการกระจายผลประโยชน์อย่างเป็นธรรม OpenAI กำลังพัฒนาโครงสร้างการกำกับดูแล (governance) เพื่อให้แน่ใจว่าผลประโยชน์ตกถึงผู้คนส่วนใหญ่
นอกจากนี้ อัลต์แมนยังกล่าวถึงการแข่งขันที่รุนแรงจากบริษัทเทคโนโลยีชั้นนำ เช่น Google DeepMind xAI และ Anthropic ซึ่งช่วยเร่งนวัตกรรม แต่ก็เพิ่มความกดดันด้านความปลอดภัย OpenAI ได้รับประโยชน์จากการเป็นพันธมิตรกับ Microsoft ซึ่งช่วยให้เข้าถึงโครงสร้างพื้นฐานคลาวด์ Azure และชิปประมวลผล H100/H200 ล้านตัวในอนาคตอันใกล้
สุดท้าย อัลต์แมนแสดงความมองโลกในแง่ดีต่ออนาคต โดยเชื่อว่าซูเปอร์อินเทลลิเจนซ์จะเป็น “แรงผลักดันที่ยิ่งใหญ่ที่สุดในประวัติศาสตร์มนุษยชาติ” หากเราจัดการความเสี่ยงได้สำเร็จ OpenAI จึงมุ่งมั่นในการวิจัยระยะยาว เพื่อให้ AI เป็นเครื่องมือที่ช่วยยกระดับชีวิตมนุษย์ทุกคน
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)