แซม อัลต์แมน เตือนว่าโลกยังไม่พร้อมรับมือ ขณะที่ OpenAI เร่งวิจัยด้วยปัญญาประดิษฐ์ของตัวเอง
แซม อัลต์แมน ซีอีโอของ OpenAI ได้ออกมาเตือนว่าสังคมโลกยังไม่พร้อมสำหรับความก้าวหน้าอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) โดยเฉพาะอย่างยิ่งเมื่อบริษัทของเขากำลังใช้ AI ของตัวเองในการเร่งรัดงานวิจัย ซึ่งอาจนำไปสู่การพัฒนาที่เร็วกว่าที่คาดการณ์ไว้ อัลต์แมนให้สัมภาษณ์ในพอดแคสต์ “Dwarkesh Podcast” เมื่อเร็ว ๆ นี้ โดยระบุว่าการใช้ AI ช่วยให้ทีมวิจัยของ OpenAI สามารถดำเนินการทดลองได้จำนวนมากขึ้น สร้างสมมติฐานใหม่ ๆ ได้เร็วกว่าเดิมหลายเท่า และผลิตเอกสารวิจัยนับพันฉบับ ซึ่งเป็นการเปลี่ยนแปลงกระบวนการวิจัยแบบดั้งเดิมอย่างสิ้นเชิง
OpenAI กำลังนำโมเดล AI ล่าสุดอย่าง o1 (หรือที่รู้จักในชื่อ Strawberry) มาใช้ในการวิจัยภายใน ซึ่งโมเดลนี้มีความสามารถในการใช้เหตุผลขั้นสูง (reasoning) ที่เหนือกว่าโมเดลก่อนหน้า o1 สามารถคิดวิเคราะห์ปัญหาได้ลึกซึ้งยิ่งขึ้น คล้ายกับกระบวนการคิดของมนุษย์ โดยใช้เทคนิคการทดสอบและแก้ไขข้อผิดพลาดซ้ำ ๆ เพื่อให้ได้ผลลัพธ์ที่แม่นยำ อัลต์แมนอธิบายว่า o1 ช่วยให้ทีมวิจัยสามารถ “รันการทดลองจำนวนมหาศาล” และ “สร้างสมมติฐานนับล้าน” ซึ่งหากทำด้วยมนุษย์เพียงอย่างเดียวอาจใช้เวลานานหลายเดือนหรือหลายปี แต่ด้วย AI สามารถทำได้ในเวลาไม่กี่วันหรือไม่กี่สัปดาห์
กระบวนการนี้ไม่เพียงแต่เร่งความเร็วในการพัฒนาเท่านั้น แต่ยังช่วยให้ OpenAI สามารถสำรวจพื้นที่การวิจัยที่ซับซ้อนมากขึ้น เช่น การพัฒนาสู่ปัญญาประดิษฐ์ทั่วไป (AGI) ซึ่งเป็นเป้าหมายหลักของบริษัท อัลต์แมนย้ำว่าการใช้ AI ในการวิจัยของตัวเองกำลังสร้าง “วงจรการพัฒนาที่เร่งตัว” (flywheel effect) โดยโมเดลที่พัฒนาใหม่จะถูกนำไปใช้พัฒนาโมเดลถัดไป ทำให้ความก้าวหน้าดำเนินไปอย่างรวดเร็วเกินกว่าที่มนุษย์จะควบคุมได้อย่างเต็มที่ เขากล่าวว่า “โลกยังไม่พร้อมสำหรับสิ่งที่จะเกิดขึ้น” (The world is not prepared for what’s coming) ซึ่งสะท้อนถึงความกังวลเกี่ยวกับผลกระทบทางสังคม เศรษฐกิจ และความปลอดภัย
ในสัมภาษณ์ อัลต์แมนเล่าถึงตัวอย่างการใช้งาน o1 ในงานวิจัย โดยระบุว่าโมเดลนี้สามารถช่วยนักวิจัยสร้างเอกสารทางวิชาการจำนวนมาก โดยบางครั้ง AI สร้างงานวิจัยที่มีคุณภาพสูงกว่าที่มนุษย์ทั่วไปทำได้ ซึ่งช่วยลดภาระงานและเพิ่มประสิทธิภาพให้ทีมขนาดเล็กของ OpenAI ที่มีสมาชิกเพียงไม่กี่ร้อยคน แต่สามารถแข่งขันกับองค์กรขนาดยักษ์ได้ อย่างไรก็ตาม เขายอมรับว่าการเร่งตัวนี้มาพร้อมความเสี่ยง โดยเฉพาะด้านความปลอดภัย (safety) OpenAI จึงต้องลงทุนมหาศาลในด้านการทดสอบความเสี่ยงและการควบคุม AI เพื่อป้องกันปัญหาที่อาจเกิดขึ้นก่อนการเปิดตัวโมเดลใหม่
อัลต์แมนยังชี้ให้เห็นถึงความท้าทายในการเตรียมความพร้อมของโลก โดยระบุว่าภาครัฐ ธุรกิจ และสังคมยังขาดโครงสร้างพื้นฐานที่จำเป็นสำหรับรับมือกับ AI ขั้นสูง เช่น กฎระเบียบที่ชัดเจน ระบบการศึกษาใหม่ และการกระจายผลประโยชน์จากเทคโนโลยี เขาเปรียบเทียบกับการมาถึงของอินเทอร์เน็ตในอดีตที่โลกต้องปรับตัวอย่างรวดเร็ว แต่ครั้งนี้ AI จะมีผลกระทบรุนแรงกว่าเนื่องจากความสามารถในการคิดและตัดสินใจที่ใกล้เคียงมนุษย์มากขึ้น OpenAI กำลังเร่งพัฒนาโครงสร้างการกำกับดูแลภายใน เช่น การใช้ AI ในการตรวจสอบความปลอดภัยของ AI อีกชั้นหนึ่ง เพื่อให้มั่นใจว่าการพัฒนาจะปลอดภัย
นอกจากนี้ อัลต์แมนยังพูดถึงแผนการในอนาคต โดย OpenAI วางเป้าหมายที่จะปล่อยโมเดล o1 เวอร์ชันเต็มรูปแบบในเร็ว ๆ นี้ ซึ่งจะมีประสิทธิภาพสูงขึ้นอีก และจะถูกนำไปใช้ในผลิตภัณฑ์อย่าง ChatGPT เพื่อให้ผู้ใช้ทั่วไปเข้าถึงได้ การเร่งวิจัยด้วย AI ยังช่วยให้บริษัทสามารถแข่งขันกับคู่แข่งอย่าง Google DeepMind และ Anthropic ได้อย่างมีประสิทธิภาพ แม้จะมีทรัพยากรน้อยกว่า แต่ด้วยเครื่องมือ AI ทีมของ OpenAI สามารถ “คิดได้เร็วกว่า ค้นพบได้มากกว่า และทดลองได้บ่อยกว่า”
ความกังวลของอัลต์แมนไม่ใช่เรื่องใหม่ แต่ครั้งนี้มีความเฉพาะเจาะจงมากขึ้น เนื่องจากการใช้ AI ในการวิจัยกำลังสร้างการเปลี่ยนแปลงเชิงโครงสร้างในวงการเทคโนโลยี เขาเรียกร้องให้ทุกภาคส่วนเร่งปรับตัว โดยเฉพาะการลงทุนในบุคลากร การวิจัยด้านความปลอดภัย และการกำหนดนโยบายที่สมดุลระหว่างนวัตกรรมและการควบคุม สุดท้าย อัลต์แมนย้ำว่าถึงแม้ OpenAI จะเป็นผู้นำ แต่ความรับผิดชอบในการเตรียมโลกให้พร้อมนั้นตกอยู่ที่ทุกคน
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)