นักวิทยาศาสตร์หลักของ OpenAI มั่นใจใน AI สำหรับการทดลอง แต่ระบุว่ายังไม่ถึงระดับออกแบบระบบซับซ้อน
ในวงการปัญญาประดิษฐ์ (AI) ที่พัฒนาอย่างรวดเร็ว Jakub Pachocki หัวหน้าด้านวิทยาศาสตร์ของ OpenAI ได้ให้ความเห็นที่น่าสนใจในบทสัมภาษณ์ล่าสุด โดยระบุว่า AI ในปัจจุบันมีความน่าเชื่อถือเพียงพอสำหรับการดำเนินการทดลองทางวิทยาศาสตร์แล้ว แต่ยังไม่พร้อมสำหรับการออกแบบระบบที่ซับซ้อน เช่น จรวดหรือยารักษาโรคใหม่ ๆ ความเห็นนี้สะท้อนถึงขีดความสามารถและข้อจำกัดของโมเดล AI ล่าสุด โดยเฉพาะ o1-preview ซึ่งเป็นโมเดลที่เน้นการใช้เหตุผลแบบ chain-of-thought (การคิดแบบต่อเนื่อง)
Pachocki เน้นย้ำว่า AI กำลังเข้าสู่ยุคที่สามารถจัดการกับงานทดลองได้อย่างมีประสิทธิภาพ โดยโมเดล o1-preview แสดงศักยภาพที่โดดเด่นในสาขาวิทยาศาสตร์ คณิตศาสตร์ และการเขียนโค้ด ในขณะที่โมเดลรุ่นก่อนหน้านี้มักประสบปัญหาภาวะหลอน (hallucinations) หรือการให้ข้อมูลที่ไม่ถูกต้อง AI รุ่นใหม่นี้สามารถทดสอบสมมติฐานหลาย ๆ ตัวเลือก รวบรวมผลลัพธ์ และสรุปผลได้อย่างมีระบบ ซึ่งคล้ายกับกระบวนการทางวิทยาศาสตร์ของมนุษย์
“ตอนนี้ AI สามารถรันการทดลองได้อย่างน่าเชื่อถือ” Pachocki กล่าว “มันสามารถทดสอบสมมติฐานหลายตัว สังเกตผลลัพธ์ และสรุปได้” ตัวอย่างเช่น ในด้านคณิตศาสตร์ o1-preview สามารถแก้โจทย์ระดับ IMO (International Mathematical Olympiad) ได้ถึง 83% ซึ่งเป็นอัตราความสำเร็จที่สูงมากเมื่อเทียบกับโมเดลก่อนหน้า ในด้านวิทยาศาสตร์และการเขียนโค้ดก็มีประสิทธิภาพสูงเช่นกัน ทำให้ Pachocki มั่นใจว่า AI สามารถช่วยนักวิจัยในการทดลองได้ โดยไม่ต้องกังวลเรื่องความถูกต้องมากนัก
อย่างไรก็ตาม Pachocki ชี้ให้เห็นข้อจำกัดที่สำคัญว่า AI ยังไม่สามารถ “คิดไอเดียใหม่ ๆ” หรือออกแบบระบบซับซ้อนได้ด้วยตัวเอง “AI ยังไม่สามารถออกแบบจรวดหรือค้นพบวิธีพับโปรตีนเพื่อรักษาโรคได้” เขากล่าว โดยยกตัวอย่าง AlphaFold ของ DeepMind ซึ่งประสบความสำเร็จในการพยากรณ์โครงสร้างโปรตีน แต่ o1-preview ยังเหนือกว่าในบางด้าน เช่น การแก้ปัญหาคณิตศาสตร์ที่ซับซ้อนกว่า AI ในปัจจุบันทำหน้าที่เป็น “นักทดลอง” ที่ทดสอบแนวคิดที่มนุษย์เสนอมาเท่านั้น ไม่ใช่ผู้ริเริ่มแนวคิดใหม่
กระบวนการทำงานของ o1-preview อาศัยเทคนิค chain-of-thought reasoning ซึ่งช่วยให้ AI คิดทีละขั้นตอน คล้ายกับการจดบันทึกความคิดของนักวิทยาศาสตร์ นอกจากนี้ ยังมีการใช้ reinforcement learning เพื่อปรับปรุงการค้นหาคำตอบที่ถูกต้อง โดยลดโอกาสเกิด hallucinations ลงอย่างมาก Pachocki อธิบายว่าโมเดลนี้สามารถประเมินความมั่นใจในคำตอบของตัวเองได้ดีขึ้น ซึ่งเป็นก้าวสำคัญสู่ความน่าเชื่อถือในงานวิจัยจริง
ในอนาคต Pachocki คาดการณ์ว่า AI จะพัฒนาไปสู่ระดับที่สามารถออกแบบระบบซับซ้อนได้ โดยเริ่มจากงานทดลองพื้นฐานและค่อย ๆ ขยายขอบเขต “ในอีกไม่กี่ปี AI จะสามารถคิดไอเดียใหม่และออกแบบสิ่งต่าง ๆ ได้” เขากล่าว แต่ในขณะนี้ มนุษย์ยังต้องเป็นผู้กำหนดทิศทาง โดยใช้ AI เป็นเครื่องมือช่วยทดสอบและยืนยันแนวคิด ความเห็นนี้สอดคล้องกับปรัชญาของ OpenAI ที่มุ่งเน้นการพัฒนา AI อย่างปลอดภัยและมีประโยชน์ต่อมนุษยชาติ
Pachocki ยังกล่าวถึงความท้าทายในการฝึกโมเดล AI โดย o1 ต้องใช้ทรัพยากรคอมพิวเตอร์มหาศาลในการฝึก และกระบวนการ reinforcement learning ช่วยให้โมเดลเรียนรู้จากการลองผิดลองถูกจำนวนมาก คล้ายกับการฝึกเด็กให้คิดอย่างมีเหตุผล นอกจากนี้ เขายังชี้ว่าความสามารถในการใช้เครื่องมือ (tool use) ของ o1 ยังอยู่ในขั้นเริ่มต้น แต่คาดว่าจะพัฒนาเพิ่มเติมใน o1-pro ซึ่งเป็นเวอร์ชันเต็มรูปแบบที่จะเปิดตัวในอนาคตอันใกล้
การให้ความเห็นของ Pachocki นี้เกิดขึ้นท่ามกลางกระแสความตื่นเต้นจาก o1-preview ซึ่งเพิ่งเปิดตัวและได้รับการยกย่องจากชุมชนนักพัฒนา โดยเฉพาะในด้านการแก้ปัญหาที่ต้องการการใช้เหตุผลหลายชั้น นักวิจัยหลายรายรายงานว่า o1 สามารถช่วยลดเวลาในการแก้โจทย์ยาก ๆ ลงอย่างมาก ซึ่งอาจเร่งการค้นคว้าวิจัยในสาขาต่าง ๆ เช่น ฟิสิกส์ เคมี และชีววิทยา
อย่างไรก็ตาม Pachocki เตือนว่าการพึ่งพา AI มากเกินไปอาจเสี่ยง หากไม่เข้าใจกระบวนการคิดของมัน ดังนั้น นักวิทยาศาสตร์ควรตรวจสอบผลลัพธ์เสมอ โดยเฉพาะในงานที่สำคัญ เช่น การแพทย์หรือวิศวกรรม เขาเปรียบ AI ในปัจจุบันว่าเป็น “ผู้ช่วยที่ฉลาดแต่ยังขาดประสบการณ์” ซึ่งต้องอยู่ภายใต้การกำกับของมนุษย์
สรุปแล้ว ความเห็นของ Pachocki แสดงให้เห็นถึงจุดสมดุลระหว่างศักยภาพและข้อจำกัดของ AI ในยุคปัจจุบัน OpenAI กำลังมุ่งสู่เป้าหมายการสร้าง AI ระดับ AGI (Artificial General Intelligence) ที่สามารถคิดและสร้างสรรค์ได้อย่างแท้จริง แต่ในระยะสั้น AI จะเป็นเครื่องมือที่ทรงพลังสำหรับการทดลองและการวิเคราะห์ ซึ่งจะช่วยเร่งความก้าวหน้าทางวิทยาศาสตร์ให้รวดเร็วขึ้น
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)