กลุ่ม AI Pause กลับมาอีกครั้งด้วยคำเตือนเกี่ยวกับปัญญาประดิษฐ์ระดับสูง

การกลับมาของกลุ่มผู้เรียกร้องให้หยุดพัฒนา AI: คำเตือนครั้งใหม่ต่อภัยคุกคามจากระบบปัญญาประดิษฐ์ขั้นสูง

กลุ่มผู้เชี่ยวชาญด้านปัญญาประดิษฐ์และบุคคลสำคัญที่เคยเรียกร้องให้ “หยุดพัก” การพัฒนา AI ชั่วคราว ได้รวมตัวกันอีกครั้งเพื่อออกคำเตือนฉบับใหม่ โดยมีจุดเน้นสำคัญไปที่ความเสี่ยงอันเกิดจาก “ระบบปัญญาประดิษฐ์ขั้นสูง” หรือที่เรียกว่า Superintelligence ความกังวลหลักไม่ได้อยู่ที่ภัยอันตรายที่เกิดขึ้นในปัจจุบันจากเจนเนอเรทีฟ AI (Generative AI) เช่น โมเดลภาษาขนาดใหญ่ (LLMs) แต่พุ่งเป้าไปที่ผลกระทบร้ายแรงในอนาคตที่อาจเกิดจากระบบ AI ที่มีความสามารถเหนือมนุษย์ในทุกด้านอย่างมีนัยสำคัญ

คำเตือนครั้งนี้เป็นภาคต่อของการอุทธรณ์ครั้งแรกเมื่อเดือนมีนาคม พ.ศ. 2566 ซึ่งเรียกร้องให้ห้องปฏิบัติการ AI ต่างๆ หยุดฝึกฝนระบบที่ทรงพลังกว่า GPT-4 เป็นระยะเวลาหกเดือน เพื่อให้เวลาในการพัฒนาและดำเนินการระเบียบการด้านความปลอดภัยที่แข็งแกร่ง อย่างไรก็ตาม การเรียกร้องครั้งใหม่นี้เกิดขึ้นในช่วงเวลาที่ความเสี่ยงระยะสั้นของ AI ได้รับการถกเถียงอย่างเข้มข้นยิ่งขึ้น โดยเฉพาะอย่างยิ่งประเด็นที่เกี่ยวข้องกับการบิดเบือนข้อมูลและการสูญเสียงาน ในบริบทดังกล่าวนี้ กลุ่มผู้เรียกร้องยังคงย้ำจุดยืนเดิมว่า การมุ่งเน้นความเสี่ยงในระยะยาวจาก Superintelligence นั้น ยังคงเป็นวาระเร่งด่วนที่สุด

หนึ่งในผู้ลงนามที่โดดเด่นของคำเตือนฉบับใหม่นี้คือนาย Eliezer Yudkowsky นักวิจัยผู้ทรงอิทธิพลจากสถาบัน Machine Intelligence Research Institute (MIRI) ซึ่งเป็นที่รู้จักกันดีในเรื่องมุมมองที่เข้มงวดและเป็นกังวลอย่างยิ่งเกี่ยวกับภัยพิบัติจาก AI ในอนาคต โดยนาย Yudkowsky ได้เน้นย้ำถึงความจำเป็นในการดำเนินการที่เป็นรูปธรรมเพื่อลดความเสี่ยงจากการพัฒนา AI ที่อาจควบคุมไม่ได้

คำเตือนฉบับใหม่นี้เผยแพร่โดยมีจุดยืนที่ชัดเจนว่า แม้ปัจจุบัน Generative AI จะมีบทบาทในชีวิตประจำวันอย่างกว้างขวาง แต่ผลกระทบเชิงระบบที่แท้จริงจะปรากฏขึ้นเมื่อ AI บรรลุถึงสถานะ “ปัญญาประดิษฐ์ทั่วไป” (Artificial General Intelligence - AGI) และก้าวไปสู่ Superintelligence ซึ่งเป็นระดับที่ระบบ AI สามารถทำการวิจัยทางวิทยาศาสตร์ สร้างสรรค์นวัตกรรม และปรับปรุงตัวเองได้อย่างเหนือชั้นกว่าศักยภาพสูงสุดของมนุษย์ทั้งหมดรวมกันอย่างเห็นได้ชัด

กลุ่มผู้เรียกร้องระบุว่า การพัฒนา Superintelligence อาจนำไปสู่สถานการณ์ที่ AI ตัดสินใจอย่างเป็นอิสระโดยมีเป้าหมายที่ขัดแย้งกับผลประโยชน์และความอยู่รอดของมนุษยชาติ (Alignment Problem) ผู้ลงนามได้ชี้ให้เห็นถึงอันตรายที่เกี่ยวข้องกับการควบคุมและการจำกัดขอบเขตของระบบที่ฉลาดล้ำเกินกว่าความเข้าใจของมนุษย์ โดยเน้นย้ำว่า เมื่อ AI บรรลุระดับ Superintelligence แล้ว การพยายาม “ปิดสวิตช์” หรือควบคุมพฤติกรรมของมันอาจเป็นเรื่องที่ไม่สามารถทำได้จริง

แถลงการณ์ใหม่นี้มีจุดประสงค์หลักเพื่อกระตุ้นให้เกิดการอภิปรายในวงกว้างในระดับนานาชาติเกี่ยวกับมาตรการป้องกันที่ต้องดำเนินการในทันที ซึ่งรวมถึงการกำหนดมาตรฐานระดับโลกด้านความปลอดภัยของ AI การสร้างมาตรการตรวจสอบที่เป็นอิสระ (Independent Audits) และการพิจารณาถึงการกำหนดข้อจำกัดทางกฎหมายในการวิจัยและพัฒนา AI ที่มีศักยภาพในการก้าวข้ามขีดจำกัดด้านความปลอดภัย

โดยสรุป คำเตือนล่าสุดของกลุ่มผู้เรียกร้องให้หยุดพัฒนา AI ได้ตอกย้ำถึงความจำเป็นเร่งด่วนในการเปลี่ยนโฟกัสจากการจัดการความเสี่ยงระยะสั้นของ AI ในปัจจุบัน ไปสู่การเตรียมพร้อมสำหรับความเสี่ยงระดับ “ภัยพิบัติ” ที่อาจเกิดขึ้นจากการปรากฏตัวของ Superintelligence โดยเฉพาะอย่างยิ่ง การดำเนินการเชิงรุกเพื่อรับประกันว่าการพัฒนาระบบ AI ขั้นสูงนั้นจะสอดคล้องกับคุณค่าและความอยู่รอดของมนุษย์ถือเป็นภารกิจสำคัญที่ไม่สามารถประนีประนอมได้

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)