Microsoft และ OpenAI กำหนดกติกาการพัฒนาระบบปัญญาประดิษฐ์ทั่วไป (AGI) ด้วยตนเอง
ในขณะที่การพัฒนาปัญญาประดิษฐ์ขั้นสูง โดยเฉพาะอย่างยิ่งระบบปัญญาประดิษฐ์ทั่วไป (Artificial General Intelligence: AGI) ทวีความเข้มข้นขึ้น Microsoft และ OpenAI ซึ่งเป็นพันธมิตรเชิงกลยุทธ์ ได้เล็งเห็นถึงความจำเป็นในการวางแนวทางการกำกับดูแลสำหรับเทคโนโลยีที่เปลี่ยนแปลงโลกนี้ และได้เริ่มกำหนดกรอบความคิดและกฎเกณฑ์ในการพัฒนา AGI ด้วยตัวเอง
การเคลื่อนไหวครั้งนี้ไม่ได้จำกัดอยู่เพียงแค่การดำเนินการภายในเท่านั้น แต่ยังรวมถึงความพยายามที่จะมีอิทธิพลต่อการสนทนาในระดับโลกและนโยบายด้านสาธารณะเกี่ยวกับ AGI ด้วย โดยทั้งสององค์กรได้เสนอแนวคิดหลักสองประการที่เน้นย้ำถึงความรับผิดชอบของตนในการเป็นผู้นำด้านเทคโนโลยีนี้
การจำกัดขอบเขตนิยามความสำเร็จ: การบรรลุ AGI ขั้นกลาง
แนวคิดที่สำคัญประการแรกคือการจำกัดความและจัดลำดับขั้นตอนของการพัฒนา AGI ให้ชัดเจน Microsoft และ OpenAI ได้เสนอให้มีการใช้ “AGI ขั้นกลาง (Intermediate AGI)” เป็นเกณฑ์วัดความสำเร็จในระยะเริ่มต้น ซึ่งต่างจากการมุ่งไปที่เป้าหมายสูงสุดของ “AGI ระดับซูเปอร์ฮิวแมน (Superhuman AGI)” ทันที
แนวคิดของ AGI ขั้นกลางนี้ถูกกำหนดขึ้นโดยใช้เปรียบเทียบกับความสามารถของมนุษย์ โดยเน้นที่การพัฒนาความสามารถในการแก้ปัญหาที่ซับซ้อนและการดำเนินการทางปัญญาที่เทียบเท่ากับหรือเหนือกว่าความสามารถของมนุษย์ในบางด้าน (Parity with Human Capabilities) โดยมีเป้าหมายคือการสร้างระบบที่สามารถปฏิบัติงานที่หลากหลายได้อย่างมีประสิทธิภาพ
การจำกัดความดังกล่าวมีความสำคัญในทางปฏิบัติ เนื่องจากช่วยให้สามารถกำหนดหลักเกณฑ์ด้านความปลอดภัย การทดสอบ และการจำกัดความสามารถของระบบได้อย่างชัดเจน ก่อนที่ AGI จะมีศักยภาพในการก่อให้เกิดผลกระทบในวงกว้างอย่างรุนแรง
การกำหนดเกณฑ์ด้านความปลอดภัยก่อนการติดตั้งใช้งาน
แนวคิดที่สองมุ่งเน้นไปที่การจัดตั้ง “เกณฑ์ด้านความปลอดภัย (Safety Thresholds)” ที่เข้มงวด ก่อนการนำระบบ AGI ขั้นสูงไปใช้งานจริง ทั้ง Microsoft และ OpenAI กำลังดำเนินการพัฒนาชุดของการทดสอบ (Tests) และการประเมิน (Evaluations) ที่ต้องผ่านการรับรองอย่างสมบูรณ์ก่อนที่จะมีการเผยแพร่ AGI สู่สาธารณะ
หลักการสำคัญของเกณฑ์ด้านความปลอดภัยเหล่านี้คือความสามารถในการควบคุม (Controllability) และความสามารถในการเข้าใจความเสี่ยง (Risk Comprehension) ของระบบ AGI โดยมุ่งเน้นไปที่ความเสี่ยงที่ AGI จะแสดงพฤติกรรมที่ไม่คาดคิด เป็นอันตราย หรือพฤติกรรมที่ยากต่อการควบคุม โดยเฉพาะอย่างยิ่งเมื่อระบบเริ่มมีความสามารถใกล้เคียงระดับซูเปอร์ฮิวแมน
การกำหนดกรอบความปลอดภัยนี้มีจุดมุ่งหมายเพื่อสร้างสิ่งที่เรียกว่า “จุดหยุด (Off-switches)” หรือกลไกการแทรกแซงที่สามารถหยุดหรือปรับเปลี่ยนการทำงานของ AGI ได้ หากพบว่ามีพฤติกรรมที่เบี่ยงเบนจากเป้าหมายที่ตั้งไว้หรือเริ่มแสดงความสามารถในการก้าวข้ามขีดจำกัดที่กำหนดไว้
การกำกับดูแลตนเองและอิทธิพลทางนโยบาย
การดำเนินการของ Microsoft และ OpenAI ในการกำหนดนิยาม AGI และมาตรฐานความปลอดภัยนี้ ไม่เพียงแต่เป็นแนวทางปฏิบัติภายในเท่านั้น แต่ยังเป็นการสร้างมาตรฐานอุตสาหกรรมในทางอ้อมอีกด้วย การตัดสินใจของสององค์กรนี้มีแนวโน้มที่จะมีอิทธิพลอย่างมากต่อการกำหนดนโยบายและกฎหมายของรัฐบาลทั่วโลกเกี่ยวกับเทคโนโลยี AGI
โดยเฉพาะอย่างยิ่ง การที่พวกเขาเลือกที่จะเป็นผู้นำในการกำหนดกฎเกณฑ์ตั้งแต่เนิ่นๆ สะท้อนให้เห็นถึงความต้องการที่จะควบคุมทิศทางการสนทนาเกี่ยวกับความเสี่ยงและผลประโยชน์ของ AGI โดยการนำเสนอแนวทางที่สามารถนำไปใช้ปฏิบัติได้และที่สำคัญคือเน้นย้ำให้เห็นถึงความรับผิดชอบของภาคเอกชนในการรับประกันความปลอดภัยของเทคโนโลยี
การที่บริษัทเอกชนขนาดใหญ่มารับบทบาทในการกำหนดกติกาการพัฒนาระบบที่มีศักยภาพในการเปลี่ยนแปลงสังคมอย่าง AGI นี้ ได้ก่อให้เกิดการถกเถียงเกี่ยวกับความสมดุลระหว่างการกำกับดูแลตนเอง (Self-regulation) และความจำเป็นในการกำกับดูแลจากภาครัฐอย่างอิสระ เนื่องจาก AGI อาจนำมาซึ่งความท้าทายที่ไม่เคยมีมาก่อนในด้านความมั่นคง สังคม และเศรษฐกิจ
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)