หัวหน้าฝ่ายวิจัยด้านการป้องกันความปลอดภัยของแอนโทรปิกเตือนค่านิยมบริษัทเสื่อมถอยก่อนลาออก

หัวหน้าฝ่ายวิจัยด้านการป้องกันความเสี่ยงของ Anthropic เตือนถึงการเสื่อมถอยของค่านิยมองค์กรก่อนลาออก

นาย Jan Leike หัวหน้าฝ่ายวิจัยด้านการป้องกันความเสี่ยง (Safeguards Research) ของบริษัท Anthropic ได้ประกาศลาออกจากตำแหน่งในช่วงสิ้นเดือนนี้ พร้อมเตือนถึงการเปลี่ยนแปลงทิศทางของบริษัทที่อาจนำไปสู่การเสื่อมถอยของค่านิยมองค์กร โดยเฉพาะในด้านความปลอดภัยของปัญญาประดิษฐ์ (AI) ซึ่งเป็นหัวใจหลักของภารกิจบริษัท

ในโพสต์บนแพลตฟอร์ม X (อดีต Twitter) เมื่อวันที่ 28 พฤษภาคม นาย Leike ระบุว่า “หลังจากสองปีอันน่าทึ่งที่ Anthropic ผมจะลาออกจากบริษัทสิ้นเดือนนี้ ผมภูมิใจในสิ่งที่เราทำสำเร็จ โดยเฉพาะทีม safeguards ของเราได้พัฒนางานวิจัยสำคัญมากมายเพื่อรับมือกับความเสี่ยงร้ายแรงที่สุดของ AI อย่างไรก็ตาม ทีม safeguards ถูกจัดสรรงบประมาณและบุคลากรอย่างจำกัด และได้รับความสนใจจากผู้บริหารน้อยลงในช่วงหลัง”

เขายังชี้ให้เห็นว่า ทีม safeguards ได้รับมอบหมายให้ดูแลโครงการระดับสูงสุดอย่าง ASL-3 (Anthropic’s Scalable Oversight Levels) ซึ่งเป็นกรอบการทำงานสำหรับการทดสอบและป้องกันความเสี่ยงจากโมเดล AI ขนาดใหญ่ แต่ในช่วงไม่กี่เดือนที่ผ่านมา ทีมนี้ถูกยุติบทบาทและสมาชิกส่วนใหญ่ถูกย้ายไปรวมกับทีมอื่น โดยนาย Leike ระบุว่า “ผู้บริหารกำลังให้ความสำคัญกับผลิตภัณฑ์ที่โดดเด่นมากกว่าการวิจัยด้านความปลอดภัยเชิงรุก”

คำเตือนของนาย Leike นี้เกิดขึ้นท่ามกลางกระแสการแข่งขันดุเดือดในอุตสาหกรรม AI โดย Anthropic ซึ่งก่อตั้งโดยอดีตพนักงาน OpenAI กำลังเผชิญแรงกดดันจากบริษัทยักษ์ใหญ่อย่าง OpenAI, Google DeepMind และ xAI ที่มุ่งเน้นการปล่อยโมเดล AI ใหม่ๆ ออกสู่ตลาดอย่างรวดเร็ว เช่น Claude 3.5 Sonnet ล่าสุดของ Anthropic ที่ได้รับการยกย่องในด้านประสิทธิภาพ แต่ถูกวิจารณ์ว่าลดความสำคัญของความปลอดภัย

ประวัติของนาย Leike ถือเป็นบุคคลสำคัญในวงการวิจัยความปลอดภัย AI เขาเคยดำรงตำแหน่งหัวหน้าฝ่าย alignment science ที่ OpenAI ก่อนลาออกเมื่อปีที่แล้ว โดยร่วมก่อตั้ง Superintelligence Project ร่วมกับทีมงานอีก 11 คน เพื่อเรียกร้องให้ OpenAI ให้ความสำคัญกับความปลอดภัยมากขึ้น ต่อมา เขาเข้าร่วม Anthropic ซึ่งมีชื่อเสียงในด้านการมุ่งมั่นต่อความปลอดภัย โดยบริษัทนี้เคยปฏิเสธข้อเสนอจาก Amazon มูลค่ากว่า 4 พันล้านดอลลาร์สหรัฐ เพื่อรักษาความเป็นอิสระในการวิจัย

ในโพสต์ของเขา นาย Leike ยังแสดงความกังวลว่าการเปลี่ยนแปลงนี้สะท้อนถึง “ค่านิยมองค์กรที่เสื่อมถอย” โดยเฉพาะเมื่อบริษัทกำลังขยายตัวอย่างรวดเร็วด้วยเงินทุนสนับสนุนจาก Amazon และ Google รวมมูลค่ากว่า 8 พันล้านดอลลาร์สหรัฐ เขาหวังว่า Anthropic จะยึดมั่นในพันธกิจดั้งเดิมด้านความปลอดภัย และกลับมาให้ความสำคัญกับการวิจัยเชิงรุกเพื่อป้องกันความเสี่ยงจาก AI ทั่วไป (AGI)

Anthropic ได้ออกแถลงการณ์ตอบโต้ โดยระบุว่า “เราภูมิใจในผลงานของ Jan และทีม safeguards ซึ่งช่วยกำหนดมาตรฐานความปลอดภัยของ Claude เรายังคงลงทุนมหาศาลในด้านความปลอดภัย โดยมีทีมวิจัยมากกว่า 30% ของพนักงานทั้งหมด และเราจะพัฒนาระบบ safeguards ให้แข็งแกร่งยิ่งขึ้นต่อไป” อย่างไรก็ตาม แถลงการณ์นี้ไม่ได้กล่าวถึงการยุติทีม safeguards โดยตรง ซึ่งอาจเป็นจุดถกเถียงในวงการ

เหตุการณ์นี้เกิดขึ้นหลังจากนาย Leike และทีมงานของเขาที่ OpenAI ลาออกเมื่อเดือนพฤษภาคมปีที่แล้ว โดยอ้างว่าผู้บริหาร OpenAI ลดความสำคัญของความปลอดภัยเพื่อมุ่งเน้นผลกำไร ปัจจุบัน Superintelligence Project ได้รวมตัวกับ Anthropic แต่การลาออกของนาย Leike แสดงให้เห็นถึงความท้าทายที่คล้ายคลึงกันในบริษัทที่มุ่งสู่ AGI

ผู้เชี่ยวชาญในวงการ AI มองว่านี่เป็นสัญญาณเตือนถึงปัญหาเชิงโครงสร้างในอุตสาหกรรม โดยดร. Yoshua Bengio ผู้ชนะรางวัล Turing Award กล่าวในโพสต์ X ว่า “นี่เป็นข่าวร้ายสำหรับ Anthropic และวงการ AI ความปลอดภัยต้องมาก่อนผลิตภัณฑ์” ขณะที่บริษัทอื่นๆ อย่าง Meta และ Microsoft ยังคงเผชิญข้อวิจารณ์เรื่องการขาดความโปร่งใสในด้าน safeguards

การลาออกของนาย Leike เน้นย้ำถึงความจำเป็นที่บริษัท AI ต้องรักษาสมดุลระหว่างนวัตกรรมและความปลอดภัย โดยเฉพาะเมื่อโมเดลอย่าง Claude และ GPT-4o กำลังเข้าถึงผู้ใช้หลายล้านคนทั่วโลก หาก Anthropic ไม่ปรับทิศทาง อาจสูญเสียความน่าเชื่อถือในฐานะผู้นำด้าน AI ที่ปลอดภัย ซึ่งเป็นจุดขายหลักตั้งแต่ก่อตั้ง

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)