การไหลออกของทีมความปลอดภัย OpenAI ได้รับคำอธิบายในที่สุด และมันก็แค่ไวบ์ของแซม อัลต์แมน

การไหลออกของทีมความปลอดภัยใน OpenAI ได้รับคำอธิบายในที่สุด – และมันคือ “วิบส์” ของ แซม อัลต์แมน

ในช่วงหลายเดือนที่ผ่านมา บริษัท OpenAI ผู้พัฒนาระบบปัญญาประดิษฐ์ (AI) ชั้นนำ ได้เผชิญกับปัญหาการสูญเสียบุคลากรสำคัญในทีมความปลอดภัยจำนวนมาก ซึ่งเป็นสถานการณ์ที่เรียกได้ว่าเป็น “การไหลออกของสมอง” (brain drain) ในด้านความปลอดภัยของ AI สถานการณ์นี้ก่อให้เกิดความกังวลในวงการเทคโนโลยี เนื่องจาก OpenAI ถือเป็นผู้เล่นหลักในการพัฒนาโมเดล AI ขนาดใหญ่ เช่น GPT-4o และโมเดลรุ่นถัดไป

บุคคลสำคัญที่ลาออก ได้แก่ ดร.ยาน ไลเก (Jan Leike) หัวหน้าทีม Superalignment ซึ่งเป็นทีมพิเศษที่มุ่งเน้นการแก้ปัญหาความเสี่ยงจากการพัฒนา AI เกินขีดจำกัดของมนุษย์ (superintelligence) ดร.ไลเกประกาศลาออกเมื่อเดือนพฤษภาคม โดยระบุเหตุผลหลักว่าบริษัทให้ความสำคัญกับความปลอดภัยน้อยเกินไป และทีมของเขาถูกกีดกันไม่ให้เข้าถึงข้อมูลสำคัญที่จำเป็นสำหรับการทดสอบความเสี่ยง หลังจากนั้นไม่นาน มีบุคลากรอีกหลายคนจากทีมความปลอดภัยติดตามลาออก รวมถึง ดร.ดาเรีย โซลติซอฟสกา (Daria Sotnikova) และสมาชิกทีม Superalignment อีกหลายราย ส่งผลให้ทีมนี้ถูกยุติบทบาทอย่างเป็นทางการในที่สุด

ก่อนหน้านี้ อีลอน มัสก์ (Elon Musk) ผู้ร่วมก่อตั้ง OpenAI และปัจจุบันเป็นคู่แข่งผ่านบริษัท xAI ได้โพสต์ข้อความบนแพลตฟอร์ม X (เดิมคือ Twitter) โดยกล่าวหาว่า “เหตุผลที่ทีมความปลอดภัยลาออกทั้งหมดคือ พวกเขามองเห็นปัญหาเรื่องความปลอดภัยที่ร้ายแรง” ซึ่งสะท้อนถึงความตึงเครียดภายในบริษัทที่ดำเนินมานาน

ในที่สุด แซม อัลต์แมน (Sam Altman) ซีอีโอของ OpenAI ได้ให้คำอธิบายอย่างเป็นทางการเกี่ยวกับการไหลออกครั้งนี้ ในการให้สัมภาษณ์ล่าสุดกับ Lex Fridman ในพอดแคสต์ อัลต์แมนยอมรับว่าบริษัทสูญเสียบุคลากรด้านความปลอดภัยไปราว 12 คน แต่เขาให้มุมมองที่เรียบง่ายและตรงไปตรงมา โดยระบุว่า “พวกเขามิได้ ‘วิบส์’ (vibe) กับทิศทางของบริษัท” คำว่า “วิบส์” ในบริบทนี้หมายถึงความรู้สึกหรือบรรยากาศที่เข้ากันได้ทางวัฒนธรรมและวิสัยทัศน์ ไม่ใช่ปัญหาเชิงโครงสร้างหรือนโยบายความปลอดภัยที่ล้มเหลว

อัลต์แมนอธิบายเพิ่มเติมว่า บุคลากรเหล่านี้มักมีแนวคิดที่ “เข้มงวดเกินไป” ในเรื่องความปลอดภัย โดยต้องการให้ OpenAI หยุดพัฒนาโมเดล AI ขนาดใหญ่ จนกว่าจะมีมาตรการป้องกันความเสี่ยงที่สมบูรณ์แบบ ซึ่งขัดแย้งกับกลยุทธ์ของบริษัทที่มุ่งเน้นการพัฒนาอย่างรวดเร็วเพื่อแข่งขันในตลาด AI เขายืนยันว่า OpenAI ยังคงให้ความสำคัญกับความปลอดภัย โดยมีทีมงานกว่า 100 คนที่ทำงานในด้านนี้ และบริษัทได้ลงทุนมหาศาลในโครงสร้างพื้นฐานเพื่อทดสอบและปรับปรุงโมเดลให้ปลอดภัยยิ่งขึ้น

คำอธิบายของอัลต์แมนนี้เกิดขึ้นท่ามกลางกระแสข่าวการเปลี่ยนแปลงผู้บริหารครั้งใหญ่ใน OpenAI โดยไม่กี่วันก่อนหน้านี้ มิรา มูราตี (Mira Murati) ผู้บริหารระดับสูงฝ่ายเทคโนโลยี ก็ประกาศลาออกเช่นกัน ส่งผลให้เกิดคำถามเกี่ยวกับเสถียรภาพภายในองค์กร อย่างไรก็ตาม อัลต์แมนยืนยันว่าการเปลี่ยนแปลงเหล่านี้เป็นส่วนหนึ่งของการปรับโครงสร้างเพื่อให้บริษัทก้าวหน้าต่อไป

สถานการณ์นี้ยังเชื่อมโยงกับเหตุการณ์ในเดือนพฤศจิกายนปีที่แล้ว เมื่อทีมผู้บริหารรวมถึง อัลต์แมน ไลเก และอิลยา ซัตสเคเวอร์ (Ilya Sutskever) หัวหน้าด้านการวิจัย เคยถูกถอดถอนชั่วคราว ก่อนที่อัลต์แมนจะกลับมาดำรงตำแหน่งอีกครั้ง ซัตสเคเวอร์ซึ่งเป็นหนึ่งในผู้ก่อตั้งหลักและมีบทบาทสำคัญในด้านความปลอดภัย ก็ลาออกไปก่อตั้งบริษัทใหม่ของตัวเองในเวลาต่อมา เหตุการณ์เหล่านี้ชี้ให้เห็นถึงความขัดแย้งภายในระหว่างฝ่ายที่เน้นความปลอดภัยสูงสุด กับฝ่ายที่ผลักดันการเติบโตทางธุรกิจ

นักวิเคราะห์ในวงการมองว่าคำอธิบาย “วิบส์” ของอัลต์แมน แม้จะดูเรียบง่าย แต่สะท้อนถึงปรัชญาการบริหารของเขา ซึ่งให้ความสำคัญกับวัฒนธรรมองค์กรที่ยืดหยุ่นและมุ่งเน้นผลลัพธ์มากกว่ากฎเกณฑ์ที่เข้มงวด OpenAI ยังคงยึดมั่นในพันธกิจ “รับประกันให้ AGI (Artificial General Intelligence) เป็นประโยชน์ต่อมนุษยชาติทั้งหมด” แต่การสูญเสียผู้เชี่ยวชาญด้านความปลอดภัยอาจส่งผลกระทบต่อความน่าเชื่อถือของบริษัทในสายตานักลงทุนและหน่วยงานกำกับดูแล เช่น สหภาพยุโรปที่กำลังร่างกฎหมาย AI Act

แม้ OpenAI จะประกาศรับสมัครบุคลากรใหม่ในทีมความปลอดภัย แต่คำถามยังคงค้างคาว่าบริษัทจะสามารถดึงดูดผู้เชี่ยวชาญชั้นนำกลับมาได้หรือไม่ หาก “วิบส์” ยังคงเป็นเกณฑ์หลักในการคัดเลือก ในขณะที่คู่แข่งอย่าง Anthropic และ Google DeepMind ยังคงเสริมทีมความปลอดภัยอย่างต่อเนื่อง OpenAI อาจต้องเผชิญความท้าทายในการรักษาความเป็นผู้นำด้าน AI ที่ปลอดภัยและน่าเชื่อถือ

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)