ซีอีโอแอนทโรปิก ดาริโอ อาโมเดอี ชี้ว่า โอเพ่นเอไอ ไม่เข้าใจความเสี่ยงที่กำลังเผชิญอย่างแท้จริง
ในบทสัมภาษณ์ล่าสุดกับเลกซ์ ฟริดแมน ผู้เชี่ยวชาญด้านปัญญาประดิษฐ์ (AI) ดาริโอ อาโมเดอี ซีอีโอของบริษัทแอนทโรปิก (Anthropic) ได้แสดงความกังวลอย่างจริงจังต่อแนวทางการพัฒนาและปล่อยใช้งานโมเดล AI ของบริษัทโอเพ่นเอไอ (OpenAI) โดยเฉพาะอย่างยิ่งกับการเปิดตัว GPT-4o ซึ่งเป็นโมเดลล่าสุดที่รวมความสามารถด้านเสียงพูดและการโต้ตอบแบบเรียลไทม์ อาโมเดอีชี้ว่าทีมงานของโอเพ่นเอไออาจไม่ได้เข้าใจความเสี่ยงที่แท้จริงจากการเร่งรัดปล่อยผลิตภัณฑ์ดังกล่าว โดยไม่มีการควบคุมความปลอดภัยที่เพียงพอ
อาโมเดอี ซึ่งเป็นอดีตนักวิจัยของโอเพ่นเอไอและมีส่วนร่วมในการพัฒนาโมเดล GPT-2 และ GPT-3 กล่าวในบทสัมภาษณ์ว่าการพัฒนา AI ในยุคปัจจุบันกำลังเข้าสู่ขั้นตอนที่ซับซ้อนและคาดเดาไม่ได้ โดยเฉพาะเมื่อโมเดลสามารถเลียนแบบอารมณ์มนุษย์และสำเนียงการพูดได้อย่างน่าประหลาดใจ เขายกตัวอย่างโหมดเสียงใน GPT-4o ซึ่งสามารถปรับเปลี่ยนน้ำเสียงให้ดูเศร้า สุขุม หรือแม้กระทั่งเลียนแบบสำเนียงต่างๆ ได้ โดยที่แม้แต่นักวิจัยของโอเพ่นเอไอเองก็ประหลาดใจกับพฤติกรรมดังกล่าว “พวกเขาคิดว่าพวกเขาควบคุมได้ แต่จริงๆ แล้วพวกเขาไม่เข้าใจว่ามันเกิดอะไรขึ้น” อาโมเดอีกล่าวอย่างตรงไปตรงมา ซึ่งสะท้อนถึงมุมมองที่แตกต่างจากบริษัทคู่แข่งที่มุ่งเน้นความเร็วในการแข่งขันตลาด
แนวทางของแอนทโรปิกนั้นแตกต่างอย่างชัดเจน โดยบริษัทนี้ก่อตั้งขึ้นโดยอาโมเดอีและทีมงานเดิมจากโอเพ่นเอไอ เพื่อมุ่งเน้นด้านความปลอดภัยเป็นหลัก แอนทโรปิกใช้แนวคิด “Responsible Scaling Policy” หรือนโยบายการขยายขนาดอย่างรับผิดชอบ ซึ่งกำหนดเกณฑ์ชัดเจนในการทดสอบและประเมินความเสี่ยงก่อนปล่อยโมเดลใหม่สู่สาธารณะ เช่น การทดสอบความสามารถในการหลอกลวง การจัดการข้อมูล敏感 และพฤติกรรมที่อาจนำไปสู่ผลกระทบทางสังคม อาโมเดอีเน้นย้ำว่าการพัฒนา AI ขนาดใหญ่ (Frontier Models) ต้องอาศัยการทำความเข้าใจกลไกภายในของโมเดลอย่างลึกซึ้ง ก่อนที่จะนำไปใช้งานจริง มิเช่นนั้นอาจก่อให้เกิดความเสี่ยงที่ไม่คาดคิด เช่น การแพร่กระจายข้อมูลเท็จ การละเมิดความเป็นส่วนตัว หรือแม้กระทั่งการถูกนำไปใช้ในทางที่ผิดกฎหมาย
ในบทสัมภาษณ์ อาโมเดอียังพูดถึงการแข่งขันในอุตสาหกรรม AI ที่กำลังร้อนระอุ โดยบริษัทอย่างโอเพ่นเอไอ กูเกิล และเมตา กำลังเร่งพัฒนาโมเดลที่ทรงพลังยิ่งขึ้นเพื่อครองตลาด แต่การแข่งขันดังกล่าวอาจนำไปสู่ “AI Arms Race” หรือการแข่งขันทางอาวุธ AI ที่ละเลยความปลอดภัย เขาเปรียบเทียบกับอุตสาหกรรมนิวเคลียร์ในอดีต ที่ซึ่งการแข่งขันระหว่างชาติมหาอำนาจนำไปสู่ความเสี่ยงระดับโลก แอนทโรปิกจึงเลือกที่จะชะลอตัวลง โดยมุ่งพัฒนาโมเดล Claude 3.5 Sonnet ซึ่งได้รับการยกย่องว่ามีความปลอดภัยสูงกว่า และสามารถจัดการงานซับซ้อนได้ดี โดยไม่จำเป็นต้องเร่งรีบ
นอกจากนี้ อาโมเดอียังชี้ให้เห็นถึงปัญหาเฉพาะใน GPT-4o เช่น ความสามารถในการสนทนาแบบเรียลไทม์ที่ทำให้ AI สามารถ “รับรู้” อารมณ์ของผู้ใช้และตอบสนองได้อย่างรวดเร็ว แต่พฤติกรรมนี้ยังไม่เสถียร ตัวอย่างเช่น โมเดลอาจเลียนแบบสำเนียงอังกฤษอเมริกันหรืออังกฤษอังกฤษโดยอัตโนมัติ หรือแสดงอารมณ์ที่เกินขอบเขต ซึ่งอาจนำไปสู่การใช้งานที่ไม่เหมาะสมในสถานการณ์จริง เช่น การให้คำปรึกษาทางจิตวิทยาหรือการเจรจาธุรกิจ อาโมเดอีเตือนว่าหากไม่เข้าใจ “Black Box” หรือกล่องดำของ AI อย่างถ่องแท้ การปล่อยใช้งานก่อนเวลาอันควรอาจก่อให้เกิดความเสียหายที่แก้ไขไม่ได้
จากมุมมองทางธุรกิจ แอนทโรปิกกำลังได้รับการยอมรับจากนักลงทุนรายใหญ่ เช่น อเมซอนและกูเกิล ซึ่งลงทุนหลายพันล้านดอลลาร์ เพื่อสนับสนุนแนวทางความปลอดภัย ในขณะที่โอเพ่นเอไอกำลังเผชิญแรงกดดันจากผู้ถือหุ้นและตลาดที่ต้องการผลลัพธ์รวดเร็ว อาโมเดอีมองว่าอนาคตของ AI ต้องอาศัยความร่วมมือระหว่างบริษัทและหน่วยงานกำกับดูแล เพื่อกำหนดมาตรฐานสากล เช่น การแบ่งปันข้อมูลด้านความปลอดภัยและการทดสอบร่วมกัน เขาเชื่อว่าหากทุกฝ่ายเข้าใจความเสี่ยงอย่างแท้จริง อุตสาหกรรมนี้จะสามารถพัฒนาไปในทิศทางที่ยั่งยืนและเป็นประโยชน์ต่อมนุษยชาติ
บทสัมภาษณ์ดังกล่าวเกิดขึ้นท่ามกลางกระแสข่าวการพัฒนา AI ล่าสุด โดย GPT-4o ได้รับการตอบรับอย่างดีจากผู้ใช้ทั่วไป ด้วยความสามารถในการแปลภาษาแบบเรียลไทม์และการโต้ตอบที่เป็นธรรมชาติ อย่างไรก็ตาม คำเตือนจากอาโมเดอีได้จุดประกายการถกเถียงใหม่เกี่ยวกับสมดุลระหว่างนวัตกรรมและความรับผิดชอบ ในวงการเทคโนโลยีที่กำลังเปลี่ยนแปลงอย่างรวดเร็วนี้ การตัดสินใจของผู้นำแต่ละบริษัทจะมีผลกระทบต่อสังคมในวงกว้าง
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)