AI 领域权威人物 Yann LeCun 近期对人工智能安全公司 Anthropic 提出了严厉批评,指责该公司利用公众对 AI 网络攻击的恐惧来推动有利于自身的监管政策。LeCun 认为,这种策略,即所谓的“监管捕获”,旨在为特定公司建立竞争壁垒,阻碍开源和小型创新者的发展。
LeCun 在社交媒体上发表了看法,指出 Anthropic 等公司似乎正在夸大 AI 带来的风险,特别是关于“通用人工智能”(AGI)可能引发的网络灾难性后果。他认为,这种夸大其词的做法并非基于实际的技术评估,而是服务于商业利益。其核心目的是让政府相信,只有少数资源雄厚的大型科技公司才能安全地开发和部署先进的 AI 模型,从而促使监管机构实施严格的许可和合规制度。
这种监管制度一旦建立,将对开源 AI 社区和规模较小的公司构成巨大挑战。这些实体通常缺乏承担高昂合规成本和获取必要许可的资源,从而会被排除在尖端技术开发之外。LeCun 长期以来一直是开源 AI 的坚定支持者,他认为,限制 AI 模型的开放性不仅会减缓创新,还会将技术控制权集中在少数几家公司手中,这不符合行业的长远利益。
LeCun 特别提到 AGI 的潜在危险,例如 AI 驱动的网络恐怖主义。他认为,对于当前的技术水平而言,夸大这些威胁是不负责任的。他指出,许多关于 AI 风险的讨论已经变得过于抽象和脱离实际,缺乏对现有 AI 能力的客观评估。在他看来,当前的 AI 模型虽然功能强大,但距离自主发起并执行复杂网络攻击的 AGI 仍然遥远。
Anthropic 是一家专注于 AI 安全和超级对齐(superalignment)的公司,在 AI 伦理和风险管理方面进行了大量投入。然而,LeCun 认为,该公司对安全的过度强调已经演变为一种商业策略,实质上是将自身定位为 AI 风险的“看门人”。通过倡导严格的监管,他们可以确保自己——以及其他少数几家能够满足这些要求的大型公司——在市场中占据不可撼动的地位。
这种“监管捕获”机制是一种经济学概念,指的是行业内部的实体利用政府监管机构来为自己牟利,通常以牺牲更广泛的公众或竞争对手的利益为代价。LeCun 观察到的现象与此高度吻合:通过渲染风险,大型 AI 公司可以推动那些只有它们才能遵守的规则,从而有效地遏制竞争。
LeCun 的批评凸显了 AI 社区内部日益加剧的紧张关系。一方是以 LeCun 为代表的开源倡导者,他们认为开放获取是加速创新、确保 AI 民主化的关键。另一方则是注重安全和控制的大型科技公司,他们倾向于更严格、更多限制的开发模式。这种分歧不仅仅是技术路线之争,更是对未来 AI 生态系统权力结构和市场竞争格局的争夺。
LeCun 的观点认为,如果监管机构在没有充分考虑竞争和创新因素的情况下,仅基于夸大的安全恐惧实施严格限制,最终将损害整个 AI 产业和社会。他呼吁 AI 社区和监管机构对风险进行审慎评估,避免被商业利益驱动的恐惧叙事所误导。
การแปลเป็นภาษาไทยเชิงธุรกิจ:
ศาสตราจารย์ LeCun กล่าวหา Anthropic ว่าแสวงหาผลประโยชน์จากความหวาดกลัวด้านภัยคุกคามไซเบอร์ของ AI เพื่อช่วงชิงอำนาจกำกับดูแล
ศาสตราจารย์ Yann LeCun ผู้อำนวยการด้านวิทยาศาสตร์ของ AI ประจำ Meta และเป็นหนึ่งในผู้บุกเบิกด้าน AI ที่ทรงอิทธิพลที่สุด ได้ออกมาวิพากษ์วิจารณ์ Anthropic ซึ่งเป็นบริษัทด้านความปลอดภัยของ AI อย่างรุนแรง โดยกล่าวหาว่าบริษัทดังกล่าวใช้กลยุทธ์การขยายความหวาดกลัวต่อภัยคุกคามทางไซเบอร์ที่เกี่ยวข้องกับปัญญาประดิษฐ์เพื่อผลักดันนโยบายกำกับดูแลที่เอื้อประโยชน์ต่อตนเอง การดำเนินการดังกล่าวถูกมองว่าเป็นกลยุทธ์ “การช่วงชิงอำนาจกำกับดูแล” (Regulatory Capture) ที่มีเป้าหมายในการสร้างกำแพงการแข่งขันเพื่อกีดกันนวัตกรรมจากชุมชนโอเพ่นซอร์สและผู้เล่นรายย่อย
ศาสตราจารย์ LeCun ได้แสดงทัศนะผ่านแพลตฟอร์มโซเชียล โดยชี้ให้เห็นว่าบริษัทต่าง ๆ เช่น Anthropic กำลังขยายขนาดของความเสี่ยงที่เกิดจาก AI—โดยเฉพาะอย่างยิ่งภัยพิบัติทางไซเบอร์ที่อาจเกิดขึ้นจาก “ปัญญาประดิษฐ์ทั่วไป” (AGI)—ในลักษณะที่ไม่สอดคล้องกับการประเมินทางเทคนิคที่เป็นจริง เขาเชื่อว่าการโหมกระแสเกินจริงนี้มีวัตถุประสงค์ทางธุรกิจเป็นหลัก โดยมีแกนหลักคือการโน้มน้าวให้รัฐบาลเชื่อว่ามีเพียงบริษัทเทคโนโลยีขนาดใหญ่ที่มีทรัพยากรมากพอเท่านั้นที่สามารถพัฒนาและปรับใช้โมเดล AI ขั้นสูงได้อย่างปลอดภัย ซึ่งจะนำไปสู่การบังคับใช้ระบบการออกใบอนุญาตและการกำกับดูแลที่เข้มงวด
หากระบบการกำกับดูแลที่จำกัดนี้ถูกนำมาใช้จริง ย่อมก่อให้เกิดความท้าทายอย่างมหาศาลต่อชุมชน AI โอเพ่นซอร์สและบริษัทขนาดเล็ก องค์กรเหล่านี้มักขาดแคลนทรัพยากรในการแบกรับต้นทุนการปฏิบัติตามกฎระเบียบที่สูงลิ่วและการขอใบอนุญาตที่จำเป็น ทำให้พวกเขาไม่สามารถเข้าถึงการพัฒนาเทคโนโลยีระดับสูงได้ ในฐานะผู้สนับสนุนแนวคิด AI แบบโอเพ่นซอร์สมาอย่างยาวนาน ศาสตราจารย์ LeCun ยืนยันว่าการจำกัดการเข้าถึงโมเดล AI มิเพียงแต่จะชะลออัตราการสร้างสรรค์นวัตกรรมเท่านั้น แต่ยังเป็นการรวมศูนย์การควบคุมเทคโนโลยีให้อยู่ในมือของบริษัทเพียงไม่กี่แห่ง ซึ่งไม่เป็นผลดีต่อผลประโยชน์ระยะยาวของอุตสาหกรรม
ประเด็นที่ศาสตราจารย์ LeCun ยกขึ้นมาโดยเฉพาะคือการกล่าวอ้างถึงอันตรายที่อาจเกิดจาก AGI เช่น การก่อการร้ายทางไซเบอร์ที่ขับเคลื่อนด้วย AI เขาเน้นย้ำว่าเป็นเรื่องที่ไม่รับผิดชอบหากจะประโคมข่าวถึงภัยคุกคามเหล่านี้ในระดับความสามารถทางเทคนิคในปัจจุบัน เขาชี้ว่าการถกเถียงเกี่ยวกับความเสี่ยงของ AI ได้กลายเป็นนามธรรมและแยกตัวออกจากความเป็นจริงมากเกินไป โดยขาดการประเมินความสามารถที่แท้จริงของ AI ที่มีอยู่ในปัจจุบัน ในมุมมองของเขา โมเดล AI ในปัจจุบันแม้จะมีประสิทธิภาพสูง แต่ก็ยังห่างไกลจาก AGI ที่สามารถริเริ่มและดำเนินการโจมตีทางไซเบอร์ที่ซับซ้อนได้อย่างอิสระ
Anthropic ซึ่งเป็นบริษัทที่มุ่งเน้นความปลอดภัยของ AI และ Superalignment ได้ลงทุนอย่างมากในด้านจริยธรรม AI และการจัดการความเสี่ยง อย่างไรก็ตาม ศาสตราจารย์ LeCun มองว่าการเน้นย้ำเรื่องความปลอดภัยมากเกินไปของบริษัทได้กลายมาเป็นกลยุทธ์ทางธุรกิจ ซึ่งเป็นตำแหน่งที่บริษัทใช้ในการเป็น “ผู้เฝ้าประตู” (Gatekeeper) ของความเสี่ยง AI ผ่านการสนับสนุนกฎระเบียบที่เข้มงวด Anthropic และบริษัทขนาดใหญ่อื่น ๆ เพียงไม่กี่รายที่สามารถปฏิบัติตามข้อกำหนดเหล่านี้ได้ สามารถมั่นใจได้ว่าพวกตนจะรักษาตำแหน่งที่แข็งแกร่งในตลาดไว้ได้
กลไก “การช่วงชิงอำนาจกำกับดูแล” นี้เป็นแนวคิดทางเศรษฐศาสตร์ที่บ่งชี้ว่าหน่วยงานภายในอุตสาหกรรมใช้ประโยชน์จากหน่วยงานกำกับดูแลของรัฐบาลเพื่อสร้างผลกำไรให้ตนเอง ซึ่งมักจะเป็นการแลกมาด้วยการเสียสละผลประโยชน์ของสาธารณชนหรือคู่แข่งในวงกว้างขึ้น ข้อสังเกตของศาสตราจารย์ LeCun สอดคล้องกับแนวคิดนี้อย่างมาก: ด้วยการสร้างภาพความเสี่ยง บริษัท AI ยักษ์ใหญ่สามารถผลักดันกฎเกณฑ์ที่มีแต่พวกตนเท่านั้นที่สามารถปฏิบัติตามได้ ซึ่งส่งผลให้เกิดการจำกัดการแข่งขันอย่างมีประสิทธิภาพ
คำวิพากษ์วิจารณ์ของศาสตราจารย์ LeCun ตอกย้ำถึงความตึงเครียดที่เพิ่มขึ้นในชุมชน AI: ในด้านหนึ่งคือผู้ให้การสนับสนุนโอเพ่นซอร์สอย่าง LeCun ที่มองว่าการเข้าถึงอย่างเปิดเผยเป็นกุญแจสำคัญในการเร่งนวัตกรรมและการทำให้ AI เป็นประชาธิปไตย ขณะที่อีกด้านหนึ่งคือบริษัทเทคโนโลยีขนาดใหญ่ที่ให้ความสำคัญกับความปลอดภัยและการควบคุม ซึ่งชอบรูปแบบการพัฒนาที่เข้มงวดและมีข้อจำกัดมากกว่า ความขัดแย้งนี้ไม่ใช่เพียงการต่อสู้เรื่องเส้นทางเทคโนโลยี แต่เป็นการช่วงชิงโครงสร้างอำนาจและภูมิทัศน์การแข่งขันของระบบนิเวศ AI ในอนาคต
ข้อสรุปของ LeCun คือ หากหน่วยงานกำกับดูแลดำเนินมาตรการจำกัดอย่างเข้มงวดโดยอาศัยเพียงความหวาดกลัวด้านความปลอดภัยที่ถูกขยายเกินจริง โดยปราศจากการพิจารณาปัจจัยด้านการแข่งขันและนวัตกรรมอย่างเพียงพอ ท้ายที่สุดแล้วก็จะก่อให้เกิดความเสียหายต่ออุตสาหกรรม AI และสังคมโดยรวม เขาเรียกร้องให้ทั้งชุมชน AI และหน่วยงานกำกับดูแลทำการประเมินความเสี่ยงอย่างรอบคอบ และหลีกเลี่ยงการถูกชี้นำโดยเรื่องเล่าที่สร้างจากความกลัวซึ่งมีแรงจูงใจจากผลประโยชน์ทางธุรกิจ
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)