แอนโทรปิกมองตนเองเป็นยารักษาแก้พิษต่อแนวทางของโอเพ่นเอไอที่เปรียบเสมือนอุตสาหกรรมยาสูบในการพัฒนาเอไอ
แอนโทรปิก (Anthropic) บริษัทสตาร์ทอัพที่มุ่งเน้นด้านความปลอดภัยของปัญญาประดิษฐ์ (AI) ซึ่งก่อตั้งโดยอดีตพนักงานของโอเพ่นเอไอ (OpenAI) ได้รับรายงานว่ามองตนเองในฐานะยารักษาแก้พิษ (antidote) ต่อแนวทางการพัฒนาเอไอของโอเพ่นเอไอที่ถูกวิจารณ์ว่ามีความเสี่ยงสูงและคล้ายคลึงกับอุตสาหกรรมยาสูบในอดีต ตามแหล่งข่าวที่คุ้นเคยกับวัฒนธรรมภายในของแอนโทรปิก ซึ่งเปิดเผยต่อสำนักข่าวบลูมเบิร์ก (Bloomberg)
พนักงานของแอนโทรปิกมองว่า โอเพ่นเอไอมีแนวทางที่คล้ายกับอุตสาหกรรมยาสูบ ซึ่งในอดีตมักลดทอนความเสี่ยงด้านสุขภาพขณะที่ผลักดันผลิตภัณฑ์อย่างก้าวร้าว โดยโอเพ่นเอไอถูกกล่าวหาว่าลำดับความสำคัญให้กับการเปิดตัวผลิตภัณฑ์อย่างรวดเร็วและผลกำไร มากกว่าการคำนึงถึงความปลอดภัย ในทางตรงกันข้าม แอนโทรปิกวางตำแหน่งตนเองเป็นฝ่ายที่รับผิดชอบ โดยยึดหลักการพัฒนาเอไออย่างปลอดภัยและยั่งยืน
ประวัติศาสตร์ของทั้งสองบริษัทมีความเชื่อมโยงอย่างใกล้ชิด แอนโทรปิกก่อตั้งขึ้นในปี 2565 โดย ดาริโอ อาโมเดอี (Dario Amodei) อดีตรองประธานฝ่ายความปลอดภัยของโอเพ่นเอไอ และทีมงานด้านความปลอดภัยอีกหลายคนที่ลาออกพร้อมกัน เนื่องจากไม่เห็นด้วยกับทิศทางของบริษัทแม่ โดยเฉพาะหลังจากการเปลี่ยนแปลงผู้นำครั้งใหญ่ในเดือนพฤศจิกายน 2566 เมื่อ แซม อัลต์แมน (Sam Altman) ซีอีโอคนปัจจุบันถูกบอร์ดบริหารถอดถอนชั่วคราว ก่อนกลับมาดำรงตำแหน่งอีกครั้ง สถานการณ์ดังกล่าวทำให้เกิดความกังวลภายในทีมความปลอดภัยของโอเพ่นเอไอ ซึ่งนำไปสู่การย้ายขบวนมาสู่แอนโทรปิก
แอนโทรปิกยึดมั่นในนโยบาย “การขยายขนาดอย่างรับผิดชอบ” (Responsible Scaling Policy: RSP) ซึ่งกำหนดเกณฑ์ชัดเจนสำหรับการพัฒนาและเปิดตัวโมเดลเอไอ โดยเฉพาะโมเดลที่ทรงพลังสูง เพื่อป้องกันความเสี่ยงที่อาจเกิดขึ้น เช่น ความสามารถในการก่อให้เกิดอันตรายทางกายภาพหรือทางชีวภาพ นอกจากนี้ แอนโทรปิกยังพัฒนาเทคโนโลยี “เอไอตามรัฐธรรมนูญ” (Constitutional AI) ซึ่งเป็นระบบที่ฝึกโมเดลให้ปฏิบัติตามหลักการทางศีลธรรมและความปลอดภัยที่กำหนดไว้ล่วงหน้า โดยไม่ต้องพึ่งพาการแทรกแซงจากมนุษย์มากนัก โมเดลหลักอย่าง Claude ได้รับการออกแบบให้ปฏิเสธคำขอที่อาจนำไปสู่การใช้งานในทางที่ผิด เช่น การสร้างอาวุธหรือเนื้อหาที่เป็นอันตราย
ในทางตรงกันข้าม แหล่งข่าวจากแอนโทรปิกวิจารณ์โอเพ่นเอไอว่ามีการเปิดตัวผลิตภัณฑ์อย่างเร่งรีบ โดยลดความสำคัญของความปลอดภัย เช่น การเปิดตัว GPT-4o mini และโหมดเสียงใน GPT-4o ซึ่งเผชิญปัญหาความไม่เหมาะสม เช่น การเลียนแบบเสียงร้องไห้ของเด็กหรือการแสดงพฤติกรรมที่คล้ายการยั่วยุทางเพศ สิ่งเหล่านี้ถูกมองว่าเป็นตัวอย่างของการมุ่งเน้น “การเติบโตสูงสุด” (maximum growth) มากกว่าการควบคุมความเสี่ยง ซึ่งคล้ายกับอุตสาหกรรมยาสูบที่เคยโฆษณาว่ายาสูบปลอดภัยก่อนที่หลักฐานทางวิทยาศาสตร์จะพิสูจน์ตรงกันข้าม
การแข่งขันในอุตสาหกรรมเอไอที่ร้อนระอุยิ่งทำให้เกิดความแตกต่างนี้ชัดเจนยิ่งขึ้น โอเพ่นเอไอภายใต้การนำของอัลต์แมน ได้รับเงินทุนมหาศาลจากไมโครซอฟท์ (Microsoft) กว่า 13,000 ล้านดอลลาร์สหรัฐ และมุ่งสู่การเป็นบริษัทเอกชนที่เตรียมเข้าตลาดหุ้น ขณะที่แอนโทรปิกได้รับการสนับสนุนจากอเมซอน (Amazon) มูลค่า 4,000 ล้านดอลลาร์สหรัฐ และกูเกิล (Google) มูลค่า 2,000 ล้านดอลลาร์สหรัฐ โดยทั้งสองบริษัทนี้ถือหุ้นในแอนโทรปิกและให้สิทธิ์เข้าถึงโมเดล Claude ผ่านบริการคลาวด์ของตน
ล่าสุด แอนโทรปิกเพิ่งเปิดตัว Claude 3.5 Sonnet ซึ่งได้รับการยกย่องว่าดีกว่าโมเดลของคู่แข่งในหลายด้าน โดยเฉพาะด้านการเขียนโค้ดและการแก้ปัญหาเชิงตรรกะ ขณะที่ยึดมั่นในมาตรฐานความปลอดภัยสูงสุด สิ่งนี้สะท้อนถึงปรัชญาของแอนโทรปิกที่มุ่งสร้างเอไอที่เป็นประโยชน์ต่อมนุษยชาติ โดยไม่ประนีประนอมกับความเสี่ยงที่อาจเกิดขึ้น
แม้แอนโทรปิกจะเติบโตอย่างรวดเร็ว โดยมีมูลค่าบริษัทเกิน 18,000 ล้านดอลลาร์สหรัฐ แต่บริษัทยังคงยืนกรานในจุดยืนด้านความปลอดภัย ท่ามกลางเสียงวิจารณ์จากบางฝ่ายที่มองว่าการยับยั้งชั่งใจอาจทำให้เสียโอกาสในการแข่งขัน อย่างไรก็ตาม แหล่งข่าวภายในยืนยันว่า แอนโทรปิกมองตนเองเป็น “ฝ่ายสาธารณสุข” ในอุตสาหกรรมเอไอ ที่ต่อสู้กับ “อุตสาหกรรมยาสูบ” อย่างโอเพ่นเอไอ เพื่อปกป้องสังคมจากความเสี่ยงที่อาจเกิดจากเทคโนโลยีที่พัฒนาอย่างไม่ระมัดระวัง
การเผชิญหน้าทางปรัชญานี้ไม่เพียงแต่สะท้อนถึงความแตกต่างภายในอุตสาหกรรมเอไอเท่านั้น แต่ยังเป็นสัญญาณของความจำเป็นในการกำกับดูแลจากภาครัฐและนานาชาติ เพื่อให้แน่ใจว่าการพัฒนาเอไอจะนำไปสู่ประโยชน์สูงสุด โดยไม่ก่อให้เกิดภัยพิบัติที่ไม่อาจย้อนกลับได้
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)