พนักงานกูเกิล ดีพไมน์ด์ และ โอเพ่นเอไอ ร่วมลงนามจดหมายเปิดผนึกเรียกร้องให้บริษัทกำหนด “เส้นแดง” แบบแอนโธรปิก ต่อต้านการเฝ้าระวังของเพนตากอนและอาวุธอัตโนมัติ
พนักงานปัจจุบันและอดีตจากบริษัทกูเกิล ดีพไมน์ด์ (Google DeepMind) และ โอเพ่นเอไอ (OpenAI) กว่า 100 คน ได้ลงนามในจดหมายเปิดผนึกที่เผยแพร่บนแพลตฟอร์ม Medium โดยเรียกร้องให้บริษัทผู้ว่าจ้างของตนกำหนด “เส้นแดง” (red lines) ที่ชัดเจนและมีผลผูกพันทางกฎหมาย คล้ายกับที่บริษัทแอนโธรปิก (Anthropic) ได้ประกาศไว้ เพื่อห้ามพัฒนาเทคโนโลยีปัญญาประดิษฐ์ (AI) สำหรับการเฝ้าระวังของกระทรวงกลาโหมสหรัฐอเมริกา (Pentagon) และอาวุธอัตโนมัติที่อาจนำไปสู่การฆ่าฟันโดยปราศจากการควบคุมจากมนุษย์
จดหมายดังกล่าวซึ่งมีชื่อย่อว่า “Pledge for the Pause on AI for Surveillance and Autonomous Weapons” เน้นย้ำว่าบริษัทกูเกิลและโอเพ่นเอไอ แม้จะเคยให้คำมั่นสัญญาสาธารณะในอดีต แต่ยังขาดนโยบายภายในที่บังคับใช้ได้จริงและมีกลไกคุ้มครองผู้แจ้งเบาะแส (whistleblower protections) ซึ่งแตกต่างจากแอนโธรปิกที่ประกาศเส้นแดงอย่างเป็นทางการตั้งแต่ปี 2565 โดยห้ามพัฒนา AI สำหรับอาวุธที่กำหนดเป้าหมายมนุษย์โดยปราศจากการอนุญาตจากมนุษย์ และห้ามพัฒนาระบบเฝ้าระวังเพื่อรัฐบาลที่มีประวัติละเมิดสิทธิมนุษยชน
ผู้ลงนามในจดหมายนี้ประกอบด้วยพนักงานระดับสูงและนักวิจัยจากทั้งสองบริษัท เช่น จากกูเกิล ดีพไมน์ด์ มีชื่ออย่าง Suchir Balaji (อดีตนักวิจัยโอเพ่นเอไอที่ย้ายมา) และพนักงานอื่นๆ อีกหลายราย ขณะที่จากโอเพ่นเอไอ มีชื่ออย่าง พนักงานวิจัยด้านความปลอดภัย AI ที่ไม่ประสงค์ออกนามบุคคล จดหมายระบุชัดเจนถึงความกังวลหลักสามประการ ได้แก่
-
ห้ามพัฒนา AI สำหรับอาวุธที่สามารถเลือกเป้าหมายและโจมตีได้โดยอัตโนมัติโดยปราศจากการแทรกแซงจากมนุษย์ ซึ่งอาจนำไปสู่ “killer robots” หรือระบบอาวุธร้ายแรง (lethal autonomous weapons systems - LAWS) ที่ถูกห้ามโดยอนุสัญญาสหประชาชาติในบางกรณี
-
ห้ามพัฒนา AI สำหรับระบบเฝ้าระวังที่ละเมิดสิทธิส่วนบุคคล โดยเฉพาะที่ใช้โดยหน่วยงานทหารหรือหน่วยข่าวกรอง เช่น โครงการของเพนตากอนที่อาจนำไปสู่การติดตามประชาชนจำนวนมากโดยไม่ชอบด้วยกฎหมาย
-
ต้องมีคำมั่นสัญญาที่มีผลผูกพันทางกฎหมายภายในบริษัท พร้อมกลไกตรวจสอบอิสระและการคุ้มครองพนักงานที่คัดค้านโครงการดังกล่าว เพื่อป้องกันการถูกไล่ออกหรือกลั่นแกล้ง
เหตุการณ์นี้เกิดขึ้นท่ามกลางกระแสวิพากษ์วิจารณ์ที่เพิ่มสูงขึ้นในวงการ AI เกี่ยวกับการใช้เทคโนโลยีเพื่อจุดประสงค์ทางทหาร โดยย้อนกลับไปในปี 2561 พนักงานกูเกิลกว่า 4,000 คนเคยประท้วงโครงการ Maven ซึ่งเป็นโครงการพัฒนา AI สำหรับวิเคราะห์ภาพดาวเทียมทางทหารให้เพนตากอน ส่งผลให้กูเกิลตัดสินใจไม่ต่อสัญญาในปีถัดมา อย่างไรก็ตาม หลังจากนั้นกูเกิลยังคงทำสัญญากับเพนตากอนในโครงการอื่นๆ เช่น การพัฒนา AI สำหรับการวางแผนโลจิสติกส์ทางทหารและระบบคลาวด์ จนถึงปัจจุบัน
สำหรับโอเพ่นเอไอ แม้ผู้ก่อตั้งอย่าง Sam Altman จะเคยลงนามในคำร้องขอหยุดชั่วคราวการพัฒนา AI ขั้นสูงในปี 2566 แต่บริษัทก็เผชิญแรงกดดันจากนักลงทุน รวมถึงบริษัท Microsoft ที่เป็นพันธมิตรหลัก ซึ่งมีความสัมพันธ์ใกล้ชิดกับหน่วยงานรัฐบาลสหรัฐฯ ล่าสุด โอเพ่นเอไอ ยังคงพัฒนาโมเดล AI ขั้นสูงโดยไม่มีการกำหนดเส้นแดงที่ชัดเจนเรื่องการใช้งานทางทหาร
ผู้เชี่ยวชาญในวงการมองว่าจดหมายนี้เป็นสัญญาณของความแตกแยกภายในบริษัทชั้นนำด้าน AI ซึ่งอาจนำไปสู่การเปลี่ยนแปลงนโยบายในอนาคต โดยเฉพาะในยุคที่รัฐบาลสหรัฐฯ ผลักดันงบประมาณ AI ทางทหารหลายพันล้านดอลลาร์สหรัฐต่อปี แอนโธรปิกซึ่งก่อตั้งโดยอดีตพนักงานโอเพ่นเอไอ ได้กลายเป็นต้นแบบ ด้วยการยึดมั่นในหลักการ “Responsible Scaling Policy” ที่กำหนดขอบเขตการพัฒนา AI อย่างเข้มงวด
นอกจากนี้ จดหมายยังเรียกร้องให้บริษัททั้งสองเปิดเผยข้อมูลสัญญากับหน่วยงานรัฐบาลอย่างโปร่งใส เพื่อให้สาธารณชนสามารถตรวจสอบได้ ผู้ลงนามเชื่อมั่นว่าการกำหนดเส้นแดงดังกล่าวจะช่วยปกป้องค่านิยมพื้นฐานของบริษัท เช่น การมุ่งเน้น AI เพื่อประโยชน์มนุษยชาติ โดยไม่ถูกดึงเข้าสู่การแข่งขันทางอาวุธ
การเคลื่อนไหวนี้อาจจุดประกายให้พนักงานบริษัท AI อื่นๆ เช่น xAI หรือ Meta AI เข้าร่วม โดยเฉพาะท่ามกลางความตึงเครียดทางภูมิรัฐศาสตร์ เช่น สงครามในยูเครนและตะวันออกกลาง ที่ AI ถูกนำมาใช้ในการเฝ้าระวังและโดรนอัตโนมัติมากขึ้น สุดท้าย ผู้ลงนามหวังว่าจดหมายนี้จะเป็นจุดเริ่มต้นของมาตรฐานอุตสาหกรรมใหม่ ที่ให้ความสำคัญกับจริยธรรมเหนือผลกำไร
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)