หลังจากเกิดการรั่วไหลของเอกสารและเสียงวิจารณ์อย่างหนักหน่วง OpenAI ได้เพิ่มข้อกำหนดด้านความปลอดภัยในสัญญากับกระทรวงกลาโหมสหรัฐฯ
OpenAI บริษัทพัฒนาปัญญาประดิษฐ์ชั้นนำ ได้ปรับปรุงสัญญาความร่วมมือกับกระทรวงกลาโหมสหรัฐอเมริกา (DoD) โดยเพิ่มข้อกำหนดป้องกันความเสี่ยงที่ชัดเจน เพื่อห้ามการนำโมเดลปัญญาประดิษฐ์ไปใช้ในการพัฒนาอาวุธหรือการเฝ้าระวังที่ละเมิดสิทธิ์มนุษย์ การเปลี่ยนแปลงนี้เกิดขึ้นหลังจากการรั่วไหลของเอกสารสัญญาเดิมและกระแสวิจารณ์จากสาธารณชน นักกิจกรรม และแม้แต่นักพัฒนาภายในองค์กร ซึ่งมองว่าการทำสัญญากับหน่วยงานทหารขัดแย้งกับนโยบายเดิมของบริษัทที่เคยห้ามการใช้งานในเชิงทหาร
พื้นหลังของเรื่องนี้ย้อนกลับไปในช่วงปี 2566 OpenAI ได้ปรับนโยบายการใช้งานโมเดล GPT-4o และโมเดลอื่นๆ โดยอนุญาตให้ใช้ในงานทหารที่ไม่ใช่การพัฒนาอาวุธ เช่น การป้องกันประเทศ การเฝ้าระวังทางไซเบอร์ และการบำรุงรักษาทหาร นโยบายใหม่นี้เป็นการพลิกผันจากข้อห้ามเดิมที่ระบุชัดเจนว่า “ไม่สามารถใช้เพื่อพัฒนาอาวุธหรือทำอันตรายต่อมนุษย์” การเปลี่ยนแปลงดังกล่าวเปิดทางให้เกิดความร่วมมือกับรัฐบาลสหรัฐฯ โดยเฉพาะกระทรวงกลาโหม ซึ่งกำลังมุ่งขยายการนำเทคโนโลยีปัญญาประดิษฐ์มาใช้ในภารกิจต่างๆ
สัญญาระหว่าง OpenAI กับหน่วยงาน Global Engagement Center (GEC) ของกระทรวงการต่างประเทศสหรัฐฯ ซึ่งทำงานร่วมกับกระทรวงกลาโหม ได้รั่วไหลออกสู่สาธารณะผ่านเว็บไซต์ The Decoder ในช่วงปลายเดือนพฤษภาคม 2567 สัญญานี้มีมูลค่าเริ่มต้น 200,000 ดอลลาร์สหรัฐ และขยายเพิ่มเติมอีก 1 ล้านดอลลาร์สหรัฐ โดยมุ่งพัฒนาเครื่องมือตรวจจับและติดตามแคมเปญข้อมูลเท็จที่สนับสนุนโดยต่างชาติ เช่น จากรัสเซียและจีน เอกสารที่รั่วไหลเผยให้เห็นว่า OpenAI จะใช้โมเดลภาษาขนาดใหญ่ (LLM) เพื่อวิเคราะห์เนื้อหาที่สร้างโดย AI ในหลายภาษา รวมถึงการตรวจสอบโพสต์บนโซเชียลมีเดีย
กระแสวิจารณ์ทันทีที่เกิดขึ้นหลังการรั่วไหลนั้นรุนแรง โดยนักกิจกรรมด้านสิทธิมนุษยชนและองค์กรคุ้มครองความเป็นส่วนตัว เช่น Accountable Tech ชี้ว่าการใช้ AI ในการเฝ้าระวังข้อมูลเท็จอาจนำไปสู่การละเมิดเสรีภาพในการแสดงออกและการเซ็นเซอร์ โดยเฉพาะในบริบทของการเมืองระหว่างประเทศ นอกจากนี้ พนักงานบางส่วนของ OpenAI เองก็แสดงความกังวลผ่านสื่อ โดยระบุว่าการทำงานกับหน่วยงานทหารอาจขัดกับค่านิยมของบริษัทที่มุ่งพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ
เพื่อตอบสนองต่อแรงกดดันดังกล่าว OpenAI ได้เผยแพร่สัญญาที่ปรับปรุงใหม่เมื่อวันที่ 23 พฤษภาคม 2567 โดยเพิ่มข้อกำหนดด้านความปลอดภัยหลายประการที่ชัดเจนและครอบคลุม ข้อกำหนดหลัก ได้แก่
-
ห้ามการนำโมเดล AI ไปใช้ในการพัฒนาหรือเลือกเป้าหมายสำหรับอาวุธร้ายแรง (weapons of mass destruction) หรือการใช้อาวุธที่อาจก่อให้เกิดความเสียหายต่อพลเรือนอย่างกว้างขวาง
-
ห้ามการใช้ AI ในการเฝ้าระวังที่มุ่งเป้าไปยังบุคคลหรือกลุ่มบุคคลโดยพิจารณาจากลักษณะที่ได้รับการคุ้มครอง เช่น เชื้อชาติ เพศศาสนา หรือความเชื่อทางการเมือง
-
ห้ามการใช้อาวุธอัตโนมัติที่อาจนำไปสู่การตัดสินใจสังหารโดยปราศจากการแทรกแซงของมนุษย์
-
ห้ามการละเมิดกฎหมายระหว่างประเทศหรือสิทธิมนุษยชน รวมถึงการทรมานหรือการลงโทษที่ไม่เป็นธรรม
ข้อกำหนดเหล่านี้ถูกเพิ่มเข้าไปในส่วน “Prohibited Uses” ของสัญญา ซึ่งเดิมทีมีเพียงข้อห้ามทั่วไปเกี่ยวกับการละเมิดกฎหมายเท่านั้น นอกจากนี้ สัญญายังกำหนดให้ GEC ต้องปฏิบัติตามนโยบายการใช้งานของ OpenAI (Usage Policies) อย่างเคร่งครัด และต้องแจ้ง OpenAI หากมีการใช้งานที่อาจขัดแย้ง
Sam Altman ซีอีโอของ OpenAI ได้ออกแถลงการณ์รับทราบถึงกระแสวิจารณ์ โดยระบุว่า “เรายินดีที่สัญญานี้จะช่วย GEC ในการต่อสู้กับการโฆษณาชวนเชื่อที่เป็นอันตรายจากต่างชาติ” แต่ในขณะเดียวกัน เขายืนยันถึงความมุ่งมั่นในการป้องกันการใช้งานที่ไม่เหมาะสม OpenAI ยังชี้แจงว่าการอนุญาตใช้งานในเชิงทหารที่ไม่ใช่อาวุธนั้นเป็นไปเพื่อปกป้องประชาธิปไตยและความมั่นคงของชาติพันธมิตร
อย่างไรก็ตาม นักวิจารณ์ยังคงไม่พอใจกับการปรับปรุงนี้ โดย Ed Bridges จาก Accountable Tech กล่าวว่า “ข้อกำหนดใหม่เหล่านี้ยังคงหลวมเกินไป และไม่สามารถรับประกันได้ว่าจะไม่นำไปสู่การใช้งานที่เป็นอันตราย” นอกจากนี้ การรั่วไหลยังเผยให้เห็นถึงความเสี่ยงอื่นๆ เช่น การที่สัญญาไม่ได้ระบุชัดเจนถึงการป้องกันการรั่วไหลของข้อมูลที่ละเอียดอ่อน
เหตุการณ์นี้เกิดขึ้นท่ามกลางกระแสการแข่งขันด้าน AI ระหว่างสหรัฐฯ กับจีนและรัสเซีย ซึ่งกระทรวงกลาโหมสหรัฐฯ ได้ลงทุนมหาศาลในเทคโนโลยี AI ผ่านโครงการต่างๆ เช่น Replicator ที่มูลค่า 1 พันล้านดอลลาร์สหรัฐ นอกจาก OpenAI แล้ว บริษัทอื่นๆ เช่น Microsoft และ Anduril ก็มีสัญญากับ DoD เช่นกัน โดย Microsoft ได้รับสัญญา 1 พันล้านดอลลาร์สหรัฐสำหรับระบบคลาวด์ Azure สำหรับหน่วยงานทหาร
การปรับปรุงสัญญาครั้งนี้สะท้อนถึงความท้าทายที่ OpenAI และบริษัท AI อื่นๆ เผชิญในการ cân bằngระหว่างผลประโยชน์ทางธุรกิจกับความรับผิดชอบทางจริยธรรม โดยเฉพาะเมื่อเกี่ยวข้องกับหน่วยงานรัฐบาลและการใช้งานที่อ่อนไหว แม้ข้อกำหนดใหม่จะช่วยเสริมสร้างความโปร่งใส แต่ผู้เชี่ยวชาญยังเรียกร้องให้มีกลไกตรวจสอบอิสระเพื่อป้องกันการใช้งานที่อาจนำไปสู่ผลกระทบทางสังคมและมนุษยธรรมในอนาคต
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)