หลังเกิดการรั่วไหลและถูกวิจารณ์อย่างหนัก OpenAI เพิ่มข้อกำหนดป้องกันในสัญญากับเพนตากอน

หลังจากเกิดการรั่วไหลของเอกสารและเสียงวิจารณ์อย่างหนักหน่วง OpenAI ได้เพิ่มข้อกำหนดด้านความปลอดภัยในสัญญากับกระทรวงกลาโหมสหรัฐฯ

OpenAI บริษัทพัฒนาปัญญาประดิษฐ์ชั้นนำ ได้ปรับปรุงสัญญาความร่วมมือกับกระทรวงกลาโหมสหรัฐอเมริกา (DoD) โดยเพิ่มข้อกำหนดป้องกันความเสี่ยงที่ชัดเจน เพื่อห้ามการนำโมเดลปัญญาประดิษฐ์ไปใช้ในการพัฒนาอาวุธหรือการเฝ้าระวังที่ละเมิดสิทธิ์มนุษย์ การเปลี่ยนแปลงนี้เกิดขึ้นหลังจากการรั่วไหลของเอกสารสัญญาเดิมและกระแสวิจารณ์จากสาธารณชน นักกิจกรรม และแม้แต่นักพัฒนาภายในองค์กร ซึ่งมองว่าการทำสัญญากับหน่วยงานทหารขัดแย้งกับนโยบายเดิมของบริษัทที่เคยห้ามการใช้งานในเชิงทหาร

พื้นหลังของเรื่องนี้ย้อนกลับไปในช่วงปี 2566 OpenAI ได้ปรับนโยบายการใช้งานโมเดล GPT-4o และโมเดลอื่นๆ โดยอนุญาตให้ใช้ในงานทหารที่ไม่ใช่การพัฒนาอาวุธ เช่น การป้องกันประเทศ การเฝ้าระวังทางไซเบอร์ และการบำรุงรักษาทหาร นโยบายใหม่นี้เป็นการพลิกผันจากข้อห้ามเดิมที่ระบุชัดเจนว่า “ไม่สามารถใช้เพื่อพัฒนาอาวุธหรือทำอันตรายต่อมนุษย์” การเปลี่ยนแปลงดังกล่าวเปิดทางให้เกิดความร่วมมือกับรัฐบาลสหรัฐฯ โดยเฉพาะกระทรวงกลาโหม ซึ่งกำลังมุ่งขยายการนำเทคโนโลยีปัญญาประดิษฐ์มาใช้ในภารกิจต่างๆ

สัญญาระหว่าง OpenAI กับหน่วยงาน Global Engagement Center (GEC) ของกระทรวงการต่างประเทศสหรัฐฯ ซึ่งทำงานร่วมกับกระทรวงกลาโหม ได้รั่วไหลออกสู่สาธารณะผ่านเว็บไซต์ The Decoder ในช่วงปลายเดือนพฤษภาคม 2567 สัญญานี้มีมูลค่าเริ่มต้น 200,000 ดอลลาร์สหรัฐ และขยายเพิ่มเติมอีก 1 ล้านดอลลาร์สหรัฐ โดยมุ่งพัฒนาเครื่องมือตรวจจับและติดตามแคมเปญข้อมูลเท็จที่สนับสนุนโดยต่างชาติ เช่น จากรัสเซียและจีน เอกสารที่รั่วไหลเผยให้เห็นว่า OpenAI จะใช้โมเดลภาษาขนาดใหญ่ (LLM) เพื่อวิเคราะห์เนื้อหาที่สร้างโดย AI ในหลายภาษา รวมถึงการตรวจสอบโพสต์บนโซเชียลมีเดีย

กระแสวิจารณ์ทันทีที่เกิดขึ้นหลังการรั่วไหลนั้นรุนแรง โดยนักกิจกรรมด้านสิทธิมนุษยชนและองค์กรคุ้มครองความเป็นส่วนตัว เช่น Accountable Tech ชี้ว่าการใช้ AI ในการเฝ้าระวังข้อมูลเท็จอาจนำไปสู่การละเมิดเสรีภาพในการแสดงออกและการเซ็นเซอร์ โดยเฉพาะในบริบทของการเมืองระหว่างประเทศ นอกจากนี้ พนักงานบางส่วนของ OpenAI เองก็แสดงความกังวลผ่านสื่อ โดยระบุว่าการทำงานกับหน่วยงานทหารอาจขัดกับค่านิยมของบริษัทที่มุ่งพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ

เพื่อตอบสนองต่อแรงกดดันดังกล่าว OpenAI ได้เผยแพร่สัญญาที่ปรับปรุงใหม่เมื่อวันที่ 23 พฤษภาคม 2567 โดยเพิ่มข้อกำหนดด้านความปลอดภัยหลายประการที่ชัดเจนและครอบคลุม ข้อกำหนดหลัก ได้แก่

  1. ห้ามการนำโมเดล AI ไปใช้ในการพัฒนาหรือเลือกเป้าหมายสำหรับอาวุธร้ายแรง (weapons of mass destruction) หรือการใช้อาวุธที่อาจก่อให้เกิดความเสียหายต่อพลเรือนอย่างกว้างขวาง

  2. ห้ามการใช้ AI ในการเฝ้าระวังที่มุ่งเป้าไปยังบุคคลหรือกลุ่มบุคคลโดยพิจารณาจากลักษณะที่ได้รับการคุ้มครอง เช่น เชื้อชาติ เพศศาสนา หรือความเชื่อทางการเมือง

  3. ห้ามการใช้อาวุธอัตโนมัติที่อาจนำไปสู่การตัดสินใจสังหารโดยปราศจากการแทรกแซงของมนุษย์

  4. ห้ามการละเมิดกฎหมายระหว่างประเทศหรือสิทธิมนุษยชน รวมถึงการทรมานหรือการลงโทษที่ไม่เป็นธรรม

ข้อกำหนดเหล่านี้ถูกเพิ่มเข้าไปในส่วน “Prohibited Uses” ของสัญญา ซึ่งเดิมทีมีเพียงข้อห้ามทั่วไปเกี่ยวกับการละเมิดกฎหมายเท่านั้น นอกจากนี้ สัญญายังกำหนดให้ GEC ต้องปฏิบัติตามนโยบายการใช้งานของ OpenAI (Usage Policies) อย่างเคร่งครัด และต้องแจ้ง OpenAI หากมีการใช้งานที่อาจขัดแย้ง

Sam Altman ซีอีโอของ OpenAI ได้ออกแถลงการณ์รับทราบถึงกระแสวิจารณ์ โดยระบุว่า “เรายินดีที่สัญญานี้จะช่วย GEC ในการต่อสู้กับการโฆษณาชวนเชื่อที่เป็นอันตรายจากต่างชาติ” แต่ในขณะเดียวกัน เขายืนยันถึงความมุ่งมั่นในการป้องกันการใช้งานที่ไม่เหมาะสม OpenAI ยังชี้แจงว่าการอนุญาตใช้งานในเชิงทหารที่ไม่ใช่อาวุธนั้นเป็นไปเพื่อปกป้องประชาธิปไตยและความมั่นคงของชาติพันธมิตร

อย่างไรก็ตาม นักวิจารณ์ยังคงไม่พอใจกับการปรับปรุงนี้ โดย Ed Bridges จาก Accountable Tech กล่าวว่า “ข้อกำหนดใหม่เหล่านี้ยังคงหลวมเกินไป และไม่สามารถรับประกันได้ว่าจะไม่นำไปสู่การใช้งานที่เป็นอันตราย” นอกจากนี้ การรั่วไหลยังเผยให้เห็นถึงความเสี่ยงอื่นๆ เช่น การที่สัญญาไม่ได้ระบุชัดเจนถึงการป้องกันการรั่วไหลของข้อมูลที่ละเอียดอ่อน

เหตุการณ์นี้เกิดขึ้นท่ามกลางกระแสการแข่งขันด้าน AI ระหว่างสหรัฐฯ กับจีนและรัสเซีย ซึ่งกระทรวงกลาโหมสหรัฐฯ ได้ลงทุนมหาศาลในเทคโนโลยี AI ผ่านโครงการต่างๆ เช่น Replicator ที่มูลค่า 1 พันล้านดอลลาร์สหรัฐ นอกจาก OpenAI แล้ว บริษัทอื่นๆ เช่น Microsoft และ Anduril ก็มีสัญญากับ DoD เช่นกัน โดย Microsoft ได้รับสัญญา 1 พันล้านดอลลาร์สหรัฐสำหรับระบบคลาวด์ Azure สำหรับหน่วยงานทหาร

การปรับปรุงสัญญาครั้งนี้สะท้อนถึงความท้าทายที่ OpenAI และบริษัท AI อื่นๆ เผชิญในการ cân bằngระหว่างผลประโยชน์ทางธุรกิจกับความรับผิดชอบทางจริยธรรม โดยเฉพาะเมื่อเกี่ยวข้องกับหน่วยงานรัฐบาลและการใช้งานที่อ่อนไหว แม้ข้อกำหนดใหม่จะช่วยเสริมสร้างความโปร่งใส แต่ผู้เชี่ยวชาญยังเรียกร้องให้มีกลไกตรวจสอบอิสระเพื่อป้องกันการใช้งานที่อาจนำไปสู่ผลกระทบทางสังคมและมนุษยธรรมในอนาคต

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)