OpenAI สัญญากับแคนาดาว่าจะใช้มาตรการความปลอดภัยที่เข้มงวดยิ่งขึ้น หลัง ChatGPT ตรวจพบแชทรุนแรงของผู้ก่อเหตุยิงแต่ไม่แจ้งตำรวจ

โอเพ่นเอไอ สัญญาเสริมมาตรการความปลอดภัยที่เข้มงวดยิ่งขึ้นในแคนาดา หลังแชทจีพีทีตรวจพบการสนทนารุนแรงของผู้ก่อเหตุยิงแต่ไม่แจ้งตำรวจ

กรุงเทพฯ – โอเพ่นเอไอ (OpenAI) ผู้พัฒนาแชทบอทยอดนิยมแชทจีพีที (ChatGPT) ได้ออกมาให้คำมั่นสัญญาว่าจะเพิ่มมาตรการความปลอดภัยที่เข้มงวดยิ่งขึ้นในประเทศแคนาดา หลังจากเกิดเหตุการณ์ที่ระบบของบริษัทตรวจพบการสนทนาที่เต็มไปด้วยความรุนแรงจากผู้ใช้รายหนึ่ง ซึ่งต่อมาถูกระบุว่าเป็นผู้ก่อเหตุการณ์ยิงในเมืองเอ็ดมันตัน (Edmonton) ของแคนาดา แต่ระบบไม่ได้แจ้งเจ้าหน้าที่ตำรวจทันที

เหตุการณ์ดังกล่าวเกิดขึ้นเมื่อวันที่ 31 มกราคม 2567 โดยผู้ต้องสงสัยชื่ออาริอานา ดูอาเน่ (Arianna Duane) วัย 20 ปี ได้ใช้แชทจีพีทีในการสนทนาที่มีเนื้อหาข่มขู่รุนแรง โดยขู่ว่าจะลงมือยิงคนจำนวนมากในห้างสรรพสินค้าที่กำลังจะเปิดใหม่ในเอ็ดมันตัน ผู้ต้องสงสัยได้อธิบายแผนการของตนอย่างละเอียด รวมถึงการเลือกเป้าหมาย การใช้อาวุธปืน และการหลบหนีหลังก่อเหตุ

ตามรายงานของสำนักงานตำรวจเมืองเอ็ดมันตัน (Edmonton Police Service) ระบบความปลอดภัยของโอเพ่นเอไอได้ตรวจพบและบันทึกการสนทนาดังกล่าวไว้ตั้งแต่วันที่ 30 มกราคม แต่แทนที่จะแจ้งเจ้าหน้าที่ทันที ระบบกลับเพียงแค่บล็อกผู้ใช้จากบริการของบริษัทเท่านั้น โดยไม่มีการส่งข้อมูลไปยังหน่วยงานบังคับใช้กฎหมาย

ผู้ต้องสงสัยถูกจับกุมในที่สุดเมื่อวันที่ 31 มกราคม หลังจากตำรวจได้รับแจ้งเบาะแสจากบุคคลอื่นที่ไม่เกี่ยวข้องกับโอเพ่นเอไอ เธอถูกตั้งข้อหาหลายประการ รวมถึงการก่อการร้าย การครอบครองอาวุธปืนที่ผิดกฎหมาย และการข่มขู่ฆ่า ตำรวจยืนยันว่าผู้ต้องสงสัยมีแผนก่อเหตุจริงจัง และหากไม่ถูกจับกุม อาจเกิดความสูญเสียชีวิตจำนวนมาก

ในแถลงการณ์อย่างเป็นทางการ โอเพ่นเอไอระบุว่า “เราตระหนักถึงความรับผิดชอบของเราในการปกป้องผู้ใช้และสังคม โดยเฉพาะอย่างยิ่งในกรณีที่เกี่ยวข้องกับความเสี่ยงต่อความปลอดภัยสาธารณะ” บริษัทยอมรับว่าระบบได้ตรวจพบเนื้อหาที่มีอันตรายและดำเนินการบล็อกผู้ใช้ทันที แต่ยืนยันว่าจะปรับปรุงกระบวนการเพื่อให้สามารถแจ้งเจ้าหน้าที่ที่เกี่ยวข้องได้รวดเร็วขึ้น โดยเฉพาะในแคนาดา

โอเพ่นเอไอได้ประกาศแผนการเสริมสร้างมาตรการความปลอดภัยเฉพาะสำหรับผู้ใช้ในแคนาดา ซึ่งรวมถึงการพัฒนาระบบตรวจจับภัยคุกคามที่ละเอียดอ่อนยิ่งขึ้น การฝึกอบรมโมเดลปัญญาประดิษฐ์ให้เข้าใจบริบททางวัฒนธรรมและกฎหมายท้องถิ่น และการสร้างช่องทางการแจ้งเตือนโดยตรงไปยังหน่วยงานบังคับใช้กฎหมายแคนาดา นอกจากนี้ บริษัทยังวางแผนร่วมมือกับรัฐบาลแคนาดาและองค์กรด้านความปลอดภัยไซเบอร์ เพื่อกำหนดแนวปฏิบัติที่ชัดเจนยิ่งขึ้น

เหตุการณ์ครั้งนี้จุดประกายให้เกิดการถกเถียงอย่างกว้างขวางเกี่ยวกับความรับผิดชอบของบริษัทเทคโนโลยีปัญญาประดิษฐ์ (AI) ในการจัดการเนื้อหาที่เป็นอันตราย นักวิจารณ์หลายรายชี้ว่าการที่โอเพ่นเอไอเลือกที่จะบล็อกผู้ใช้แต่ไม่แจ้งตำรวจ แสดงให้เห็นถึงช่องโหว่ในนโยบายความปลอดภัย ซึ่งอาจนำไปสู่ความเสี่ยงร้ายแรงในอนาคต โดยเฉพาะอย่างยิ่งเมื่อแชทจีพีทีมีผู้ใช้งานหลายร้อยล้านคนทั่วโลก

ในแคนาดา ซึ่งมีกฎหมายเกี่ยวกับ AI ที่เข้มงวดกว่าหลายประเทศ รัฐบาลได้ออกมาเรียกร้องให้บริษัทเทคโนโลยีทั้งหมดปรับปรุงระบบป้องกันภัยคุกคาม นายกรัฐมนตรีจัสติน ทรูโด (Justin Trudeau) ได้กล่าวถึงประเด็นนี้ในการประชุมสาธารณะ โดยเน้นย้ำถึงความจำเป็นในการกำกับดูแล AI ให้สอดคล้องกับค่านิยมของสังคมแคนาดา

โอเพ่นเอไอไม่ได้เปิดเผยรายละเอียดทางเทคนิคของระบบตรวจจับภัยคุกคาม แต่จากเอกสารที่เปิดเผยก่อนหน้านี้ บริษัทใช้การผสมผสานระหว่างโมเดลภาษาขนาดใหญ่ (Large Language Models) และเครื่องมือตรวจสอบเนื้อหาแบบเรียลไทม์ เพื่อระบุคำพูดที่บ่งชี้ถึงความเสี่ยง เช่น การขู่อาฆาต การวางแผนก่อความรุนแรง หรือการสนับสนุนการก่อการร้าย อย่างไรก็ตาม ระบบดังกล่าวยังคงมีข้อจำกัดในการตีความบริบทที่ซับซ้อน โดยเฉพาะในภาษาอังกฤษที่ผู้ต้องสงสัยใช้ในการสนทนาครั้งนี้

ผู้เชี่ยวชาญด้าน AI มองว่าเหตุการณ์นี้เป็นบทเรียนสำคัญสำหรับอุตสาหกรรม โดยดร. เฟลิเซีย เอลมิน (Felicia Elman) นักวิจัยจากสถาบันเทคโนโลยีแมคกิลล์ (McGill University) กล่าวว่า “บริษัทอย่างโอเพ่นเอไอต้องเปลี่ยนจากแนวทางรับมือแบบ被动 (passive) ไปสู่แนวทาง主動 (proactive) ที่รวมถึงการแจ้งเตือนเจ้าหน้าที่โดยอัตโนมัติในกรณีภัยคุกคามสูง” เธอยังชี้ว่าการพัฒนา AI ที่ปลอดภัยต้องอาศัยข้อมูลจากเหตุการณ์จริงเพื่อปรับปรุงโมเดลให้มีประสิทธิภาพยิ่งขึ้น

นอกจากแคนาดา โอเพ่นเอไอยังเผชิญแรงกดดันจากหลายประเทศในการเสริมสร้างความปลอดภัย เช่น สหภาพยุโรปที่กำลังบังคับใช้กฎหมาย AI Act และสหรัฐอเมริกาที่มีข้อเสนอกฎหมายเกี่ยวกับเนื้อหาอันตรายจาก AI บริษัทได้ลงทุนหลายพันล้านดอลลาร์สหรัฐในการวิจัยด้านความปลอดภัย โดยตั้งหน่วยงานเฉพาะชื่อ Preparedness Team เพื่อตรวจสอบความเสี่ยงจากการใช้งาน AI ในระดับสูง

ในขณะที่โอเพ่นเอไอให้คำมั่นว่าจะดำเนินการปรับปรุงอย่างเร่งด่วน ผู้เชี่ยวชาญเตือนว่าการแก้ไขปัญหานี้ต้องใช้เวลาหลายเดือนหรือหลายปี เนื่องจากเกี่ยวข้องกับการปรับโครงสร้างโมเดล AI ขนาดใหญ่ การฝึกข้อมูลใหม่ และการทดสอบในสถานการณ์จริง เพื่อป้องกันไม่ให้เกิดเหตุการณ์คล้ายคลึงกันในอนาคต

เหตุการณ์ครั้งนี้ไม่เพียงแต่เน้นย้ำถึงศักยภาพอันตรายของ AI ในการถูกนำไปใช้ก่ออาชญากรรม แต่ยังเป็นตัวเร่งให้เกิดการเปลี่ยนแปลงเชิงนโยบายที่สำคัญในระดับสากล โอเพ่นเอไอคาดว่าจะประกาศรายละเอียดมาตรการใหม่สำหรับแคนาดาภายในช่วงไตรมาสแรกของปีนี้

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)