พนักงาน OpenAI ถกเถียงเรื่องแจ้งตำรวจแคนาดาเกี่ยวกับบันทึก ChatGPT ที่รุนแรงหลายเดือนก่อนเหตุกราดยิงโรงเรียนคร่าชีวิต

พนักงาน OpenAI ถกเถียงภายในเรื่องแจ้งตำรวจแคนาดาเกี่ยวกับบันทึกการสนทนาที่รุนแรงใน ChatGPT หลายเดือนก่อนเหตุการณ์ยิงนักเรียนเสียชีวิต

ในเดือนกุมภาพันธ์ พ.ศ. 2567 ทีมความปลอดภัยของ OpenAI ได้มีการถกเถียงกันอย่างเข้มข้นในช่องทางสื่อสารภายในบริษัท เกี่ยวกับกรณีผู้ใช้รายหนึ่งในแคนาดาที่บันทึกการสนทนากับ ChatGPT เต็มไปด้วยเนื้อหาที่รุนแรงและขู่อาฆาต โดยเฉพาะอย่างยิ่งการวางแผนก่อเหตุการณ์นองเลือดที่โรงเรียน ผู้ใช้รายนี้แสดงเจตจำนงชัดเจนในการก่อความรุนแรงหมู่ และสอบถามข้อมูลที่เกี่ยวข้องกับการใช้อาวุธปืน รวมถึงกลยุทธ์ในการโจมตีสถานศึกษา

เอกสารภายในที่รั่วไหลออกมา ซึ่งเป็นบันทึกการสนทนาใน Slack ของพนักงาน OpenAI เผยให้เห็นถึงความขัดแย้งในมุมมองของทีมงาน บางส่วนเสนอให้แจ้งเจ้าหน้าที่ตำรวจท้องถิ่นในแคนาดาโดยทันที โดยอ้างถึงความเสี่ยงที่อาจเกิดขึ้นจริงต่อชีวิตผู้คน “เราควรแจ้งตำรวจแคนาดาไหม? นี่คือการขู่อาฆาตที่ชัดเจน” เป็นประโยคหนึ่งจากพนักงานที่กังวล ขณะที่อีกฝ่ายโต้แย้งด้วยเหตุผลทางกฎหมายและนโยบาย โดยชี้ว่าผู้ใช้เป็นบุคคลที่ยังไม่บรรลุนิติภาวะ อายุเพียง 14 ปี และการรายงานอาจละเมิดความเป็นส่วนตัวตามกฎหมายของแคนาดา เช่น Personal Information Protection and Electronic Documents Act (PIPEDA)

ทีมความปลอดภัยของ OpenAI ซึ่งรับผิดชอบในการตรวจสอบเนื้อหาที่มีศักยภาพเสี่ยงภัย ได้วิเคราะห์บันทึกการสนทนาของผู้ใช้รายนี้ พบว่ามีการสอบถามรายละเอียดเกี่ยวกับการประกอบระเบิด การเลือกเป้าหมายที่โรงเรียน และวิธีการหลบหนีหลังก่อเหตุ คำถามเหล่านี้เกิดขึ้นหลายครั้งในช่วงหลายเดือนก่อนหน้า การถกเถียงนี้เกิดขึ้นก่อนเหตุการณ์ยิงกันที่โรงเรียนในรัฐอัลเบอร์ตา แคนาดา ซึ่งผู้กระทำผิดซึ่งเป็นบุคคลเดียวกันกับผู้ใช้ ChatGPT ได้ก่อเหตุสังหารนักเรียนสองคนและทำร้ายอีกหลายรายเมื่อวันที่ 6 มีนาคม พ.ศ. 2567

พนักงาน OpenAI ได้พิจารณาถึงนโยบายภายในของบริษัท ซึ่งกำหนดให้รายงานเนื้อหาที่มีลักษณะขู่อาฆาตหรือวางแผนก่อการร้ายต่อหน่วยงานที่เกี่ยวข้อง อย่างไรก็ตาม ในกรณีนี้ ทีมงานกังวลเกี่ยวกับเขตอำนาจศาล เนื่องจาก OpenAI เป็นบริษัทสัญชาติอเมริกัน และผู้ใช้อยู่ในแคนาดา การส่งข้อมูลข้ามพรมแดนอาจนำไปสู่ปัญหาทางกฎหมายเพิ่มเติม นอกจากนี้ ยังมีข้อกังวลเรื่องการตีความว่าอะไรคือ “การขู่อาฆาตที่แท้จริง” โดยบางพนักงานมองว่าบันทึกเหล่านี้อาจเป็นเพียงการทดสอบหรือจินตนาการของเยาวชน

จากการรั่วไหลของเอกสารดังกล่าว ซึ่งถูกเปิดเผยโดยแหล่งข่าวภายใน OpenAI พบว่าการถกเถียงจบลงด้วยการไม่ดำเนินการแจ้งเบาะแสต่อตำรวจแคนาดา ทีมงานตัดสินใจติดตามสถานการณ์ต่อไป โดยใช้เครื่องมือตรวจสอบอัตโนมัติและมนุษย์ในการเฝ้าระวังพฤติกรรมผู้ใช้ อย่างไรก็ตาม เหตุการณ์น่าเศร้าที่เกิดขึ้นหลังจากนั้นได้จุดประกายคำถามเกี่ยวกับประสิทธิภาพของกระบวนการนี้ OpenAI ยืนยันในแถลงการณ์ว่า บริษัทมีนโยบายเข้มงวดในการจัดการเนื้อหาที่เป็นอันตราย และได้พัฒนาระบบป้องกันการใช้งานในทางที่ผิด โดยอ้างว่ามีการลบเนื้อหากว่า 1.5 ล้านรายการในปี พ.ศ. 2566 ที่เกี่ยวข้องกับการก่อความรุนแรง

กรณีศึกษานี้เน้นย้ำถึงความท้าทายที่บริษัทปัญญาประดิษฐ์ (AI) ต้องเผชิญในการสมดุลระหว่างสิทธิความเป็นส่วนตัวของผู้ใช้กับความรับผิดชอบทางสังคม โดยเฉพาะในยุคที่โมเดลภาษาขนาดใหญ่อย่าง ChatGPT สามารถตอบสนองคำถามที่ละเอียดอ่อนได้อย่างรวดเร็ว พนักงานในทีมความปลอดภัยได้หารือถึงความจำเป็นในการปรับปรุงแนวทาง โดยเสนอให้มีคณะกรรมการตัดสินใจขั้นสุดท้ายที่รวมผู้เชี่ยวชาญด้านกฎหมายและจริยธรรม นอกจากนี้ ยังมีการพูดถึงการใช้เครื่องมือ AI ในการตรวจจับรูปแบบพฤติกรรมเสี่ยงภัยล่วงหน้า เช่น การวิเคราะห์ความถี่และความรุนแรงของคำถาม

ในมุมมองทางเทคนิค OpenAI ใช้ระบบการจัดหมวดหมู่เนื้อหา (content moderation) ที่ผสานรวมโมเดล AI กับการตรวจสอบโดยมนุษย์ โดยบันทึกการสนทนาทั้งหมดจะถูกเก็บไว้ชั่วคราวเพื่อการวิเคราะห์ ระบบนี้สามารถระบุคำสำคัญที่เกี่ยวข้องกับความรุนแรง เช่น “school shooting” หรือ “bomb making” และแจ้งเตือนทีมงานทันที อย่างไรก็ตาม ในกรณีของผู้ใช้รายนี้ ระบบได้ตรวจพบแต่การตัดสินใจมนุษย์ในการรายงานกลับกลายเป็นจุดอ่อน

เหตุการณ์นี้ยังสะท้อนถึงบริบทกว้างขึ้นในอุตสาหกรรม AI ซึ่งหลายบริษัทกำลังเผชิญแรงกดดันจากรัฐบาลทั่วโลกในการเพิ่มความโปร่งใสและการรายงานเนื้อหาที่เสี่ยงภัย ในแคนาดา รัฐบาลได้ประกาศใช้กฎหมาย Online Harms Act เพื่อบังคับให้แพลตฟอร์มรายงานเนื้อหาที่เป็นอันตรายต่อเจ้าหน้าที่ OpenAI จึงอาจต้องปรับตัวตามกฎระเบียบเหล่านี้ในอนาคต เพื่อป้องกันเหตุการณ์คล้ายคลึงกัน

สุดท้าย กรณีดังกล่าวได้กระตุ้นให้เกิดการอภิปรายภายใน OpenAI เกี่ยวกับการฝึกอบรมพนักงานให้ตัดสินใจในสถานการณ์วิกฤตได้ดีขึ้น รวมถึงการพัฒนาเครื่องมือที่สามารถคาดการณ์ความเสี่ยงได้แม่นยำยิ่งขึ้น โดยไม่ละเมิดสิทธิผู้ใช้ สิ่งเหล่านี้เป็นบทเรียนสำคัญที่บริษัท AI ต้องเรียนรู้ เพื่อให้เทคโนโลยีที่ทรงพลังนี้ไม่กลายเป็นเครื่องมือในการก่ออาชญากรรม

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)