การกลับมาก่ออาชญากรรมด้วยปัญญาประดิษฐ์ในศาล

ปัญญาประดิษฐ์ก่อความผิดพลาดในกระบวนการยุติธรรม: กรณีศึกษาจากศาลสหรัฐฯ

ในยุคที่ปัญญาประดิษฐ์ (AI) เข้ามามีบทบาทในงานด้านกฎหมายมากขึ้น ทนายความหลายรายเริ่มนำเครื่องมือ AI เช่น ChatGPT มาใช้ในการร่างเอกสารยื่นศาล อย่างไรก็ตาม การใช้งานดังกล่าวกลับนำมาซึ่งความผิดพลาดร้ายแรง โดยเฉพาะอย่างยิ่ง “ภาพหลอน” (hallucinations) ของ AI ที่สร้างข้อมูลเท็จขึ้นมา ซึ่งส่งผลกระทบต่อความน่าเชื่อถือของกระบวนการยุติธรรม กรณีตัวอย่างที่เกิดขึ้นในศาลสหรัฐฯ ได้กลายเป็นบทเรียนสำคัญสำหรับวิชาชีพกฎหมายทั่วโลก

หนึ่งในกรณีที่โด่งดังที่สุดเกิดขึ้นที่ศาลแขวงแมนฮัตตัน นครนิวยอร์ก คดีระหว่างผู้โดยสาร Mark A. Matthiesen กับสายการบิน Avianca ในเดือนมิถุนายน 2566 ทนายความของ Matthiesen คือ Steven A. Schwartz จากสำนักงานกฎหมาย Levidow, Levidow & Oberman ได้ยื่นเอกสารคัดค้านการยกฟ้อง โดยอ้างอิงคดีตัวอย่างถึง 6 คดีจากศาลรัฐบาลกลางสหรัฐฯ เช่น คดี Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), Blackburn v. United Airlines, Inc., 2022 WL 4843276 (D. Colo. Sept. 29, 2022), และ Zicherman v. Korean Air Lines, Co., 516 U.S. 217 (1996) อย่างไรก็ตาม เมื่อผู้พิพากษา P. Kevin Castel สั่งให้ทนายฝ่ายตรงข้ามตรวจสอบแหล่งอ้างอิง พบว่าคดีเหล่านี้ไม่มีตัวตนจริงในระบบฐานข้อมูลกฎหมาย เช่น Westlaw หรือ LexisNexis คดี Varghese ไม่เคยมีจริง คดี Blackburn ถูกสร้างขึ้นโดย AI และมีเพียงชื่อผู้พิพากษาที่ถูกต้องในคดีอื่นเท่านั้น ขณะที่คดีอื่นๆ ถูกบิดเบือนข้อเท็จจริง

Schwartz ยอมรับว่าเขาใช้ ChatGPT เพื่อช่วยร่างเอกสาร โดยถาม AI เกี่ยวกับคดีที่คล้ายคลึงกัน และนำผลลัพธ์มาใช้โดยไม่ตรวจสอบความถูกต้อง เขาอ้างว่าเชื่อถือ AI เนื่องจากมันให้ข้อมูลที่ดูน่าเชื่อถือ พร้อมยกตัวอย่างคำตัดสินสมมติจาก AI ที่มีชื่อผู้พิพากษาและหมายเลขคดีจริง ผู้พิพากษา Castel วิจารณ์อย่างรุนแรง โดยระบุว่าการยื่นเอกสารที่มีข้อมูลเท็จต่อศาลถือเป็นการดูหมิ่นศาล (contempt of court) และสั่งให้ Schwartz ชี้แจงภายใน 14 วัน หากไม่สามารถยืนยันความถูกต้องได้ ศาลจะพิจารณาคำร้องให้ลงโทษ

ต่อมา ในเดือนกรกฎาคม 2566 ผู้พิพากษา Castel ตัดสินลงโทษ Schwartz และคู่ทนาย Peter LoDuca รวมถึงสำนักงานกฎหมาย โดยสั่งให้จ่ายค่าปรับคนละ 5,000 ดอลลาร์สหรัฐ (รวม 10,000 ดอลลาร์) เพื่อชดเชยค่าใช้จ่ายของฝ่ายตรงข้ามในการตรวจสอบ นอกจากนี้ ยังสั่งให้ Schwartz เข้ารับการอบรมด้านจริยธรรมกฎหมาย ผู้พิพากษาเตือนว่าทนายความมีหน้าที่ตรวจสอบข้อมูลทุกชิ้นที่ยื่นต่อศาล ไม่ว่าจะมาจากแหล่งใด “การไม่ตรวจสอบถือเป็นการละเลยหน้าที่อย่างร้ายแรง” Castel ระบุ พร้อมยกกฎ ABA Model Rule 3.3(a)(1) ที่ห้ามยื่นข้อความเท็จต่อศาล

กรณีนี้ไม่ใช่ครั้งแรก ในเดือนพฤษภาคม 2566 ที่ศาลแขวงนครนิวยอร์ก ผู้พิพากษา Edgardo Ramos สั่งให้ทนาย Linda Chung, David Mazur และ Jorge Acevedo ชี้แจงเอกสารที่อ้างคดี Shaboon v. Egyptair เป็นคดีจากปี 1999 แต่จริงๆ แล้วเป็นคดีปี 1986 และถูกบิดเบือนข้อเท็จจริง ทนายยอมรับว่าใช้ ChatGPT ซึ่งสร้างชื่อคดีและคำตัดสินปลอมขึ้นมา ผู้พิพากษาเตือนถึงความเสี่ยงของ AI และเรียกร้องให้นิติบุคคลกฎหมายกำหนดแนวปฏิบัติในการใช้เครื่องมือดังกล่าว

นอกเหนือจากสหรัฐฯ กรณีคล้ายกันเกิดขึ้นในอังกฤษ ทนายขอเลื่อนคดีโดยอ้างคดี London Borough of Barking and Dagenham v. Persons Unknown [2022] EWCA Civ 17 แต่คดีนี้ไม่มีจริงในฐานข้อมูล Bailii หรือ Westlaw ทนายอ้างว่าใช้เครื่องมือ “AI-powered” แต่ปฏิเสธว่าเป็น ChatGPT สภาทนายความอังกฤษ (SRA) กำลังตรวจสอบกรณีนี้

ในเยอรมนี สภาทนายความแห่งชาติ (DAV) ออกคำเตือนเมื่อเดือนเมษายน 2566 ระบุว่า AI ยังไม่พร้อมสำหรับงานกฎหมายจริง เนื่องจากปัญหาภาพหลอนและการละเมิดลิขสิทธิ์ข้อมูลฝึกสอน DAV แนะนำให้ทนายตรวจสอบข้อมูลจาก AI ทุกครั้ง และหลีกเลี่ยงการใช้ในเอกสารที่ยื่นศาลโดยตรง รัฐมนตรีว่าการกระทรวงยุติธรรมเยอมาร์ก้า ชมิดท์ (FDP) เรียกร้องให้มีกฎระเบียบเฉพาะสำหรับ AI ในกระบวนการยุติธรรม โดยเน้นย้ำถึงความรับผิดชอบของมนุษย์เหนือเครื่องจักร

ผู้เชี่ยวชาญด้านกฎหมาย เช่น Kevin Crowne จาก Thomson Reuters ระบุว่า AI สามารถช่วยร่างเอกสารได้ แต่ต้องมี “human in the loop” เพื่อตรวจสอบเสมอ Matt Margolis จาก LexisNexis ชี้ว่าเครื่องมือกฎหมายของตนมีระบบตรวจสอบความถูกต้องของคดี แต่ ChatGPT ขาดกลไกดังกล่าว ซึ่งเป็นเหตุผลที่ AI ทั่วไปไม่เหมาะกับงานกฎหมาย

บทเรียนจากกรณีเหล่านี้ชัดเจน: แม้ AI จะช่วยประหยัดเวลา แต่ทนายความไม่สามารถยกเลิกหน้าที่พื้นฐานในการตรวจสอบข้อเท็จจริงได้ การใช้ AI โดยไม่ระมัดระวังอาจนำไปสู่การลงโทษทางวินัย สูญเสียชื่อเสียง และกระทบต่อความยุติธรรม สภาทนายความทั่วโลกกำลังปรับแนวปฏิบัติ โดยเน้นการฝึกอบรมและพัฒนาเครื่องมือ AI ที่เชื่อถือได้มากขึ้น เพื่อให้เทคโนโลยีนี้กลายเป็นเครื่องมือเสริมแทนที่จะเป็นแหล่งกำเนิดความผิดพลาด

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)