นิวยอร์กไทมส์ตัดสัมพันธ์กับนักเขียนฟรีแลนซ์ผู้พัฒนาเครื่องมือ AI ที่คัดลอกรีวิวหนังสือจากแหล่งอื่น
นิวยอร์กไทมส์ (The New York Times) ได้ตัดสัมพันธ์กับนักเขียนฟรีแลนซ์ชื่อ แดน โคเฮน (Dan Cohen) หลังจากค้นพบว่าเครื่องมือปัญญาประดิษฐ์ (AI) ที่เขาพัฒนาขึ้นชื่อว่า “Summer Book Machine” ได้คัดลอกเนื้อหาจากรีวิวหนังสือที่มีอยู่จริง โดยไม่มีการเปิดเผยหรือให้เครดิตแก่แหล่งที่มาเดิม
เหตุการณ์นี้เกิดขึ้นเมื่อช่วงฤดูร้อนที่ผ่านมา โคเฮนซึ่งเป็นนักเขียนฟรีแลนซ์ที่เคยมีผลงานลงพิมพ์ในนิวยอร์กไทมส์ ได้เผยแพร่เครื่องมือ AI บนเว็บไซต์ส่วนตัวของเขา โดยเครื่องมือดังกล่าวถูกออกแบบมาเพื่อสร้างคำแนะนำหนังสือสำหรับการอ่านในช่วงฤดูร้อน โดยผู้ใช้เพียงพิมพ์ชื่อหนังสือที่สนใจเข้าไป เครื่องมือจะสร้างรีวิวและคำแนะนำที่ดูเหมือนมนุษย์เขียนขึ้น ต่อมา นิวยอร์กไทมส์ได้ตีพิมพ์บทความของโคเฮนในคอลัมน์ “Summer Reading” ซึ่งนำเสนอคำแนะนำหนังสือที่สร้างจากเครื่องมือ AI ของเขาเอง โดยบทความดังกล่าวมีชื่อว่า “An A.I. Summer Reading List”
อย่างไรก็ตาม ความผิดปกติถูกเปิดเผยโดยผู้อ่านและนักวิจัยเมื่อพวกเขาพบว่ารีวิวหนังสือบางส่วนในรายการนั้นคัดลอกมาทีละคำจากรีวิวหนังสือที่ ดไวต์ การ์เนอร์ (Dwight Garner) นักวิจารณ์หนังสือประจำนิวยอร์กไทมส์ เขียนไว้ในปี 2565 โดยเฉพาะรีวิวหนังสือเรื่อง “The Girls Who Went Away” โดย Dwight Garner ซึ่งเครื่องมือของโคเฮนคัดลอกข้อความยาวนานหลายประโยคโดยตรง เช่น “It’s a devastating book, one that makes you ache for these women and furious at everyone who looked the other way” ซึ่งตรงกับต้นฉบับทุกหย่อม
หลังจากถูกท้าทาย โคเฮนยอมรับว่าเขาใช้โมเดลภาษาขนาดใหญ่ Claude จากบริษัท Anthropic ในการสร้างเนื้อหา โดยเขาให้พรอมต์ (prompt) ที่ระบุให้ AI สร้างรีวิวหนังสือโดยอิงจากข้อมูลที่มีอยู่ แต่เขาอ้างว่าไม่ทราบว่า AI จะคัดลอกเนื้อหาโดยตรง และคิดว่า AI กำลังสรุปหรือสร้างสรรค์ใหม่จากข้อมูลที่ฝึกฝนมา โคเฮนยังชี้แจงในโพสต์บล็อกของเขาว่า “ฉันไม่รู้ว่ามันคัดลอกมา ฉันคิดว่ามันกำลังสรุปจากรีวิวหลายแหล่ง”
นิวยอร์กไทมส์ตอบสนองอย่างรวดเร็วโดยลบลิงก์บทความของโคเฮนออกจากเว็บไซต์ และลบชื่อของเขาออกจากบทความอื่นๆ ที่เคยตีพิมพ์ไปแล้ว นอกจากนี้ ยังมีแถลงการณ์จากโฆษกของนิวยอร์กไทมส์ระบุว่า “เรายึดมั่นในมาตรฐานด้านความถูกต้องและความโปร่งใสสูงสุด การกระทำดังกล่าวไม่สอดคล้องกับนโยบายของเรา” ซึ่งสะท้อนถึงจุดยืนของสำนักข่าวชั้นนำในการต่อต้านการใช้ AI ที่ขาดความโปร่งใส
เหตุการณ์นี้จุดประกายการถกเถียงในวงการสื่อมวลชนเกี่ยวกับการใช้ AI ในการผลิตเนื้อหา โดยเฉพาะประเด็นเรื่องการเปิดเผย (disclosure) และความเป็นต้นฉบับ (originality) นิวยอร์กไทมส์เองเคยฟ้องร้องบริษัท OpenAI และ Microsoft ในเดือนธันวาคม 2566 โดยกล่าวหาว่าโมเดล ChatGPT ฝึกฝนจากเนื้อหาของสำนักข่าวโดยไม่ได้รับอนุญาต ซึ่งคดีนี้ยังคงดำเนินอยู่และกลายเป็นสัญลักษณ์ของความขัดแย้งระหว่างสื่อ传统กับเทคโนโลยี AI
ในกรณีของโคเฮน การใช้ Claude ซึ่งเป็นโมเดลที่ Anthropic ออกแบบมาเพื่อหลีกเลี่ยงการสร้างเนื้อหาที่เป็นอันตรายหรือคัดลอกโดยตรง แต่ก็ยังเกิดปัญหาการคัดลอก (hallucination หรือ regurgitation) ขึ้นได้ เนื่องจากโมเดลภาษาขนาดใหญ่เหล่านี้ถูกฝึกจากข้อมูลมหาศาลบนอินเทอร์เน็ต ซึ่งรวมถึงรีวิวหนังสือจากนิวยอร์กไทมส์ด้วย นักวิจัยอย่าง เจน ซอง (Jane Sohn) จากเว็บไซต์ the-decoder ได้ทดสอบเครื่องมือของโคเฮนเพิ่มเติม พบว่ารีวิวหนังสืออื่นๆ เช่น “Swan Song” ก็คัดลอกจากรีวิวของการ์เนอร์เช่นกัน
โคเฮนซึ่งเป็นอดีตผู้อำนวยการ Digital Humanities Quarterly และมีบล็อกส่วนตัวที่ได้รับความนิยมมานานกว่า 20 ปี ได้ปิดเครื่องมือ Summer Book Machine ลงแล้ว และออกแถลงการณ์ขอโทษต่อสาธารณะ โดยย้ำว่าเขาไม่ได้ตั้งใจให้เกิดการคัดลอก และมองว่าเป็นบทเรียนเกี่ยวกับขีดจำกัดของ AI ในปัจจุบัน อย่างไรก็ตาม บางฝ่ายวิจารณ์ว่าโคเฮนควรตรวจสอบเนื้อหาก่อนนำไปตีพิมพ์ โดยเฉพาะในสื่อชั้นนำอย่างนิวยอร์กไทมส์
เหตุการณ์นี้ยังสะท้อนถึงแนวโน้มกว้างขึ้นในอุตสาหกรรมสื่อที่กำลังเผชิญกับการบุกรุกของ AI นักเขียนและบรรณาธิการหลายคนเรียกร้องให้มีนโยบายที่ชัดเจนยิ่งขึ้น เช่น การบังคับให้เปิดเผยการใช้ AI ในทุกบทความ และการพัฒนาเครื่องมือตรวจจับเนื้อหาที่สร้างจาก AI สำหรับนิวยอร์กไทมส์ การตัดสินใจตัดสัมพันธ์กับโคเฮนเป็นสัญญาณที่ชัดเจนว่าจะไม่ยอมรับการใช้เทคโนโลยีที่เสี่ยงต่อความน่าเชื่อถือของสื่อ
นอกจากนี้ ยังมีตัวอย่างอื่นๆ ในวงการ เช่น วารสารการแพทย์ JAMA ที่เพิ่งปฏิเสธบทความที่ใช้ AI สร้างภาพประกอบโดยไม่เปิดเผย หรือสำนักข่าว Wired ที่รายงานกรณี AI สร้างเนื้อหาปลอมในช่วงเลือกตั้ง ซึ่งทั้งหมดนี้ชี้ให้เห็นถึงความจำเป็นในการกำกับดูแล AI ให้เข้มงวดยิ่งขึ้น
ในท้ายที่สุด กรณีของแดน โคเฮนและ Summer Book Machine ถือเป็นเคสตัวอย่างที่เตือนใจถึงความเสี่ยงของการใช้ AI โดยไม่ระมัดระวัง โดยเฉพาะในบริบทของสื่อที่ต้องยึดมั่นในจริยธรรมและความโปร่งใส เพื่อรักษาความไว้วางใจจากผู้อ่านในยุคดิจิทัล
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)