แอนทโรปิกเผยแพร่ซอร์สโค้ด Claude Code โดยไม่ได้ตั้งใจ ใคร ๆ ก็หาเจอได้

แอนโธรปิกเผยแพร่โค้ดต้นแบบของ Claude Code โดยไม่ได้ตั้งใจ สามารถเข้าถึงได้โดยสาธารณชน

บริษัทแอนโธรปิก (Anthropic) ผู้พัฒนาโมเดลปัญญาประดิษฐ์ Claude ที่เน้นความปลอดภัยทางปัญญาประดิษฐ์ ได้เกิดเหตุการณ์ผิดพลาดโดยเผยแพร่โค้ดต้นแบบของเครื่องมือ Claude Code ซึ่งเป็นเอเจนต์สำหรับการเขียนโค้ดใหม่ล่าสุด โดยเปิดให้สาธารณชนเข้าถึงได้บน GitHub ชั่วคราว สร้างความฮือฮาในวงการเทคโนโลยีปัญญาประดิษฐ์

เหตุการณ์นี้ถูกค้นพบโดยไซมอน วิลลิสัน (Simon Willison) นักพัฒนาและบล็อกเกอร์ชื่อดังด้านฐานข้อมูลและปัญญาประดิษฐ์ เมื่อวันที่ 29 ตุลาคม 2024 โดยเขาได้พบ repository ชื่อ anthropic-reasoning/claude-code-action ซึ่งเป็นที่เก็บโค้ดสาธารณะบน GitHub Repository ดังกล่าวเปิดให้เข้าถึงได้ประมาณหนึ่งชั่วโมง ก่อนที่แอนโธรปิกจะรีบเปลี่ยนสถานะเป็นส่วนตัวทันทีหลังจากทราบเรื่อง

Claude Code เป็นเครื่องมือเอเจนต์ใหม่ที่แอนโธรปิกเปิดตัวเมื่อสัปดาห์ที่แล้ว โดยช่วยให้โมเดล Claude สามารถแก้ไขโค้ดโดยตรงในสภาพแวดล้อม Visual Studio Code (VS Code) ของ Microsoft ทำให้ผู้ใช้สามารถมอบหมายงานเขียนโค้ดที่ซับซ้อนให้กับ AI ได้อย่างมีประสิทธิภาพ Repository ที่รั่วไหลออกมานี้ประกอบด้วยโค้ดต้นแบบทั้งหมดของ Claude Code รวมถึงสคริปต์ Python สำหรับการรันการประเมินผล (evaluations) กระบวนการประมวลผลข้อมูล (data processing pipelines) และตรรกะหลักของเอเจนต์ (core agent logic)

ตามที่วิลลิสันระบุในบล็อกของเขา Repository นี้มีประวัติการ commit (commit history) ที่แสดงถึงกระบวนการพัฒนาภายในของแอนโธรปิก ซึ่งรวมถึงไฟล์ต่างๆ เช่น สคริปต์สำหรับจัดการข้อมูลการทดสอบ ประมวลผลชุดข้อมูลขนาดใหญ่ และโมดูลหลักที่ควบคุมการทำงานของเอเจนต์ Claude Code นอกจากนี้ ยังมีเครื่องมือสำหรับการประเมินประสิทธิภาพ ซึ่งช่วยให้ทีมพัฒนาของแอนโธรปิกทดสอบความสามารถของเอเจนต์ในการแก้ไขโค้ดจริง

โชคดีที่ repository นี้ไม่มีกุญแจ API (API keys) หรือข้อมูลลับอื่นๆ ที่อาจก่อให้เกิดความเสี่ยงด้านความปลอดภัย อย่างไรก็ตาม การเปิดเผยรายละเอียดการ implement ภายในเหล่านี้ยังคงถือเป็นเรื่องละเอียดอ่อน โดยเฉพาะอย่างยิ่งสำหรับบริษัทอย่างแอนโธรปิกที่ยึดมั่นในหลักการความปลอดภัยทางปัญญาประดิษฐ์ (AI safety) และมักวิจารณ์คู่แข่งอย่าง OpenAI ในประเด็นนี้ การรั่วไหลดังกล่าวอาจเปิดโอกาสให้ผู้ไม่ประสงค์ดีศึกษากลไกการทำงานภายในของ Claude Code ซึ่งอาจนำไปสู่การวิเคราะห์จุดอ่อนหรือการเลียนแบบ

แอนโธรปิกยืนยันอย่างเป็นทางการว่าเหตุการณ์นี้เกิดจากความผิดพลาดโดยไม่ได้ตั้งใจ และได้ดำเนินการทำให้ repository เป็นส่วนตัวเรียบร้อยแล้ว บริษัทกำลังสอบสวนสาเหตุที่แท้จริงเพื่อป้องกันไม่ให้เกิดขึ้นอีก นอกจากนี้ แอนโธรปิกยังขอบคุณวิลลิสันที่แจ้งเตือนอย่างรวดเร็ว ซึ่งช่วยลดผลกระทบจากการรั่วไหล

วิลลิสันได้บันทึกภาพหน้าจอและข้อมูลสำคัญจาก repository ก่อนที่มันจะถูกลบ โดยเขาเน้นย้ำว่าการค้นพบนี้เกิดขึ้นโดยบังเอิญขณะที่เขากำลังสำรวจ repository ใหม่ๆ บน GitHub ของแอนโธรปิก เขาได้เผยแพร่รายละเอียดเพิ่มเติมในบล็อกส่วนตัวที่ simonwillison.net ซึ่งรวมถึงตัวอย่างโค้ดบางส่วนและคำอธิบายโครงสร้าง โดยไม่เปิดเผยข้อมูลที่ละเอียดอ่อนเกินไป

เหตุการณ์นี้เกิดขึ้นท่ามกลางกระแสความสนใจใน Claude Code ซึ่งเพิ่งเปิดตัวและได้รับการตอบรับที่ดีจากนักพัฒนา เนื่องจากช่วยลดภาระงานในการเขียนโค้ด routine และจัดการโปรเจกต์ขนาดใหญ่ Claude Code ทำงานโดยผสานรวมกับ VS Code ผ่าน extension ทำให้ AI สามารถอ่าน วิเคราะห์ และแก้ไขไฟล์โค้ดได้โดยตรง โดยไม่ต้องคัดลอกโค้ดไปมาระหว่างเครื่องมือต่างๆ

จากมุมมองทางธุรกิจ การรั่วไหลของโค้ดต้นแบบเช่นนี้ถือเป็นความเสี่ยงที่องค์กรเทคโนโลยีต้องเผชิญ โดยเฉพาะในยุคที่การแข่งขันด้าน AI รุนแรง แม้แอนโธรปิกจะมีชื่อเสียงด้านความปลอดภัย แต่เหตุการณ์นี้ชี้ให้เห็นถึงความท้าทายในการจัดการ repository ภายใน โดยเฉพาะเมื่อทีมพัฒนาทำงานอย่างเร่งด่วนเพื่อเปิดตัวผลิตภัณฑ์ใหม่ ผู้เชี่ยวชาญแนะนำให้ใช้เครื่องมือ автоматизация เช่น GitHub Actions และการตรวจสอบสิทธิ์แบบละเอียด เพื่อป้องกันข้อผิดพลาดมนุษย์

นอกจากนี้ ยังสะท้อนถึงความสำคัญของชุมชนโอเพ่นซอร์ส (open source community) ที่นักพัฒนาอย่างวิลลิสันช่วยกันเฝ้าระวังและแจ้งเตือน แทนที่จะนำข้อมูลไปใช้ในทางที่ผิด สิ่งนี้ช่วยเสริมสร้างความไว้วางใจระหว่างบริษัท AI กับสาธารณะ

แอนโธรปิกยังคงมุ่งมั่นพัฒนา Claude Code ให้สมบูรณ์ยิ่งขึ้น โดยคาดว่าจะมีการอัปเดตเพิ่มเติมในอนาคตอันใกล้ เพื่อยกระดับประสิทธิภาพในการเขียนโค้ดสำหรับผู้ใช้ธุรกิจและนักพัฒนา เหตุการณ์ครั้งนี้แม้จะเป็นอุบัติเหตุ แต่ก็เป็นบทเรียนราคาถูกสำหรับอุตสาหกรรม AI โดยรวม

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)