อเมซอนใช้วิศวกรอาวุโสเป็นตัวกรองมนุษย์สำหรับโค้ดที่สร้างโดย ai หลังเกิดเหตุขัดข้องหลายครั้ง

อเมซอนกำหนดให้วิศวกรอาวุโสทำหน้าที่เป็นตัวกรองมนุษย์สำหรับโค้ดที่สร้างโดยปัญญาประดิษฐ์ หลังเกิดเหตุขัดข้องหลายครั้ง

ในช่วงหลัง อเมซอนได้ออกนโยบายใหม่ที่เข้มงวด โดยกำหนดให้วิศวกรอาวุโสต้องตรวจสอบโค้ดทั้งหมดที่สร้างโดยเครื่องมือปัญญาประดิษฐ์ (AI) ก่อนนำไปใช้งานจริงในระบบโปรดักชัน (production) นโยบายนี้เกิดขึ้นหลังจากเกิดเหตุขัดข้องในระบบหลายครั้ง ซึ่งมีสาเหตุหลักมาจากโค้ดที่สร้างโดย AI โดยเฉพาะเครื่องมือ Amazon Q Developer ที่อเมซอนพัฒนาขึ้นเพื่อช่วยเหลือการเขียนโปรแกรม

เอกสารภายในหรือเมโมที่รั่วไหลออกมา มีการลงนามโดยสตีฟ เคสเซล (Steve Kessel) รองประธานอาวุโสฝ่ายอุปกรณ์และบริการ (SVP of Devices and Services) และรองประธานฝ่าย Prime Video ของอเมซอน เอกสารดังกล่าวแจ้งให้ทีมงานทราบถึงปัญหาที่เกิดขึ้น โดยระบุว่ามีเหตุการณ์หลายครั้งที่โค้ดจาก Amazon Q Developer นำไปสู่การขัดข้องของระบบ ซึ่งส่งผลกระทบต่อการดำเนินงานหลักของบริษัท

ตามนโยบายใหม่ วิศวกรทุกคนต้องระบุชัดเจนในระบบจัดการโค้ด เช่น GitHub หรือเครื่องมือที่เกี่ยวข้อง ว่าโค้ดชิ้นนั้นเป็นผลงานที่เขียนโดยมนุษย์หรือสร้างโดย AI หากเป็นโค้ดที่สร้างโดย AI จะต้องได้รับการตรวจสอบและอนุมัติจากวิศวกรระดับ Principal Engineer หรือตำแหน่งที่สูงกว่า ก่อนที่จะนำไป deploy หรือใช้งานในสภาพแวดล้อมจริง นโยบายนี้มีผลบังคับใช้ทันที เพื่อป้องกันความเสี่ยงที่อาจเกิดจากข้อผิดพลาดของ AI เช่น การ “หลอน” (hallucination) หรือการสร้างโค้ดที่ไม่ถูกต้องตามหลักการทางเทคนิค

เหตุการณ์ขัดข้องที่เกิดขึ้น ล้วนเชื่อมโยงกับการใช้งาน Amazon Q Developer ซึ่งเป็นเครื่องมือ AI สำหรับนักพัฒนาโปรแกรมที่อเมซอนเปิดตัวเพื่อเพิ่มประสิทธิภาพในการเขียนโค้ด เครื่องมือนี้สามารถสร้างโค้ดได้อย่างรวดเร็ว แต่ในทางปฏิบัติกลับพบว่ามีข้อจำกัด โดยเฉพาะในส่วนของความน่าเชื่อถือและความปลอดภัย Amazon Q Developer ออกแบบมาเพื่อช่วยเหลือวิศวกรในการสร้างโค้ดเบื้องต้น ทดสอบ และแก้ไขบั๊ก แต่เมื่อนำไปใช้งานจริงโดยไม่มีการตรวจสอบที่เข้มงวด ก็ก่อให้เกิดปัญหา เช่น ระบบล่มหรือประสิทธิภาพลดลง ซึ่งส่งผลกระทบต่อบริการหลักอย่าง Prime Video และส่วนอื่นๆ ของอเมซอน

เมโมของเคสเซลเน้นย้ำถึงความสำคัญของการมี “ตัวกรองมนุษย์” (human filter) โดยชี้ให้เห็นว่าปัญญาประดิษฐ์ยังไม่สามารถทดแทนการตัดสินใจของมนุษย์ได้อย่างสมบูรณ์ โดยเฉพาะในงานที่เกี่ยวข้องกับระบบขนาดใหญ่และซับซ้อนของอเมซอน นโยบายนี้จึงกำหนดให้วิศวกรอาวุโส ซึ่งมีประสบการณ์และความเชี่ยวชาญสูง ทำหน้าที่ตรวจสอบ เพื่อให้มั่นใจว่าโค้ดทุกชิ้นที่เข้าสู่โปรดักชันมีคุณภาพและปลอดภัย

นอกจากนี้ เอกสารยังกำหนดแนวปฏิบัติที่ชัดเจนสำหรับกระบวนการตรวจสอบ โดยวิศวกรระดับ Principal Engineer หรือสูงกว่านั้น ต้องตรวจสอบด้านต่างๆ เช่น ความถูกต้องของตรรกะโค้ด ความเข้ากันได้กับระบบ现有 ความปลอดภัยทางไซเบอร์ และประสิทธิภาพโดยรวม หากพบข้อบกพร่อง ต้องแก้ไขก่อนอนุมัติ นโยบายนี้ไม่เพียงแต่แก้ปัญหาเฉพาะหน้า แต่ยังเป็นมาตรการเชิงป้องกันระยะยาว เพื่อลดความเสี่ยงจากการพึ่งพา AI มากเกินไปในกระบวนการพัฒนาซอฟต์แวร์

การเปลี่ยนแปลงนี้สะท้อนถึงแนวโน้มในอุตสาหกรรมเทคโนโลยีที่ใหญ่ขึ้น โดยบริษัทชั้นนำหลายแห่งเริ่มตระหนักถึงข้อจำกัดของ AI generative เช่น ChatGPT หรือเครื่องมือคล้ายกันในการสร้างโค้ด อเมซอนซึ่งเป็นผู้นำด้านคลาวด์คอมพิวติ้งผ่าน AWS ยิ่งต้องรักษามาตรฐานสูงสุด เนื่องจากระบบของบริษัทรองรับผู้ใช้หลายล้านคนทั่วโลก เหตุการณ์ขัดข้องเพียงครั้งเดียวอาจก่อให้เกิดความเสียหายทางการเงินและชื่อเสียงมหาศาล

อย่างไรก็ตาม นโยบายนี้ยังคงเปิดโอกาสให้ใช้ Amazon Q Developer ต่อไป แต่ภายใต้การกำกับดูแลที่เข้มงวดยิ่งขึ้น ซึ่งช่วยรักษาสมดุลระหว่างนวัตกรรมจาก AI และความน่าเชื่อถือจากมนุษย์ สุดท้ายแล้ว การตัดสินใจนี้อาจเป็นตัวอย่างให้บริษัทอื่นๆ นำไปปรับใช้ เพื่อรับมือกับความท้าทายในยุค AI ที่กำลังเติบโตอย่างรวดเร็ว

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)