亚马逊นำเสนอ Agentic Fine-Tuning ใน Amazon SageMaker รองรับโมเดล Llama, Qwen, DeepSeek และ Nova
Amazon Web Services (AWS) ได้ประกาศเพิ่มฟีเจอร์ Agentic Fine-Tuning ใน Amazon SageMaker JumpStart ซึ่งเป็นนวัตกรรมสำคัญสำหรับการปรับแต่งโมเดลพื้นฐาน (Foundation Models) ให้เหมาะสมกับกระบวนการทำงานแบบ Agentic Workflow โดยฟีเจอร์นี้ช่วยให้ผู้ใช้สามารถฝึกโมเดลภาษาขนาดใหญ่ (LLMs) ให้มีความสามารถในการใช้เครื่องมือ (Tool-Use) และการใช้เหตุผลเชิงซับซ้อน (Complex Reasoning) ได้อย่างมีประสิทธิภาพ โดยไม่จำเป็นต้องรวบรวมข้อมูลฝึกอบรมด้วยตนเอง
Agentic Fine-Tuning คือกระบวนการปรับแต่งโมเดลที่ใช้การสร้างข้อมูลสังเคราะห์ (Synthetic Data Generation) เพื่อผลิตชุดข้อมูลคุณภาพสูงสำหรับการฝึกเอเจนต์ AI โดยเฉพาะ กระบวนการนี้เริ่มต้นจากการเลือกโมเดลพื้นฐาน จากนั้นระบบจะสร้างข้อมูลเส้นทางการปฏิบัติงาน (Trajectories) จำนวนสูงสุด 10,000 เส้นทาง ซึ่งรวมถึงข้อมูลการใช้เครื่องมือและโซ่เหตุผล (Reasoning Chains) ที่ซับซ้อน จากนั้นจึงนำข้อมูลดังกล่าวไปฝึกปรับแต่งโมเดลให้เหมาะสมกับงานเฉพาะด้าน วิธีการนี้ช่วยลดความยุ่งยากในการเตรียมข้อมูลและเพิ่มประสิทธิภาพของเอเจนต์ AI ในสถานการณ์จริง
โมเดลที่รองรับในขณะนี้ ได้แก่ Llama 3.1 ในขนาด 8B, 70B และ 405B พารามิเตอร์ Qwen2.5 ในขนาด 7B, 14B และ 72B DeepSeek R1 รวมถึงโมเดล Nova ของ Amazon เองในเวอร์ชัน Lite, Micro และ Pro ซึ่งโมเดลเหล่านี้ได้รับการปรับให้เหมาะสมสำหรับการฝึกแบบ Agentic โดยเฉพาะ ผู้ใช้สามารถเข้าถึงโมเดลเหล่านี้ผ่าน SageMaker JumpStart ซึ่งเป็นส่วนขยายของ SageMaker Marketplace ที่ช่วยให้การค้นหา จัดการและปรับใช้โมเดลทำได้ง่ายดายยิ่งขึ้น
กระบวนการใช้งาน Agentic Fine-Tuning มีขั้นตอนที่ชัดเจนและใช้งานง่าย ดังนี้ ประการแรก ผู้ใช้เลือกโมเดลจากคลัง SageMaker JumpStart จากนั้นกำหนดพารามิเตอร์สำหรับการสร้างข้อมูลสังเคราะห์ เช่น จำนวนเส้นทาง (Trajectories) และความซับซ้อนของโซ่เหตุผล ระบบจะใช้การอนุมาน (Inference) เพื่อสร้างชุดข้อมูลคุณภาพสูง จากนั้นนำข้อมูลไปฝึกปรับแต่งโมเดลด้วย SageMaker Training Jobs ซึ่งรองรับการประมวลผลแบบกระจาย (Distributed Training) เพื่อความรวดเร็ว สุดท้าย ผู้ใช้สามารถปรับใช้โมเดลที่ฝึกแล้วผ่าน SageMaker Endpoints หรือ SageMaker Serverless Inference เพื่อใช้งานจริง
ประโยชน์หลักของฟีเจอร์นี้คือการลดต้นทุนและเวลาในการพัฒนาเอเจนต์ AI โดยปกติ การสร้างชุดข้อมูลสำหรับการฝึก Tool-Use และ Reasoning Chains ต้องใช้ความพยายามมหาศาล แต่ Agentic Fine-Tuning ช่วยสร้างข้อมูลอัตโนมัติ ทำให้ผู้พัฒนาสามารถมุ่งเน้นไปที่การปรับแต่งและการทดสอบแทน นอกจากนี้ ยังช่วยให้โมเดลมีความสามารถในการจัดการงานที่ซับซ้อน เช่น การเรียกใช้ API ภายนอก การวางแผนขั้นตอนหลายชั้น และการแก้ปัญหาแบบหลายขั้นตอน ซึ่งเป็นหัวใจของเอเจนต์ AI ในยุคปัจจุบัน
ในส่วนของการใช้งานจริง ฟีเจอร์นี้เปิดให้บริการในภูมิภาคหลักหลายแห่ง ได้แก่ US East (N. Virginia), US West (Oregon), Europe (Frankfurt), Asia Pacific (Tokyo) และ Canada (Central) ผู้ใช้สามารถเริ่มต้นได้ทันทีผ่าน AWS Management Console โดยไม่ต้องติดตั้งซอฟต์แวร์เพิ่มเติม สำหรับค่าใช้จ่าย คิดตามการใช้งานจริง โดยแบ่งเป็นสองส่วนหลัก คือ ค่า Inference สำหรับการสร้างข้อมูลสังเคราะห์ (ตามจำนวนโทเค็นที่ประมวลผล) และค่า Compute สำหรับการฝึกปรับแต่ง (ตามชั่วโมงการใช้งานインスタンス) ซึ่งมีตัวเลือกインスタンスหลากหลาย เช่น ml.g5, ml.p4d และ ml.p5 เพื่อให้เหมาะสมกับงบประมาณและขนาดงาน
AWS ยังเน้นย้ำถึงความปลอดภัยและการปฏิบัติตามมาตรฐาน โดยโมเดลทั้งหมดผ่านการตรวจสอบและปรับให้สอดคล้องกับแนวทางของ Amazon Bedrock Guardrails นอกจากนี้ SageMaker ยังรองรับการจัดการข้อมูลส่วนบุคคล (PII) และการควบคุมการเข้าถึงผ่าน IAM Roles ทำให้องค์กรสามารถใช้งานได้อย่างมั่นใจ
การนำ Agentic Fine-Tuning มาสู่ SageMaker ถือเป็นก้าวสำคัญในการทำให้เทคโนโลยีเอเจนต์ AI เข้าถึงได้ง่ายสำหรับนักพัฒนาและองค์กร โดยเฉพาะในอุตสาหกรรมที่ต้องการระบบอัตโนมัติขั้นสูง เช่น การเงิน สุขภาพ การค้าปลีกและการผลิต ผู้เชี่ยวชาญคาดการณ์ว่าฟีเจอร์นี้จะช่วยเร่งการนำ AI ไปใช้ในองค์กร ลดช่องว่างระหว่างโมเดลพื้นฐานกับการใช้งานจริง และเสริมความแข็งแกร่งให้กับระบบนิเวศ SageMaker ซึ่งเป็นแพลตฟอร์ม ML ชั้นนำของ AWS
ด้วยการรองรับโมเดลยอดนิยมจากผู้พัฒนาต่างๆ เช่น Meta (Llama), Alibaba (Qwen), DeepSeek และ Amazon เอง SageMaker JumpStart จึงกลายเป็นจุดรวมศูนย์สำหรับการพัฒนาเอเจนต์ AI ที่ครบครัน ผู้ใช้สามารถทดลองและขยายสเกลได้อย่างราบรื่น โดย AWS ยังวางแผนขยายการรองรับโมเดลเพิ่มเติมในอนาคต เพื่อตอบสนองความต้องการที่หลากหลายยิ่งขึ้น
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)