Gemma 4 ของ Google มีให้ใช้งานแล้วด้วยใบอนุญาต Apache 2.0 เป็นครั้งแรก

Google เปิดตัว Gemma 4 พร้อมใบอนุญาต Apache 2.0 เป็นครั้งแรก

Google ได้ประกาศเปิดตัว Gemma 4 ซึ่งเป็นตระกูลโมเดลภาษาเปิด (open-weight language model) ขนาดกะทัดรัดแต่มีประสิทธิภาพสูงสุดล่าสุด โดยโมเดลเหล่านี้ถูกพัฒนาจากงานวิจัยและเทคโนโลยีเดียวกันที่ใช้สร้างโมเดล Gemini ของ Google Gemma 4 นับเป็นก้าวสำคัญในการส่งเสริมการใช้งานโมเดลภาษาเปิดให้กว้างขวางยิ่งขึ้น โดยเฉพาะอย่างยิ่งด้วยใบอนุญาต Apache 2.0 ซึ่งเป็นใบอนุญาตแบบเปิดกว้าง (permissive license) ที่อนุญาตให้ผู้ใช้สามารถนำไปใช้งานในเชิงพาณิชย์ได้อย่างอิสระมากขึ้น

Gemma 4 ประกอบด้วยโมเดลขนาดสองแบบหลัก ได้แก่ Gemma 4 9B และ Gemma 4 27B ซึ่งทั้งคู่ได้รับการปรับแต่งให้เหมาะสมสำหรับงาน instruction-tuned หรือการตอบสนองคำสั่งที่ซับซ้อน โมเดลเหล่านี้สามารถใช้งานได้ทันทีผ่านแพลตฟอร์มยอดนิยม เช่น Hugging Face, Kaggle Models และ Google AI Studio โดยผู้พัฒนาสามารถดาวน์โหลดน้ำหนักโมเดล (model weights) และโค้ดที่เกี่ยวข้องได้โดยตรง นอกจากนี้ ยังรองรับการใช้งานผ่าน Google Cloud Vertex AI เพื่อการปรับใช้ในสภาพแวดล้อมองค์กร

จุดเด่นสำคัญของ Gemma 4 คือการเปลี่ยนมาใช้ใบอนุญาต Apache 2.0 ซึ่งต่างจากใบอนุญาต Gemma License แบบกำหนดเองที่ใช้ในรุ่นก่อนหน้า ใบอนุญาต Apache 2.0 ช่วยลดข้อจำกัดในการใช้งานเชิงพาณิชย์ ทำให้บริษัทและนักพัฒนาสามารถนำโมเดลไปปรับปรุง พัฒนา หรือรวมเข้ากับผลิตภัณฑ์ของตนเองได้โดยไม่ต้องกังวลเรื่องข้อผูกมัดทางกฎหมายที่ซับซ้อน สิ่งนี้จะช่วยเร่งการนำเทคโนโลยีปัญญาประดิษฐ์ (AI) ไปใช้ในอุตสาหกรรมต่างๆ อย่างรวดเร็วและมีประสิทธิภาพ

ในด้านประสิทธิภาพ Gemma 4 แสดงศักยภาพที่เหนือชั้นเมื่อเทียบกับโมเดลขนาดใหญ่กว่า โดยอ้างอิงจากผลทดสอบบน LMSYS Chatbot Arena ซึ่งเป็นแพลตฟอร์มเปรียบเทียบโมเดลภาษายอดนิยม Gemma 4 27B ทำคะแนนได้ถึง 1,330 ELO ซึ่งสูงกว่า Llama 3.1 405B ที่ได้ 1,285 คะแนน ในขณะที่ Gemma 4 9B ก็สามารถเอาชนะ Mistral Nemo ในด้านคุณภาพการตอบสนองโดยรวม นอกจากนี้ ยังมีผลทดสอบจากแหล่งอื่นๆ เช่น Hugging Face Open LLM Leaderboard ที่ยืนยันถึงความสามารถในการจัดการงานหลากหลายประเภท เช่น การตอบคำถาม การสรุปเนื้อหา และการสร้างข้อความสร้างสรรค์

Gemma 4 ถูกออกแบบมาให้มีขนาดกะทัดรัดเพื่อให้เหมาะสมกับการใช้งานบนอุปกรณ์ที่มีทรัพยากรจำกัด เช่น แล็ปท็อปทั่วไปหรือเซิร์ฟเวอร์ขนาดกลาง โดย Gemma 4 9B ต้องการหน่วยความจำ VRAM เพียง 24GB สำหรับการใช้งานแบบ FP16 ในขณะที่ Gemma 4 27B ต้องการประมาณ 60GB ซึ่งยังคงอยู่ในระดับที่เข้าถึงได้สำหรับองค์กรขนาดกลาง นักพัฒนาสามารถทดลองใช้งานได้ง่ายผ่าน Google AI Studio โดยไม่ต้องติดตั้งซอฟต์แวร์เพิ่มเติม

ด้านความปลอดภัยและการใช้งานอย่างรับผิดชอบ (responsible AI) Google ได้รวมฟีเจอร์พิเศษไว้ใน Gemma 4 เช่น การกรองเนื้อหาที่เป็นอันตราย (safety filtering) และการทดสอบกับชุดข้อมูล SynthID สำหรับตรวจจับเนื้อหาที่สร้างโดย AI โมเดลเหล่านี้ผ่านการประเมินจากทีมงานของ Google รวมถึงการทดสอบจากภายนอกเพื่อให้มั่นใจในความน่าเชื่อถือ นอกจากนี้ ยังมีเวอร์ชันที่ปิดการกรองความปลอดภัย (ungated versions) สำหรับผู้ใช้ที่ต้องการควบคุมเอง แต่ Google แนะนำให้ใช้เวอร์ชันมาตรฐานเพื่อลดความเสี่ยง

การเปิดตัว Gemma 4 นี้เป็นส่วนหนึ่งของกลยุทธ์ของ Google ในการส่งเสริมระบบนิเวศ AI แบบเปิด (open ecosystem) โดยก่อนหน้านี้ Gemma 2 ได้รับความนิยมสูงสุดบน Kaggle โดยมีผู้ดาวน์โหลดมากกว่า 100 ล้านครั้ง ตั้งแต่เปิดตัวครั้งแรกในเดือนกุมภาพันธ์ 2024 ซึ่งสะท้อนถึงความต้องการโมเดลขนาดเล็กแต่มีประสิทธิภาพสูงในชุมชนนักพัฒนา Gemma 4 จึงยกระดับมาตรฐานใหม่ โดยเฉพาะในยุคที่การแข่งขันด้านโมเดลภาษาเปิดรุนแรงขึ้น

ผู้ที่สนใจสามารถเข้าถึง Gemma 4 ได้ทันทีผ่านลิงก์ Hugging Face ของ Google DeepMind ซึ่งมีโมเดลทั้งแบบ instruction-tuned และ base model สำหรับการ fine-tuning เพิ่มเติม นอกจากนี้ ยังมีเอกสารประกอบและตัวอย่างโค้ดที่ครบถ้วนเพื่อช่วยให้ทีมพัฒนาเริ่มใช้งานได้อย่างรวดเร็ว

การเปิดตัวนี้ไม่เพียงแต่เสริมความแข็งแกร่งให้กับตำแหน่งของ Google ในตลาด AI แบบเปิดเท่านั้น แต่ยังช่วยลดช่องว่างระหว่างโมเดลขนาดใหญ่จากบริษัทเทคโนโลยียักษ์ใหญ่กับการใช้งานจริงในองค์กรขนาดต่างๆ ทำให้เทคโนโลยี AI เข้าถึงได้มากขึ้นและสร้างโอกาสทางธุรกิจใหม่ๆ ในอนาคต

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)