Perplexity เปิดซอร์สโมเดล embedding ที่เทียบเท่า Google และ Alibaba ด้วยต้นทุนหน่วยความจำเพียงเศษเสี้ยว

Perplexity เปิดซอร์สโมเดล Embedding ที่เทียบชั้น Google และ Alibaba ด้วยหน่วยความจำเพียงเศษเสี้ยว

Perplexity AI บริษัทสตาร์ทอัพด้านปัญญาประดิษฐ์ที่โดดเด่น ได้ประกาศเปิดซอร์สโมเดลสร้าง Embedding ชุดใหม่ชื่อ “e5-mistral” ซึ่งสามารถแข่งขันกับโมเดลชั้นนำจาก Google และ Alibaba ได้อย่างสูสี โดยใช้หน่วยความจำน้อยกว่าอย่างมาก สิ่งนี้ถือเป็นก้าวสำคัญสำหรับนักพัฒนาและองค์กรที่ต้องการโมเดลประสิทธิภาพสูงแต่ประหยัดทรัพยากรคอมพิวเตอร์

โมเดล e5-mistral พัฒนาบนพื้นฐานของ Mistral-7B-v0.1 ซึ่งเป็นโมเดลขนาด 7 พันล้านพารามิเตอร์ (parameters) โดยมีเวอร์ชันหลักสามตัว ได้แก่ e5-mistral-7b-base, e5-mistral-7b-instruct และ e5-mistral-base (ขนาดเล็กลง) โมเดลเหล่านี้ได้รับการฝึกต่อเนื่อง (continued pretraining) บนชุดข้อมูลหลากหลายภาษากว่า 100 ภาษา ทำให้รองรับการใช้งานข้ามภาษาได้อย่างมีประสิทธิภาพ จากนั้นจึงปรับแต่งด้วยเทคนิค instruction tuning เพื่อให้เหมาะสมกับงานสร้าง Embedding สำหรับการค้นหาแบบ Semantic Retrieval, คำถาม-ตอบ และการจัดกลุ่มข้อมูล

ในแง่ประสิทธิภาพ โมเดล e5-mistral-7b-instruct ทำคะแนนเฉลี่ยบน MTEB Leaderboard (Massive Text Embedding Benchmark) ได้ถึง 64.48 คะแนน ซึ่งใกล้เคียงกับโมเดลชั้นนำอย่าง GTE-Qwen2-7B จาก Google (64.63 คะแนน) และ BGE-M3 จาก Alibaba (64.66 คะแนน) โดยโมเดลของ Perplexity ยังเหนือกว่าในบางหมวดหมู่ เช่น Retrieval และ Semantic Textual Similarity (STS) นอกจากนี้ e5-mistral-base ทำคะแนนได้ 63.22 ซึ่งดีกว่าโมเดลขนาดใกล้เคียงอื่นๆ อย่างมาก MTEB เป็นเกณฑ์มาตรฐานที่ครอบคลุม 56 งานย่อยใน 8 หมวดหมู่หลัก เช่น Classification, Clustering, Pair Classification, Reranking, Retrieval, Semantic Textual Similarity (STS), Summarization และ Bitext Mining ทำให้ผลการทดสอบมีความน่าเชื่อถือสูง

จุดเด่นที่สำคัญคือการใช้หน่วยความจำต่ำ โมเดล e5-mistral-7b-instruct ต้องการ VRAM เพียง 4.4 GB ในโหมด int8 quantization สำหรับการอนุมาน (inference) ซึ่งต่ำกว่าที่คาดไว้สำหรับโมเดลขนาด 7B เปรียบเทียบกับ BGE-large-en-v1.5 จาก Alibaba ที่ใช้หน่วยความจำน้อยกว่าแต่ประสิทธิภาพต่ำกว่า หรือโมเดลขนาดใหญ่จากผู้ให้บริการอื่นที่มักต้องการ GPU แรงๆ และหน่วยความจำมากกว่า นักพัฒนาสามารถรันโมเดลนี้บนเครื่องที่มี GPU ทั่วไป เช่น NVIDIA RTX 3060 หรือแม้แต่ Colab ได้โดยไม่ติดปัญหาขีดจำกัดหน่วยความจำ สิ่งนี้ช่วยลดต้นทุนการใช้งานลงอย่างมาก โดยเฉพาะสำหรับธุรกิจขนาดกลางและเล็กที่ต้องการระบบ RAG (Retrieval-Augmented Generation) หรือ Semantic Search โดยไม่ต้องพึ่งบริการคลาวด์ราคาแพง

Perplexity ได้เผยแพร่โมเดลทั้งหมดบน Hugging Face Hub ภายใต้คอลเลกชัน https://huggingface.co/collections/perplexity/e5-mistral-66b5fde357a8363a23e2a0a9 พร้อมโค้ดตัวอย่างสำหรับการใช้งาน นักพัฒนาสามารถดาวน์โหลดและปรับใช้ได้ทันที ตัวอย่างโค้ด Python ใช้ Sentence Transformers library เพื่อสร้าง Embedding จากประโยคภาษาอังกฤษหรือภาษาอื่นๆ ได้อย่างง่ายดาย โมเดลเหล่านี้ยังสืบทอดจุดแข็งของ E5 series เดิมที่ Perplexity พัฒนามาก่อนหน้านี้ โดยปรับปรุงประสิทธิภาพขึ้นอย่างเห็นได้ชัด เช่น e5-mistral-7b-instruct ดีกว่า e5-large-v2 ถึง 4 คะแนนบน MTEB

การเปิดซอร์สครั้งนี้ไม่เพียงแต่ยกระดับการแข่งขันในวงการ Embedding Models เท่านั้น แต่ยังส่งเสริมการพัฒนาโอเพ่นซอร์ส โดย Perplexity แสดงให้เห็นว่าบริษัทสามารถสร้างโมเดลที่เทียบเท่าผู้เล่นใหญ่ได้ด้วยการใช้ฐานโมเดลโอเพ่นซอร์สอย่าง Mistral และชุดข้อมูลคุณภาพสูง นักวิจัยและวิศวกรสามารถนำไปต่อยอด เช่น ผสานกับโมเดลภาษาขนาดใหญ่สำหรับแอปพลิเคชัน AI ในธุรกิจ เช่น ระบบค้นหาข้อมูลภายในองค์กร การวิเคราะห์เอกสาร หรือ chatbot ที่เข้าใจบริบทลึกซึ้ง

สำหรับธุรกิจที่กำลังมองหาโซลูชัน Embedding ประสิทธิภาพสูง การเลือก e5-mistral ถือเป็นทางเลือกที่คุ้มค่าที่สุดในปัจจุบัน ด้วยความสามารถ multilingual ที่ครอบคลุมภาษาหลักๆ รวมถึงภาษาไทยในระดับที่น่าพอใจ ประสิทธิภาพที่พิสูจน์แล้วบน benchmark มาตรฐาน และต้นทุนหน่วยความจำต่ำ ทำให้สามารถスケลได้ง่ายในสภาพแวดล้อม production การมาของโมเดลเหล่านี้จะช่วยเร่งการนำ AI ไปใช้ในภาคธุรกิจไทยและภูมิภาคเอเชีย โดยลดอุปสรรคด้านฮาร์ดแวร์ลงอย่างมีนัยสำคัญ

Perplexity ยังเน้นย้ำถึงความมุ่งมั่นในการพัฒนาโมเดลที่เข้าถึงได้สำหรับทุกคน โดยการเปิดซอร์สช่วยให้ชุมชนนักพัฒนาร่วมมีส่วนในการปรับปรุงต่อไป ส่งผลให้ ecosystem ของ Embedding Models เติบโตอย่างรวดเร็ว ในอนาคต คาดว่าจะมีเวอร์ชันปรับปรุงเพิ่มเติมที่อาจรวมฟีเจอร์ใหม่ๆ เช่น การรองรับ long-context หรือ optimization เพิ่มเติม

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)