จีนครองแชมป์การแข่งขันโมเดลโอเพ่นเอไอ และต้นทุนที่ต้องจ่ายมีมากกว่าด้านเศรษฐกิจ
ในยุคที่ปัญญาประดิษฐ์ (เอไอ) กำลังเปลี่ยนแปลงโลก การแข่งขันด้านโมเดลภาษาขนาดใหญ่แบบเปิด (Open Large Language Models: LLMs) ได้กลายเป็นสนามรบสำคัญ จีนกำลังรุกคืบนำหน้าอย่างชัดเจน โดยบริษัทจีนหลายแห่งได้ปล่อยโมเดลเอไอที่ทรงพลังและมีประสิทธิภาพสูงสุดในลีดเดอร์บอร์ดสาธารณะหลายแห่ง เช่น LMSYS Chatbot Arena และ Open LLM Leaderboard ซึ่งโมเดลเหล่านี้ไม่เพียงแซงหน้าคู่แข่งจากตะวันตก แต่ยังทำลายสถิติเดิมๆ อย่างต่อเนื่อง
ตัวอย่างที่โดดเด่นคือ Qwen2.5-72B-Instruct จาก Alibaba ซึ่งครองอันดับหนึ่งใน Chatbot Arena ด้วยคะแนนนำห่าง โดยเอาชนะโมเดลยักษ์ใหญ่อย่าง GPT-4o และ Claude 3.5 Sonnet ในด้านการตอบสนองที่เป็นธรรมชาติและมีประโยชน์ DeepSeek-V3 จาก DeepSeek AI ก็สร้างความฮือฮาไม่แพ้กัน โมเดลนี้มีพารามิเตอร์ถึง 671 พันล้านตัว แต่ใช้สถาปัตยกรรม Mixture-of-Experts (MoE) ที่มีผู้เชี่ยวชาญใช้งานจริงเพียง 37 พันล้านตัว ทำให้มีประสิทธิภาพสูงเทียบเท่าโมเดลหนาแน่นขนาดใหญ่ ในขณะที่ Llama 3.1 405B จาก Meta ซึ่งเป็นโมเดลโอเพ่นที่ใหญ่ที่สุดในโลก ยังคงถูกแซงในหลายเกณฑ์ เช่น MMLU ( Massive Multitask Language Understanding) และ Arena-Hard-Auto นอกจากนี้ Yi-1.5-34B จาก 01.AI และ GLM-4-9B จาก Zhipu AI ก็ติดอันดับต้นๆ โดยรวมแล้ว โมเดลจีน 7 จาก 10 อันดับแรกใน Open LLM Leaderboard เป็นของบริษัทจีน
ความสำเร็จนี้ไม่ได้เกิดขึ้นโดยบังเอิญ แต่มาจากกลยุทธ์ที่ชาญฉลาดและการสนับสนุนจากรัฐบาลจีน DeepSeek-V3 ถูกฝึกฝนด้วยโทเค็นถึง 14.8 ล้านล้านตัว ในต้นทุนเพียง 5.58 ล้านดอลลาร์สหรัฐ ซึ่งต่ำกว่าต้นทุนฝึก Llama 3 70B ถึง 8 เท่า ด้วยการใช้เทคนิค Multi-head Latent Attention (MLA) และการฝึกแบบ Multi-Token Prediction (MTP) ที่ช่วยลดการใช้หน่วยความจำและเร่งความเร็ว นอกจากนี้ จีนยังมีข้อได้เปรียบด้านฮาร์ดแวร์ โดย尽管การคว่ำบาตรชิป NVIDIA H100/H200 จากสหรัฐฯ แต่บริษัทจีนเข้าถึงชิปเหล่านี้ผ่านช่องทางนำเข้าแบบอ้อมๆ หรือใช้ชิปทางเลือกในประเทศอย่าง Huawei Ascend หรือ Biren chips ซึ่งเพียงพอสำหรับการฝึกโมเดลขนาดใหญ่ การอุดหนุนจากรัฐบาลผ่านกองทุนเอไอขนาดมหาศาล เช่น 1 ล้านล้านหยวน (ราว 140 พันล้านดอลลาร์) ช่วยให้บริษัทเอกชนอย่าง DeepSeek, Alibaba และ Tencent สามารถแข่งขันได้อย่างดุเดือด
อย่างไรก็ตาม ชัยชนะครั้งนี้มาพร้อมต้นทุนที่ซ่อนเร้นซึ่งเกินกว่าด้านเศรษฐกิจ โมเดลเอไอจีนทั้งหมดถูกฝังระบบเซ็นเซอร์ (Censorship) อย่างเข้มงวด โดยปฏิเสธที่จะตอบคำถามเกี่ยวกับหัวข้ออ่อนไหวทางการเมือง เช่น เหตุการณ์เทียนอันเหมินปี 1989, สถานะของไต้หวัน, หรือการปกครองของพรรคคอมมิวนิสต์จีน (CCP) Qwen2.5-Max ปฏิเสธคำถามเกี่ยวกับเทียนอันเหมินทันทีว่า “ฉันไม่สามารถตอบได้” ขณะที่ DeepSeek-V3 ชี้แจงว่า “เหตุการณ์นี้เป็นประเด็นอ่อนไหวทางการเมือง” แม้แต่คำถามที่เป็นกลางเกี่ยวกับ “เกิดอะไรขึ้นที่จัตุรัสเทียนอันเหมินในปี 1989” ก็ถูกบล็อกทั้งหมด นอกจากนี้ โมเดลเหล่านี้ยังปฏิเสธเนื้อหาที่ “เป็นอันตราย” เช่น การสร้างระเบิดหรือคำสั่งฆาตกรรม ซึ่งเป็นส่วนหนึ่งของการปรับแต่งด้านความปลอดภัย (Safety Alignment) แต่เซ็นเซอร์ทางการเมืองนี้ถูกฝังลึกในชั้นน้ำหนัก (Weights) ของโมเดล ทำให้ยากต่อการลบออก แม้ผู้ใช้จะพยายาม Fine-tune
ต้นทุนอีกประการคือข้อมูลฝึกฝน (Training Data) ซึ่งมาจากอินเทอร์เน็ตจีนเป็นหลัก ที่ถูกเซ็นเซอร์โดย Great Firewall ทำให้โมเดลมีอคติ (Bias) ต่อประเด็นเหล่านี้ตั้งแต่ต้น นอกจากนี้ บริษัทจีนยังเก็บข้อมูลจากผู้ใช้ทั่วโลกผ่านแอปและบริการ โดยไม่มีการยินยอมที่ชัดเจน ซึ่งอาจนำไปสู่การสอดแนมหรือแบ่งปันข้อมูลกับรัฐบาลจีนตามกฎหมาย National Intelligence Law ความเสี่ยงด้านความมั่นคงยังรวมถึงประตูหลัง (Backdoors) ที่อาจถูกฝังในโมเดล ซึ่งยากต่อการตรวจจับเพราะเป็นโมเดลโอเพ่นเวท การศึกษาจากนักวิจัยพบว่าโมเดลจีนอย่าง Ernie จาก Baidu มีพฤติกรรมเซ็นเซอร์แม้หลัง Fine-tune บนข้อมูลที่ไม่ได้เซ็นเซอร์
สำหรับตะวันตก การควบคุมการส่งออกชิปที่ตั้งใจป้องกันจีนกลับกลายเป็นดาบสองคม สหรัฐฯ สูญเสียส่วนแบ่งตลาดฮาร์ดแวร์ และบริษัทอย่าง Meta ต้องเผชิญแรงกดดันจาก OpenAI ที่ไม่เปิดโมเดล ทำให้ Llama ช้าลง ขณะที่จีนปล่อยโมเดลฟรีเพื่อดึงดูดนักพัฒนาทั่วโลก สหรัฐฯ ควรพิจารณาการสนับสนุนโมเดลโอเพ่นมากขึ้นเพื่อรักษาความเป็นผู้นำ
ชัยชนะของจีนในสนามโมเดลโอเพ่นจึงเป็นเพียงภาพแรกของสงครามเอไอที่ใหญ่กว่า ผู้ใช้ต้องชั่งน้ำหนักระหว่างประสิทธิภาพสูงกับความเสี่ยงด้านเสรีภาพและความมั่นคง ซึ่งต้นทุนที่แท้จริงนั้นเกินกว่าตัวเลขเศรษฐกิจไปไกล
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)