ดัชนี AI ปี 2569 ของสแตนฟอร์ดเผยความก้าวหน้าอย่างรวดเร็ว ความกังวลด้านความปลอดภัยที่เพิ่มขึ้น และความเชื่อมั่นของสาธารณชนที่ลดลง
รายงานดัชนีปัญญาประดิษฐ์ (AI Index) ปี 2569 ที่จัดทำโดยสถาบันฮิวแมนเซนtered AI (HAI) ของมหาวิทยาลัยสแตนฟอร์ด ได้สะท้อนภาพรวมของอุตสาหกรรม AI ทั่วโลก โดยเน้นย้ำถึงความก้าวหน้าทางเทคนิคที่เกิดขึ้นอย่างรวดเร็ว ขณะเดียวกันก็ชี้ให้เห็นถึงความท้าทายที่เพิ่มขึ้นในด้านความปลอดภัยและความเชื่อมั่นจากสาธารณชน รายงานนี้รวบรวมข้อมูลจากแหล่งต่างๆ กว่า 7,500 แหล่ง โดยครอบคลุมเมตริกกว่า 400 รายการ เพื่อให้ภาพที่ครบถ้วนและเป็นกลางเกี่ยวกับสถานะปัจจุบันของ AI
ความก้าวหน้าทางเทคนิคที่เร่งตัวขึ้น
หนึ่งในจุดเด่นหลักของรายงานคือการพัฒนาขีดความสามารถของโมเดล AI ที่ก้าวกระโดด โดยเฉพาะในด้านการทดสอบประสิทธิภาพ (benchmarks) ต่างๆ โมเดลขนาดใหญ่ เช่น GPT-4o, Claude 3.5 Sonnet และ Gemini 1.5 Pro ได้ทำลายสถิติในหลายการทดสอบมาตรฐาน เช่น MMLU ( Massive Multitask Language Understanding) ซึ่งวัดความสามารถในการทำความเข้าใจภาษาและเหตุผล ทำให้ AI สามารถทำคะแนนได้สูงกว่ามนุษย์ในงานที่หลากหลายมากขึ้น
รายงานระบุว่า ในปี 2568 AI ได้เกินขีดจำกัดของมนุษย์ใน 85% ของการทดสอบประสิทธิภาพ 35 รายการที่ติดตาม ซึ่งเพิ่มขึ้นจาก 48% ในปี 2566 และ 62% ในปี 2567 การพัฒนานี้เกิดจากความก้าวหน้าของโมเดล multimodal ที่สามารถประมวลผลข้อมูลหลายรูปแบบ เช่น ข้อความ รูปภาพ เสียง และวิดีโอได้พร้อมกัน นอกจากนี้ ค่าใช้จ่ายในการฝึกโมเดลขนาดใหญ่ยังลดลงอย่างมาก โดยต้นทุนเฉลี่ยสำหรับการฝึกโมเดลชั้นนำลดลงเหลือ 27.7 ล้านดอลลาร์สหรัฐ จาก 49.2 ล้านดอลลาร์สหรัฐในปีก่อนหน้า สะท้อนถึงประสิทธิภาพที่สูงขึ้นในการใช้ทรัพยากรคอมพิวเตอร์
ในด้านการใช้งานจริง AI ได้ถูกนำไปประยุกต์ในอุตสาหกรรมต่างๆ มากขึ้น โดยเฉพาะในภาคธุรกิจและการแพทย์ เช่น การใช้ AI ในการวินิจฉัยโรคที่แม่นยำยิ่งขึ้น หรือการ automate กระบวนการผลิต รายงานยังชี้ว่า จำนวนบริษัทสตาร์ทอัพ AI ทั่วโลกเพิ่มขึ้นเป็น 70,000 แห่งในปี 2568 โดยจีนและสหรัฐอเมริกายังคงครองส่วนแบ่งตลาดหลัก
ความกังวลด้านความปลอดภัยที่ทวีความรุนแรง
แม้จะมีความก้าวหน้าทางเทคนิค แต่รายงานดัชนี AI ปี 2569 ก็เน้นย้ำถึงความเสี่ยงที่เพิ่มขึ้น โดยเฉพาะในด้านความปลอดภัย (AI safety) การสำรวจพบว่า บริษัท AI ชั้นนำ มากกว่า 70% ได้เพิ่มการลงทุนในด้านความปลอดภัยและการกำกับดูแล (governance) ขึ้นจากปีก่อนหน้า สิ่งนี้เกิดจากเหตุการณ์ที่เพิ่มขึ้น เช่น การโจมตีทางไซเบอร์ที่ใช้ AI หรือการสร้างเนื้อหาปลอม (deepfakes) ที่แพร่กระจายอย่างรวดเร็ว
รายงานได้ติดตามเมตริกใหม่ๆ เช่น อัตราการปฏิเสธคำขอที่เป็นอันตราย (refusal rates) ของโมเดล AI ซึ่งพบว่าบางโมเดลปฏิเสธคำขอที่เสี่ยงภัยได้ดีขึ้น แต่ยังมีช่องโหว่ โดยเฉพาะในโมเดล open-source นอกจากนี้ องค์กรระหว่างประเทศ เช่น สหประชาชาติและ OECD ได้ออกแนวทางกำกับดูแล AI ใหม่ๆ มากถึง 45 ฉบับในปี 2568 ซึ่งเพิ่มขึ้น 2 เท่าจากปีก่อน สะท้อนถึงความตื่นตัวระดับโลกต่อความเสี่ยง เช่น การใช้ AI ในอาวุธอัตโนมัติ หรือการ bias ในระบบตัดสินใจอัตโนมัติ
ความเชื่อมั่นของสาธารณชนที่ลดลง
อีกประเด็นสำคัญคือ การสำรวจความคิดเห็นสาธารณชนที่แสดงถึงความเชื่อมั่นใน AI ที่ลดลง ในสหรัฐอเมริกา 43% ของผู้ตอบแบบสอบถามเชื่อว่า AI จะส่งผลกระทบเชิงบวกต่อชีวิตประจำวัน ลดลงจาก 56% ในปี 2566 เช่นเดียวกับในยุโรปและเอเชียที่แนวโน้มคล้ายกัน โดยเฉพาะในกลุ่มประเทศกำลังพัฒนาที่กังวลเรื่องการสูญเสียงานมากขึ้น รายงานชี้ว่า สาเหตุหลักมาจากข่าวสารเชิงลบ เช่น การเลิกจ้างจาก AI ในภาคเทคโนโลยี และความกลัวต่อการสูญเสียการควบคุม
นอกจากนี้ การสำรวจในหมู่นักวิจัย AI พบว่า 52% เชื่อว่าองค์กรของตนมีแรงจูงใจในการแสวงหาผลกำไรมากเกินไป ขณะที่ 68% มองว่าความปลอดภัยไม่ได้รับการจัดการอย่างเพียงพอ สิ่งเหล่านี้ชี้ให้เห็นถึงช่องว่างระหว่างความก้าวหน้าทางเทคนิคกับการยอมรับทางสังคม
ผลกระทบทางเศรษฐกิจและการลงทุน
ในด้านเศรษฐกิจ รายงานระบุว่าการลงทุนใน AI ทั่วโลกพุ่งสูงเป็นประวัติการณ์ที่ 189 พันล้านดอลลาร์สหรัฐในปี 2568 เพิ่มขึ้น 23% จากปีก่อน โดยสหรัฐฯ ครองส่วนแบ่ง 61% รองลงมาคือจีนที่ 15% บริษัทเอกชน เช่น OpenAI, Anthropic และ xAI ได้รับเงินทุนมหาศาล สะท้อนถึงศักยภาพทางธุรกิจ อย่างไรก็ตาม การลงทุนใน AI safety ยังคงต่ำ เพียง 6% ของเงินทุนทั้งหมด
รายงานยังติดตามผลกระทบต่อการจ้างงาน โดยพบว่า ตำแหน่งงานที่เกี่ยวข้องกับ AI เพิ่มขึ้น 18% ในภาคเทคโนโลยี แต่ในอุตสาหกรรมอื่นๆ เช่น การผลิตและบริการ มีการลดลงเนื่องจากการ automate
บทสรุปและแนวโน้มอนาคต
ดัชนี AI ปี 2569 ของสแตนฟอร์ดยืนยันว่า AI กำลังเปลี่ยนแปลงโลกอย่างรวดเร็ว แต่จำเป็นต้องมีการกำกับดูแลที่เข้มแข็งยิ่งขึ้นเพื่อสร้างสมดุลระหว่างนวัตกรรมและความปลอดภัย รายงานแนะนำให้รัฐบาล บริษัท และชุมชนนักวิจัยร่วมมือกัน เพื่อฟื้นฟูความเชื่อมั่นและลดความเสี่ยง โดยคาดการณ์ว่าในปีต่อๆ ไป AI จะครอบคลุมงานมนุษย์ได้มากกว่า 90% หากไม่มีการแทรกแซงที่เหมาะสม
รายงานนี้เป็นเครื่องมือสำคัญสำหรับนักตัดสินใจทางธุรกิจในการวางกลยุทธ์ AI ที่ยั่งยืน โดยให้ข้อมูลเชิงลึกที่อิงตามข้อเท็จจริงเพื่อการตัดสินใจที่รอบคอบ
(จำนวนคำประมาณ 728 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)