หกอัจฉริยภาพปัญญาประดิษฐ์ยอดเยี่ยมวิเคราะห์ความตื่นเต้น ความหวัง และความเป็นจริงเบื้องหลังสาขา

หกปรมาจารย์ AI วิเคราะห์สถานการณ์จริง เบื้องหลังกระแส และความคาดหวัง ต่อการพัฒนาปัญญาประดิษฐ์

ในเวทีสัมมนาระดับโลกด้าน AI ที่กรุงลอนดอน สหราชอาณาจักร ได้มีการรวบรวมสุดยอดผู้นำทางความคิดในวงการปัญญาประดิษฐ์ (Artificial Intelligence: AI) เพื่อถกเถียงและวิเคราะห์ทิศทางในปัจจุบันของอุตสาหกรรม โดยเฉพาะอย่างยิ่งการแยกแยะระหว่างกระแสโฆษณาชวนเชื่อ (Hype) ความคาดหวังที่สมจริง (Hope) และความเป็นจริงทางเทคนิค (Reality) ที่อยู่เบื้องหลังความก้าวหน้าอย่างรวดเร็วของ AI และ Generative AI

ความเข้าใจที่ถูกต้องเกี่ยวกับ “อัจฉริยะ” ของ AI

ศาสตราจารย์ Max Tegmark จาก MIT และผู้ก่อตั้ง Future of Life Institute ได้เปิดประเด็นเกี่ยวกับการนิยามความสำเร็จของ AI โดยเน้นย้ำว่า แม้ AI จะสามารถสร้างผลงานที่น่าทึ่งได้ แต่มันยังขาดความสามารถในการคิดเชิงเหตุผล (Common Sense Reasoning) และการอธิบายตนเอง (Explainability) อย่างแท้จริง การประเมินความสามารถของ AI ควรอยู่บนพื้นฐานของประสิทธิภาพในการปฏิบัติงานจริง มากกว่าคำกล่าวอ้างทางมาร์เก็ตติ้ง

ด้าน Yann LeCun หัวหน้านักวิทยาศาสตร์ AI ของ Meta และหนึ่งในผู้บุกเบิกด้าน Deep Learning ได้ย้ำถึงช่องว่างระหว่าง AI ที่มีอยู่ปัจจุบัน (Narrow AI) ซึ่งเก่งกาจในงานเฉพาะด้าน กับเป้าหมายสูงสุดคือปัญญาประดิษฐ์ทั่วไป (Artificial General Intelligence: AGI) LeCun ชี้ว่า การสร้าง AGI อาจจะต้องอาศัยแนวคิดทางสถาปัตยกรรมใหม่ๆ ที่แตกต่างอย่างสิ้นเชิงจากแบบจำลองภาษาขนาดใหญ่ (Large Language Models: LLMs) ที่ใช้อยู่ในปัจจุบัน

การเปลี่ยนผ่านจาก “LLMs” สู่ “AGI” และความท้าทายด้านความปลอดภัย

Geoffrey Hinton หรือที่ได้รับการขนานนามว่าเป็น “Godfather of AI” ได้แสดงความกังวลอย่างเปิดเผยเกี่ยวกับความเสี่ยงที่อาจเกิดขึ้นจาก AI ในอนาคต โดยเฉพาะอย่างยิ่งเมื่อระบบ AI เริ่มมีความสามารถในการเรียนรู้ด้วยตนเองและตั้งเป้าหมายของตนเองได้ (Self-Improvement) Hinton เรียกร้องให้มีการลงทุนอย่างเร่งด่วนในการวิจัยด้านการวางแนวทาง (Alignment) เพื่อให้แน่ใจว่าการพัฒนา AI อยู่ภายใต้การควบคุมและเป็นไปตามผลประโยชน์ของมนุษย์ การหยุดยั้งการพัฒนาอย่างสมบูรณ์อาจไม่ใช่ทางออก แต่การกำกับการพัฒนาที่ปลอดภัยที่สุดเป็นสิ่งสำคัญยิ่ง

Dario Amodei ซีอีโอและผู้ร่วมก่อตั้ง Anthropic ได้ให้มุมมองในฐานะผู้นำด้านการสร้าง AI ที่คำนึงถึงความปลอดภัย (Safety-focused AI) โดยเน้นย้ำถึงความจำเป็นในการสร้าง “AI Constitutional” หรือกรอบการทำงานด้านจริยธรรมที่ถูกฝังไว้ในตัวแบบจำลอง เพื่อจำกัดขอบเขตพฤติกรรมของ AI ให้สอดคล้องกับคุณค่าของสังคม การเข้าถึง AGI จะต้องมาพร้อมกับความเข้าใจในความเสี่ยงที่เพิ่มขึ้น ซึ่งจำเป็นต้องอาศัยการกำกับดูแลเชิงรุก

ผลกระทบทางเศรษฐกิจและมุมมองของผู้ใช้งานระดับองค์กร

Brad Smith ประธานและรองประธาน Microsoft ได้ให้มุมมองจากภาคธุรกิจ โดยเน้นย้ำถึงความเร็วในการนำ AI เข้ามาพลิกโฉมการดำเนินงานขององค์กรต่างๆ Smith ชี้ว่า AI ไม่ได้เป็นเพียงเครื่องมือเสริม แต่เป็นแพลตฟอร์มการประมวลผลรูปแบบใหม่ (New Computing Paradigm) ที่จะเพิ่มประสิทธิภาพการทำงานและสร้างนวัตกรรมในแทบทุกอุตสาหกรรม การลงทุนในการฝึกอบรมบุคลากรเพื่อทำงานร่วมกับ AI จึงเป็นกุญแจสำคัญสู่การแข่งขัน

Miriam Vogel อดีตผู้ช่วยอัยการสูงสุดของสหรัฐฯ และผู้อำนวยการ National AI Advisory Committee (NAIAC) ได้นำเสนอประเด็นทางด้านนโยบาย โดยเน้นย้ำถึงความจำเป็นที่ภาครัฐจะต้องปรับตัวอย่างรวดเร็วในการกำหนดกรอบการกำกับดูแลที่สมดุล การกำกับดูแลไม่ควรเป็นอุปสรรคต่อการสร้างนวัตกรรม แต่ในขณะเดียวกันก็ต้องปกป้องสาธารณชนจากอคติ (Bias) และความไม่เป็นธรรมที่อาจเกิดขึ้นจากระบบ AI โดยเฉพาะอย่างยิ่งในบริบทของการตัดสินใจที่สำคัญทางสังคมและเศรษฐกิจ

โดยสรุป ผู้เชี่ยวชาญทั้งหกท่านมีความเห็นพ้องต้องกันว่า AI อยู่ในช่วงหัวเลี้ยวหัวต่อของการพัฒนา การแยกแยะระหว่างกระแสความตื่นเต้นกับความก้าวหน้าทางเทคนิคที่แท้จริง และการให้ความสำคัญสูงสุดกับการวิจัยด้านความปลอดภัยและความสอดคล้องทางจริยธรรม ถือเป็นภารกิจสำคัญที่ไม่สามารถประนีประนอมได้ เพื่อประกันว่าอนาคตของ AI จะเป็นไปเพื่อประโยชน์ของมนุษยชาติอย่างแท้จริง

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)