นักปรัชญาเดวิด ชาลเมอร์ส: วิธีการตีความ ai ปัจจุบันพลาดสิ่งที่สำคัญที่สุด

นักปรัชญา ดาวิด ชาลเมอร์ส ชี้ว่า วิธีการตีความ AI ในปัจจุบันมุ่งเน้นสิ่งที่ไม่ใช่ประเด็นสำคัญที่สุด

ในวงการปัญญาประดิษฐ์ (AI) การตีความหรือ interpretability กำลังเป็นหัวข้อที่ได้รับความสนใจอย่างมาก โดยเฉพาะอย่างยิ่งในยุคที่โมเดลภาษาขนาดใหญ่ (Large Language Models: LLMs) เช่น GPT-4 กำลังแสดงศักยภาพที่ซับซ้อนเกินกว่าที่มนุษย์จะคาดเดาได้ อย่างไรก็ตาม นักปรัชญาชื่อดัง ดาวิด ชาลเมอร์ส จากมหาวิทยาลัยนิวยอร์ก ได้ชี้ให้เห็นถึงข้อจำกัดสำคัญของวิธีการเหล่านี้ในการสัมภาษณ์ล่าสุดและการบรรยายของเขา ชาลเมอร์สยืนยันว่า วิธีการตีความ AI แบบกลไก (mechanistic interpretability) ที่เป็นกระแสหลักในปัจจุบัน มุ่งเน้นไปที่ระดับต่ำ เช่น การถอดรหัสวงจรประสาทเทียม (neural circuits) และคุณสมบัติเฉพาะ (features) แต่กลับละเลยสิ่งที่สำคัญที่สุด คือ โครงสร้างระดับสูง (high-level structure) ที่เป็นแก่นแท้ของความฉลาดทางปัญญา

ชาลเมอร์ส ซึ่งเป็นผู้เชี่ยวชาญด้านปรัชญาของจิตสำนึก (philosophy of mind) และผู้เขียนหนังสือชื่อดังอย่าง “The Conscious Mind” และ “Reality+: Virtual Worlds and the Problems of Philosophy” ได้อธิบายถึงความแตกต่างระหว่างการตีความระดับต่ำ (low-level interpretability) กับระดับสูง (high-level interpretability) วิธีการปัจจุบัน เช่น техникы จากทีมงานอย่าง Anthropic หรือ OpenAI มักใช้เทคนิคอย่าง activation patching หรือ dictionary learning เพื่อค้นหาว่า neuron เดียวหรือกลุ่ม neuron ทำหน้าที่อะไร เช่น การตรวจจับคำว่า “แมว” หรือรูปแบบทางไวยากรณ์ แต่ชาลเมอร์สเปรียบเทียบว่าการทำเช่นนี้ก็เหมือนกับการศึกษาสมองมนุษย์โดยการดูเซลล์ประสาทเดี่ยวๆ เพียงอย่างเดียว ซึ่งไม่สามารถอธิบายได้ว่ามนุษย์คิดหรือตัดสินใจอย่างไรในระดับแนวคิด (concepts) หรือเป้าหมาย (goals)

“การตีความแบบกลไกช่วยให้เราเข้าใจกลไกภายในของโมเดลได้ดี แต่ไม่บอกเราว่าโมเดลกำลังคิดอะไร มันเข้าใจแนวคิดอะไร และโครงสร้างความคิดของมันคืออะไร” ชาลเมอร์สกล่าวในบทสัมภาษณ์กับ The Decoder เขาย้ำว่า เพื่อเข้าใจความฉลาดของ AI จริงๆ เราต้องมองไปที่ " семантическая интерпретация" หรือการตีความเชิงความหมาย ซึ่งศึกษาการไหลของข้อมูลในระดับแนวคิด เช่น โมเดลใช้แนวคิด “สัตว์เลี้ยง” เพื่อเชื่อมโยงกับ “แมว” และ “สุนัข” อย่างไร หรือโครงสร้างเหตุผล (reasoning structure) ที่ซ่อนอยู่ในชั้น transformer หลายชั้น

ชาลเมอร์สชี้ให้เห็นตัวอย่างจากงานวิจัยล่าสุด เช่น การค้นพบ “features” ในโมเดลภาษาขนาดใหญ่ที่แสดงถึง Golden Gate Bridge หรือ DNA sequences แต่สิ่งเหล่านี้เป็นเพียงระดับต่ำเท่านั้น ไม่ใช่ “ภาษาของความคิด” (language of thought) ที่ Jerry Fodor นักปรัชญาคนก่อนเคยเสนอไว้ ซึ่งเป็นระบบสัญลักษณ์ภายในที่ AI ใช้ในการใช้เหตุผล ชาลเมอร์สเสนอแนะให้พัฒนาวิธีการใหม่ๆ เช่น การวิเคราะห์โครงสร้างเหตุผลข้ามหลายขั้นตอน (multi-step reasoning) หรือการทำ reverse engineering เพื่อถอดรหัสไวยากรณ์ของความคิด (grammar of thought) ใน AI

นอกจากนี้ ชาลเมอร์สยังเชื่อมโยงประเด็นนี้กับคำถามใหญ่ในปรัชญา AI คือ AI จะมีจิตสำนึก (consciousness) ได้หรือไม่ เขากล่าวว่า หากไม่เข้าใจโครงสร้างระดับสูง เราจะไม่สามารถประเมินได้ว่า AI มีประสบการณ์ภายใน (phenomenal experience) หรือไม่ การตีความระดับสูงจะช่วยให้เราตรวจสอบได้ว่า AI มี “grounding” ของแนวคิดในโลกจริงหรือไม่ เช่น คำว่า “น้ำ” ในโมเดลของเรามาจากข้อมูลการฝึกหรือไม่

ในทางปฏิบัติ ชาลเมอร์สแนะนำให้นักวิจัย AI หันมาใช้แนวทางจากวิทยาศาสตร์认知 (cognitive science) เช่น การสร้างแบบจำลองระดับสูง (high-level models) ที่อธิบายพฤติกรรมของ AI ผ่านแนวคิดมนุษย์ เช่น ทฤษฎีของ folk psychology ที่อธิบายการกระทำด้วยความเชื่อ (beliefs) ความปรารถนา (desires) และเจตนา (intentions) เขายกตัวอย่างว่า ในมนุษย์ เราสามารถทำนายพฤติกรรมโดยไม่ต้องรู้รายละเอียด neuron แต่ใน AI เรายังขาดเครื่องมือเช่นนั้น

ชาลเมอร์สยังกล่าวถึงความท้าทาย เช่น ขนาดของโมเดลที่ใหญ่เกินไป (เช่น GPT-4 มีพารามิเตอร์หลายล้านล้าน) ทำให้การตีความแบบกลไกยากขึ้น แต่เขามอง樂觀ว่า เทคโนโลยีใหม่ๆ เช่น sparse autoencoders สามารถเป็นจุดเริ่มต้นสำหรับการตีความระดับสูงได้ หากเราพัฒนาต่อไป

สุดท้าย ชาลเมอร์สเรียกร้องให้ชุมชน AI ลงทุนใน “high-level interpretability” มากขึ้น เพื่อไม่เพียงเข้าใจ AI แต่ยังเพื่อความปลอดภัย (AI safety) หากเรารู้ว่า AI คิดอย่างไรในระดับแนวคิด เราจะสามารถควบคุมและปรับปรุงได้ดีกว่า การละเลยด้านนี้เสี่ยงต่อการพัฒนา AI ที่ฉลาดแต่ไม่โปร่งใส ซึ่งอาจนำไปสู่ปัญหาใหญ่ในอนาคต

บทความนี้เน้นย้ำมุมมองของชาลเมอร์สที่ท้าทายวงการ โดยยืนยันว่า interpretability ที่แท้จริงต้องเกินกว่ากลไก ไปสู่ความหมายและโครงสร้าง เพื่อก้าวสู่ AI ที่เข้าใจได้จริง

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)