โซเชียลมีเดียส่งเสริมด้านแย่ที่สุดของการโหมโรงเอไออย่างไร

โซเชียลมีเดียกระตุ้นให้เกิดการโฆษณาชวนเชื่อด้าน AI ในรูปแบบที่เลวร้ายที่สุด

ในยุคที่ปัญญาประดิษฐ์ (AI) กำลังเป็นหัวข้อร้อนแรง สื่อสังคมออนไลน์อย่าง X (เดิมชื่อ Twitter) ได้กลายเป็นแหล่งเพาะปลูกความตื่นเต้นเกินจริงและการโฆษณาชวนเชื่อที่เกินเลย โดยเฉพาะอย่างยิ่งจากกลุ่มผู้สนับสนุน AI ที่เรียกกันว่า “AI boosters” ซึ่งมักเผยแพร่ข้อความที่โอ้อวดความก้าวหน้าของเทคโนโลยีโดยปราศจากหลักฐานทางวิทยาศาสตร์ที่หนักแน่น บทความนี้จะวิเคราะห์กลไกที่ซ่อนเร้นของแพลตฟอร์มเหล่านี้ ซึ่งส่งเสริมพฤติกรรมดังกล่าว และผลกระทบที่ตามมาในวงการเทคโนโลยี

กลไกหลักที่ขับเคลื่อนปรากฏการณ์นี้คือระบบอัลกอริทึมของโซเชียลมีเดีย ซึ่งให้รางวัลแก่เนื้อหาที่ก่อให้เกิดปฏิกิริยาแรง เช่น การกดไลค์ รีโพสต์ และคอมเมนต์จำนวนมาก โพสต์ที่ประกาศว่า AI กำลังใกล้บรรลุ “Artificial General Intelligence” (AGI) หรือปัญญาประดิษฐ์ทั่วไป ซึ่งสามารถคิดและแก้ปัญหาได้เทียบเท่ามนุษย์ มักได้รับการแพร่กระจายอย่างรวดเร็ว ตัวอย่างเช่น โพสต์จาก Bindu Reddy ผู้ก่อตั้ง Abacus.AI ซึ่งประกาศว่า “เรากำลังเข้าสู่ยุค AGI แล้ว” ได้รับการตอบรับนับล้านครั้ง สร้างกระแสความเชื่อมั่นที่เกินจริงในหมู่ผู้ติดตาม

ผู้เชี่ยวชาญหลายรายชี้ให้เห็นถึงปัญหานี้ Gary Marcus นักวิทยาศาสตร์ด้าน AI ชื่อดัง วิจารณ์ว่าโซเชียลมีเดียได้กลายเป็น “ห้องกระจก” (echo chamber) ที่เสียงวิจารณ์ถูกกลบมิดด้วยเสียงโห่ร้องแห่งความหวัง โดยเฉพาะใน X ซึ่ง Elon Musk เจ้าของแพลตฟอร์ม ได้โพสต์ข้อความสนับสนุน AI บ่อยครั้ง เช่น การคาดการณ์ว่า AGI จะมาถึงภายในสิ้นปี 2025 สิ่งนี้ไม่เพียงแต่กระตุ้นให้ผู้ใช้ทั่วไปหลงเชื่อ แต่ยังดึงดูดนักลงทุนให้เทเงินมหาศาลเข้าสู่บริษัท AI โดยไม่คำนึงถึงความเสี่ยง

ปรากฏการณ์นี้คล้ายคลึงกับยุคบูมคริปโตเคอร์เรนซีในอดีต ที่โซเชียลมีเดียถูกใช้เพื่อปั่นราคาและสร้างฟองสบู่ ในกรณี AI ผู้โพสต์มักใช้ภาษาที่ดึงดูดใจ เช่น “革命性” (ปฏิวัติวงการ) หรือ “game-changer” โดยไม่ระบุรายละเอียดทางเทคนิค เช่น ในโพสต์ไวรัลที่อ้างว่าโมเดล AI สามารถ “คิดได้เหมือนมนุษย์” จริงๆ แล้วเป็นเพียงการเลียนแบบแพทเทิร์นข้อมูลขนาดใหญ่ (pattern matching) ไม่ใช่ความเข้าใจที่แท้จริง นักวิจัยจาก MIT Technology Review ระบุว่าเนื้อหาเหล่านี้มักขาดการอ้างอิงงานวิจัยที่น่าเชื่อถือ และมุ่งเน้นไปที่การสร้างยอดวิวเพื่อผลประโยชน์ส่วนตัว เช่น การโปรโมตสตาร์ทอัพหรือบริการ AI ของตนเอง

ผลกระทบเชิงธุรกิจนั้นรุนแรง โบรกเกอร์และนักลงทุนสถาบันที่ติดตามโซเชียลมีเดียอาจตัดสินใจลงทุนโดยอิงจากโพสต์ไวรัล ส่งผลให้มูลค่าบริษัท AI พุ่งสูงเกินจริง ตัวอย่างเช่น หลังโพสต์จาก influencer ชั้นนำ ราคาหุ้นของบริษัทอย่าง OpenAI หรือ Anthropic มักผันผวนอย่างฉับพลัน นอกจากนี้ ยังก่อให้เกิด “AI slop” หรือเนื้อหาขยะที่สร้างโดย AI ซึ่งแพร่กระจายในโซเชียลมีเดีย เพิ่มความสับสนให้กับผู้บริโภคและธุรกิจที่กำลังพิจารณานำ AI มาใช้

เพื่อแก้ไขปัญหานี้ ผู้เชี่ยวชาญเสนอแนะหลายแนวทาง ประการแรก แพลตฟอร์มควรปรับอัลกอริทึมให้โปรโมตเนื้อหาที่มีแหล่งอ้างอิงที่น่าเชื่อถือมากขึ้น เช่น การติดป้าย “verified research” สำหรับโพสต์ที่อ้างงานวิจัยทางวิชาการ ประการที่สอง ชุมชน AI ควรส่งเสริมวัฒนธรรมการตรวจสอบข้อเท็จจริง (fact-checking) โดยนักวิทยาศาสตร์อย่าง Timnit Gebru และ Margaret Mitchell ได้เรียกร้องให้มีการต่อต้านการโฆษณาชวนเชื่อผ่านแคมเปญออนไลน์ ประการสุดท้าย บริษัทเทคโนโลยีขนาดใหญ่ เช่น Google และ Microsoft ควรออกมาแสดงจุดยืนที่สมดุลมากขึ้น แทนที่จะปล่อยให้ hype ครอบงำ

อย่างไรก็ตาม ความท้าทายยังคงอยู่ เนื่องจากโซเชียลมีเดียถูกออกแบบมาเพื่อให้ผู้ใช้ติดหนึบ (engagement) ซึ่งเนื้อหาตื่นเต้นมักชนะเสมอ Will Knight ผู้เขียนบทความชี้ว่า หากไม่มีการแทรกแซงจากนโยบายหรือกฎระเบียบ วงจรอุบาทว์นี้จะยิ่งรุนแรงขึ้น โดยเฉพาะเมื่อ AI boosters ใช้เครื่องมือ AI ในการสร้างโพสต์จำนวนมากเพื่อเพิ่มการแพร่กระจาย

ในท้ายที่สุด สื่อสังคมออนไลน์ไม่ได้เป็นเพียงกระจกสะท้อนความก้าวหน้าของ AI แต่เป็นตัวเร่งปฏิกิริยาที่บิดเบือนภาพรวมของเทคโนโลยีนี้ ธุรกิจและนักลงทุนควรใช้วิจารณญาณในการกรองข้อมูล โดยอาศัยแหล่งข้อมูลที่น่าเชื่อถือ เช่น วารสารวิชาการหรือรายงานจากสถาบันชั้นนำ แทนที่จะพึ่งพาโพสต์ไวรัลเพียงอย่างเดียว เพื่อหลีกเลี่ยงความผิดพลาดที่อาจนำไปสู่การสูญเสียทางการเงินและชื่อเสียง

(จำนวนคำประมาณ 720 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)