Google ปรับปรุงฟีเจอร์ Search Live ด้วยเทคโนโลยีเสียงปัญญาประดิษฐ์รุ่นใหม่
Google ได้ประกาศอัปเกรดฟีเจอร์ Search Live ซึ่งเป็นเครื่องมือค้นหาด้วยเสียงที่ขับเคลื่อนด้วยปัญญาประดิษฐ์ (AI) ของบริษัท โดยนำเสนอเสียง AI ที่ฟังดูเป็นธรรมชาติมากขึ้น เพื่อยกระดับประสบการณ์การสนทนากับผู้ใช้ให้ใกล้เคียงกับการพูดคุยกับมนุษย์มากยิ่งขึ้น การปรับปรุงครั้งนี้ใช้พลังจาก Gemini 2.0 Flash ซึ่งเป็นโมเดล AI ล่าสุดของ Google ที่มุ่งเน้นความรวดเร็วและประสิทธิภาพสูง
Search Live เป็นส่วนหนึ่งของแอป Google ที่ช่วยให้ผู้ใช้สามารถถามคำถามด้วยเสียงและรับคำตอบแบบเรียลไทม์ โดยไม่จำเป็นต้องพิมพ์ข้อความ ในอดีต ฟีเจอร์นี้รองรับการสนทนาด้วยเสียงพื้นฐาน แต่การอัปเดตใหม่ได้เพิ่มความสามารถหลายประการที่ทำให้การใช้งานสะดวกและมีประสิทธิภาพยิ่งขึ้น โดยเฉพาะอย่างยิ่งในสถานการณ์ที่ผู้ใช้ต้องการข้อมูลทันที เช่น การเดินทาง วางแผนกิจกรรม หรือแก้ปัญหาในชีวิตประจำวัน
หนึ่งในจุดเด่นหลักของการอัปเดตนี้คือเสียง AI ที่ปรับปรุงใหม่ ซึ่งพัฒนาโดยทีมงานของ Google DeepMind เสียงดังกล่าวมีน้ำเสียงที่เป็นธรรมชาติ โทนสูงต่ำที่เหมาะสม และจังหวะการพูดที่ไหลลื่น ผู้ใช้จะรู้สึกเหมือนกำลังสนทนากับผู้ช่วยส่วนตัวจริงๆ โดยไม่มีความรู้สึกหุ่นยนต์หรือ机械化 นอกจากนี้ ยังรองรับการสนทนาต่อเนื่อง โดย AI สามารถจดจำบริบทจากคำถามก่อนหน้าและตอบสนองได้อย่างเชื่อมโยง
ความสามารถมัลติโมดัล (Multimodal) เป็นอีกหนึ่งนวัตกรรมสำคัญ ผู้ใช้สามารถผสานรวมข้อมูลจากหลายช่องทาง เช่น พูดคำถามพร้อมกับใช้กล้องถ่ายภาพวัตถุ หรือแชร์หน้าจอเพื่อให้ AI วิเคราะห์ข้อมูลบนหน้าจอได้ทันที ตัวอย่างเช่น หากผู้ใช้กำลังทำอาหารและถามว่า “ส่วนผสมนี้คืออะไร” AI จะใช้กล้องวิเคราะห์ภาพและตอบกลับด้วยข้อมูลที่ถูกต้องพร้อมสูตรอาหารที่เกี่ยวข้อง หรือหากกำลังดูแผนที่บนหน้าจอ สามารถถาม “เส้นทางนี้ใช้เวลานานแค่ไหน” โดย AI จะประมวลผลจากภาพหน้าจอจริง
การเข้าถึงฟีเจอร์นี้ได้รับการขยายวงกว้าง โดยเริ่มต้นสำหรับผู้ใช้ Android ทุกคนในสหรัฐอเมริกา และกำลังทยอยเปิดให้บริการบน iOS ในเร็วๆ นี้ ผู้ใช้สามารถเปิดใช้งานได้โดยกดปุ่มไมโครโฟนในแอป Google หรือใช้คำสั่งเสียง “Hey Google” เพื่อเริ่มสนทนา นอกจากนี้ Google ยังได้ปรับปรุงความเป็นส่วนตัว โดยให้ผู้ใช้ควบคุมข้อมูลที่แชร์ได้ เช่น ลบประวัติการสนทนาหรือปิดการใช้งานกล้อง/หน้าจอเมื่อไม่จำเป็น
จากมุมมองทางเทคนิค Gemini 2.0 Flash เป็นโมเดลที่ออกแบบมาเพื่อการประมวลผลแบบเรียลไทม์ โดยมีขนาดกะทัดรัดแต่ประสิทธิภาพสูง รองรับการประมวลผลข้อมูลมัลติโมดัลทั้งเสียง ภาพ และข้อความ ซึ่งช่วยลดความล่าช้าในการตอบสนองเหลือเพียงไม่กี่วินาที การทดสอบภายในแสดงให้เห็นว่าความแม่นยำในการเข้าใจคำถามภาษาพูดสูงขึ้นกว่า 20% เมื่อเทียบกับรุ่นก่อนหน้า โดยเฉพาะในสภาพแวดล้อมที่มีเสียงรบกวน
Google เน้นย้ำว่าการพัฒนานี้เป็นส่วนหนึ่งของวิสัยทัศน์ในการทำให้การค้นหาของ Google เป็นประสบการณ์ที่เป็นธรรมชาติและส่วนตัวมากขึ้น โดย Search Live ไม่เพียงตอบคำถาม แต่ยังสามารถช่วยเหลือในงานที่ซับซ้อน เช่น การวางแผนทริป การวิเคราะห์ภาพถ่าย หรือแม้แต่การช่วยเหลือด้านสุขภาพเบื้องต้น (โดยไม่แทนที่คำแนะนำทางการแพทย์) ผู้ใช้รายงานว่าการใช้งานช่วยประหยัดเวลาได้มาก โดยเฉพาะในสถานการณ์ที่มือไม่ว่างหรือต้องการ multitask
อย่างไรก็ตาม Google ยังคงพัฒนาอย่างต่อเนื่อง โดยมีแผนขยายภาษาที่รองรับเพิ่มเติม รวมถึงภาษาอังกฤษในภูมิภาคอื่นๆ และภาษาท้องถิ่นอื่นๆ ในอนาคต เพื่อให้ผู้ใช้ทั่วโลกเข้าถึงได้กว้างขวางยิ่งขึ้น นอกจากนี้ บริษัทยังมุ่งเน้นการปรับปรุงความปลอดภัย โดยใช้เทคโนโลยีตรวจจับเนื้อหาที่ไม่เหมาะสมและป้องกันการใช้งานในทางที่ผิด
การอัปเดต Search Live นี้สะท้อนถึงแนวโน้มของอุตสาหกรรมเทคโนโลยีที่กำลังมุ่งสู่ AI แบบ conversational ซึ่ง Google วางตัวเป็นผู้นำ โดยแข่งขันกับคู่แข่งอย่าง Apple Siri หรือ Amazon Alexa ที่มีฟีเจอร์คล้ายคลึงกัน แต่ Search Live โดดเด่นด้วยการผสานรวมกับฐานข้อมูลค้นหาขนาดใหญ่ของ Google ทำให้คำตอบมีความน่าเชื่อถือและอัปเดตทันเหตุการณ์
สำหรับองค์กรธุรกิจ การนำ Search Live ไปใช้สามารถยกระดับประสิทธิภาพการทำงานได้ เช่น การช่วยเหลือพนักงานในด้านการวิจัยข้อมูล การวิเคราะห์ภาพสินค้า หรือการสนับสนุนลูกค้าผ่านช่องทางเสียง ซึ่งช่วยลดต้นทุนและเพิ่มความพึงพอใจของผู้ใช้ โดยรวมแล้ว การปรับปรุงครั้งนี้ไม่เพียงเสริมสร้างจุดแข็งของ Google Search แต่ยังกำหนดมาตรฐานใหม่สำหรับการโต้ตอบระหว่างมนุษย์กับเครื่องจักรในยุค AI
(จำนวนคำประมาณ 720 คำ)
This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)