Meta ส่งฟุตเทจจากแว่น AI ส่วนตัวไปยังเคนยาโดยมีมาตรการป้องกันน้อย - และหน่วยงานกำกับดูแลความเป็นส่วนตัวของยุโรปอาจเข้ามาตรวจสอบ

เมต้า ส่งภาพวิดีโอจากแว่นอัจฉริยะ AI ส่วนตัวไปยังเคนยา โดยมีมาตรการป้องกันความเป็นส่วนตัวน้อยนิด และหน่วยงานกำกับดูแลความเป็นส่วนตัวของยุโรปอาจเข้ามาตรวจสอบ

เมต้า (Meta) บริษัทเทคโนโลยียักษ์ใหญ่ กำลังทดสอบแว่นตาอัจฉริยะ Ray-Ban Meta ที่ติดตั้งฟีเจอร์ปัญญาประดิษฐ์ (AI) โดยส่งภาพวิดีโอที่ผู้ใช้บันทึกจากชีวิตประจำวันในยุโรป ไปยังผู้标注ข้อมูล (data labelers) ในประเทศเคนยา เพื่อใช้ในการฝึกอบรมโมเดล AI โดยมีมาตรการคุ้มครองความเป็นส่วนตัวที่ค่อนข้างอ่อนแอ ซึ่งอาจละเมิดกฎหมายคุ้มครองข้อมูลส่วนบุคคลทั่วไปของสหภาพยุโรป (GDPR) และเปิดช่องให้หน่วยงานกำกับดูแลความเป็นส่วนตัวในยุโรปเข้าตรวจสอบ

แว่นตาอัจฉริยะ Ray-Ban Meta เป็นอุปกรณ์สวมใส่ที่พัฒนาร่วมกับ EssilorLuxottica โดยมีกล้องในตัวที่สามารถบันทึกวิดีโอคลิปสั้นๆ ความยาว 30 วินาที เมื่อผู้ใช้สั่งการด้วยคำสั่งเสียง เช่น “Hey Meta, look and…” เพื่อให้ AI วิเคราะห์ภาพและตอบคำถาม เช่น การระบุวัตถุ สถานที่ หรือให้ข้อมูลเพิ่มเติม วิดีโอเหล่านี้บันทึกช่วงเวลาส่วนตัวของผู้ใช้ เช่น ภายในบ้าน ใบหน้าครอบครัว หรือกิจกรรมประจำวัน ซึ่งถือเป็นข้อมูลส่วนบุคคลที่ละเอียดอ่อนตามนิยามของ GDPR

ตามเอกสารที่เมต้าปล่อยสู่สาธารณะ ซึ่งถูกเปิดเผยโดยนักข่าวจาก The Decoder เมต้าได้จ้างผู้标注ข้อมูลในเคนยาให้ดูและ标注วิดีโอเหล่านี้ผ่านแอปพลิเคชันเว็บ โดยวิดีโอจะถูกส่งผ่านอินเทอร์เน็ตโดยไม่มีการเข้ารหัส (unencrypted) แม้ว่าจะลดความละเอียดเหลือ 480p และจำกัดความยาว แต่ผู้标注ข้อมูลก็ยังสามารถเห็นภาพชีวิตส่วนตัวของผู้ใช้ชาวยุโรปได้อย่างชัดเจน เช่น การเดินในบ้าน การทำอาหาร หรือปฏิสัมพันธ์กับผู้อื่น

มาตรการป้องกันความเป็นส่วนตัวที่เมต้าระบุไว้มีจำกัดมาก โดยเอกสารระบุเพียงว่า วิดีโอจะถูกลบหลังจาก标注เสร็จสิ้น แต่ไม่มีรายละเอียดเกี่ยวกับนโยบายการเก็บรักษาข้อมูล (data retention policy) การบันทึกการเข้าถึง (access logs) หรือการตรวจสอบการใช้งานของผู้标注ข้อมูล นอกจากนี้ ยังไม่มีข้อมูลว่ามีการฝึกอบรมผู้标注ข้อมูลเกี่ยวกับความเป็นส่วนตัวหรือไม่ หรือมีระบบตรวจสอบการละเมิดหรือไม่ ซึ่งถือเป็นช่องโหว่สำคัญในกระบวนการจัดการข้อมูลส่วนบุคคล

ประเด็นสำคัญคือ การส่งข้อมูลจากผู้ใช้ในยุโรปไปยังเคนยา ซึ่งเป็นประเทศนอกสหภาพยุโรป (EU) และเขตเศรษฐกิจยุโรป (EEA) โดยเคนยาไม่มีสถานะ “ความเพียงพอ” (adequacy decision) ตาม GDPR ซึ่งกำหนดให้ข้อมูลส่วนบุคคลต้องได้รับการคุ้มครองในระดับเดียวกันเมื่อโอนย้ายข้ามพรมแดน หากไม่มี adequacy decision ผู้ควบคุมข้อมูล (data controller) อย่างเมต้าต้องใช้กลไกโอนย้ายข้อมูลอื่นๆ เช่น ข้อตกลงมาตรฐานสัญญา (Standard Contractual Clauses: SCCs) หรือกฎหมายเฉพาะองค์กร (binding corporate rules) แต่ในกรณีนี้ เมต้าเพียงอ้างว่าปฏิบัติตาม SCCs โดยไม่มีหลักฐานหรือรายละเอียดเพิ่มเติม ทำให้เกิดคำถามถึงความเพียงพอของมาตรการ

Max Schrems ผู้ก่อตั้งองค์กรคุ้มครองความเป็นส่วนตัว noyb.eu ซึ่งเคยชนะคดีต่อต้านการโอนย้ายข้อมูลของเมต้าไปยังสหรัฐอเมริกา ได้ออกมาแสดงความกังวล โดยระบุว่าการส่งวิดีโอชีวิตส่วนตัวไปยังผู้标注ข้อมูลในเคนยาโดยไม่มี safeguards ที่เพียงพอ อาจละเมิด GDPR Articles 5, 44-50 ซึ่งครอบคลุมหลักการประมวลผลข้อมูลอย่างถูกต้องและการโอนย้ายข้อมูลระหว่างประเทศ noyb กำลังพิจารณายื่นเรื่องร้องเรียนต่อหน่วยงานกำกับดูแลในออสเตรียและไอร์แลนด์ ซึ่งเป็นฐานปฏิบัติการหลักของเมต้าในยุโรป

นอกจากนี้ การใช้ผู้标注ข้อมูลในประเทศกำลังพัฒนาอย่างเคนยาเพื่อลดต้นทุน เป็นแนวปฏิบัติที่พบได้บ่อยในอุตสาหกรรม AI แต่กลับมักมาพร้อมความเสี่ยงด้านความเป็นส่วนตัว เนื่องจากโครงสร้างพื้นฐานทางกฎหมายและเทคโนโลยีในประเทศเหล่านี้อาจไม่สอดคล้องกับมาตรฐาน GDPR เช่น การขาดกฎหมายคุ้มครองข้อมูลที่เข้มงวด หรือการบังคับใช้ที่อ่อนแอ ในอดีต เคสคล้ายคลึงกัน เช่น การใช้ผู้标注ข้อมูลในเคนยาและอินเดียโดยบริษัทเทคโนโลยีอื่นๆ ได้นำไปสู่การตรวจสอบจากหน่วยงานยุโรป เช่น คดีของ Clearview AI ที่ถูกปรับฐานละเมิด GDPR จากการรวบรวมข้อมูลใบหน้าโดยไม่ได้รับความยินยอม

เมต้ายืนยันว่ากระบวนการนี้เป็นส่วนหนึ่งของการทดสอบเพื่อพัฒนาฟีเจอร์ AI ในแว่นตา และข้อมูลจะไม่ถูกใช้ในการฝึกโมเดล AI โดยตรง แต่ใช้เพียงสำหรับการ标注เพื่อปรับปรุงความแม่นยำเท่านั้น อย่างไรก็ตาม การขาดความโปร่งใสในเอกสารที่ปล่อยสู่สาธารณะ ทำให้เกิดความสงสัยจากนักกิจกรรมด้านความเป็นส่วนตัวและผู้เชี่ยวชาญกฎหมาย หากหน่วยงานกำกับดูแลอย่าง Irish Data Protection Commission (DPC) หรือ Austrian DPA เข้าตรวจสอบ เมต้าอาจเผชิญค่าปรับสูงสุด 4% ของรายได้ทั่วโลก ซึ่งในปีที่แล้วอยู่ที่ราว 134,902 ล้านดอลลาร์สหรัฐ

กรณีนี้สะท้อนถึงความท้าทายในอุตสาหกรรม AI ที่ต้องพึ่งพาการ标注ข้อมูลจำนวนมหาศาลเพื่อพัฒนาโมเดล แต่ต้องเผชิญกับกฎระเบียบที่เข้มงวดขึ้นในยุโรป โดยเฉพาะหลังจาก EU AI Act ที่กำลังจะมีผลบังคับใช้ ซึ่งกำหนดให้ระบบ AI ที่มีความเสี่ยงสูงต้องมี safeguards เพิ่มเติม เมต้าอาจต้องปรับปรุงกระบวนการให้โปร่งใสและมีมาตรการป้องกันที่แข็งแกร่งยิ่งขึ้น เพื่อหลีกเลี่ยงการถูกตรวจสอบและสร้างความเชื่อมั่นให้ผู้ใช้

(จำนวนคำประมาณ 728 คำ)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)