แคลิฟอร์เนียกำหนดกฎ ai ของตัวเองสำหรับผู้รับเหมาของรัฐ สวนทางนโยบายรัฐบาลกลาง

แคลิฟอร์เนียกำหนดกฎเกณฑ์ AI ของตนเองสำหรับผู้รับเหมาของรัฐ เพื่อต่อต้านนโยบายของรัฐบาลกลาง

รัฐแคลิฟอร์เนียได้ออกนโยบายใหม่ที่กำหนดให้ผู้รับเหมาของรัฐต้องเปิดเผยการใช้เครื่องมือปัญญาประดิษฐ์ (AI) ในการปฏิบัติงานตามสัญญา โดยนโยบายนี้ถูกออกโดยกรมบริการทั่วไปของรัฐ (Department of General Services: DGS) เพื่อรับประกันความโปร่งใส ความปลอดภัย และความรับผิดชอบในการใช้เทคโนโลยี AI โดยเฉพาะอย่างยิ่งในบริบทของการจัดซื้อจัดจ้างของรัฐ

นโยบายดังกล่าวมีชื่ออย่างเป็นทางการว่า “Artificial Intelligence Use Disclosure Policy” หรือ “นโยบายการเปิดเผยการใช้ปัญญาประดิษฐ์” ซึ่งมีผลบังคับใช้ตั้งแต่วันที่ 9 ธันวาคม พ.ศ. 2567 (ค.ศ. 2024) โดยครอบคลุมสัญญาทุกประเภทที่มีมูลค่ามากกว่า 100,000 ดอลลาร์สหรัฐ (ประมาณ 3.3 ล้านบาท) ไม่ว่าจะเป็นสัญญาการจัดซื้อ สัญญาบริการ หรือสัญญาอื่นๆ ที่เกี่ยวข้องกับการส่งมอบผลงานให้แก่หน่วยงานของรัฐแคลิฟอร์เนีย

หลักเกณฑ์หลักของนโยบาย

ตามนโยบาย ผู้รับเหมาที่ใช้ AI ในการผลิตหรือส่งมอบผลงานตามสัญญาต้องปฏิบัติตามข้อกำหนดดังต่อไปนี้:

  1. การแจ้งการใช้ AI: ผู้รับเหมาต้องแจ้งให้รัฐทราบล่วงหน้า หากใช้ AI หรือเครื่องมือ AI ที่มี generative capabilities (เช่น ChatGPT, Gemini หรือเครื่องมือที่คล้ายคลึงกัน) ในการสร้างหรือปรับปรุงผลงานที่ส่งมอบ เช่น รายงาน เอกสารทางกฎหมาย ภาพกราฟิก หรือโค้ดโปรแกรม การแจ้งต้องทำผ่านแบบฟอร์มที่กำหนด โดยระบุรายละเอียดของระบบ AI ที่ใช้

  2. รายละเอียดทางเทคนิค: ต้องเปิดเผยข้อมูลสำคัญ เช่น ชื่อและเวอร์ชันของระบบ AI ผู้พัฒนา แหล่งข้อมูลที่ใช้ในการฝึกอบรมโมเดล (training data) และกระบวนการที่ AI ใช้ในการผลิตผลงาน รวมถึงการตรวจสอบหรือแก้ไขผลลัพธ์โดยมนุษย์

  3. การประเมินความเสี่ยงและมาตรการบรรเทา: ผู้รับเหมาต้องวิเคราะห์ความเสี่ยงที่อาจเกิดจาก AI เช่น ความไม่ถูกต้อง (inaccuracy) อคติ (bias) หรือการละเมิดลิขสิทธิ์ และอธิบายมาตรการที่ใช้ในการลดความเสี่ยงเหล่านั้น เช่น การตรวจสอบด้วยมนุษย์ การใช้เครื่องมือตรวจสอบเพิ่มเติม หรือการทดสอบประสิทธิภาพ

  4. การป้องกันการเลือกปฏิบัติ: AI ต้องไม่ก่อให้เกิดการเลือกปฏิบัติต่อบุคคลหรือกลุ่มบุคคลบนพื้นฐานของลักษณะที่ได้รับการคุ้มครองตามกฎหมาย เช่น เพศ เชื้อชาติ สีผิว ความพิการ หรือศาสนา ผู้รับเหมาต้องรับประกันว่าระบบ AI ปฏิบัติตามกฎหมายป้องกันการเลือกปฏิบัติของรัฐแคลิฟอร์เนีย

  5. การรับผิดชอบต่อผลลัพธ์: แม้จะใช้ AI ผู้รับเหมาจะต้องรับผิดชอบต่อคุณภาพ ความถูกต้อง และความเหมาะสมของผลงานที่ส่งมอบทั้งหมด รัฐมีสิทธิ์ปฏิเสธผลงานหากไม่เป็นไปตามมาตรฐานที่กำหนด

นโยบายนี้ยังกำหนดให้ผู้รับเหมาเก็บรักษาข้อมูลการใช้ AI ไว้เป็นเวลา 3 ปี เพื่อใช้ในการตรวจสอบย้อนหลัง หากผู้รับเหมาไม่ปฏิบัติตาม อาจถูกเพิกถอนสิทธิ์ในการรับสัญญาใหม่หรือถูกปรับตามกฎหมายที่เกี่ยวข้อง

พื้นหลังและบริบทของนโยบาย

นโยบายนี้เกิดขึ้นท่ามกลางการเปลี่ยนแปลงนโยบาย AI ในระดับรัฐบาลกลางของสหรัฐอเมริกา เมื่อวันที่ 24 มกราคม พ.ศ. 2568 (ค.ศ. 2025) ประธานาธิบดีโดนัลด์ ทรัมป์ ได้ลงนามในคำสั่งบริหาร (Executive Order) ชื่อ “Removing Barriers to American Leadership in Artificial Intelligence” ซึ่งยกเลิกคำสั่งบริหารของประธานาธิบดีโจ ไบเดนเมื่อปี พ.ศ. 2566 (ค.ศ. 2023) ที่กำหนดมาตรฐานความปลอดภัย ความปลอดภัยทางไซเบอร์ และการทดสอบความเสี่ยงของ AI

คำสั่งของทรัมป์มุ่งเน้นการลดกฎระเบียบเพื่อส่งเสริมการแข่งขันของสหรัฐอเมริกาในด้าน AI โดยยกเลิกความต้องการรายงานความเสี่ยง การทดสอบ “red-teaming” และมาตรการป้องกันความเสี่ยงด้านความปลอดภัยชีวภาพหรือไซเบอร์ คำสั่งนี้ยังสั่งให้หน่วยงานรัฐบาลกลางยกเลิกแผนปฏิบัติการ AI ภายใน 120 วัน และห้ามบังคับใช้กฎเกณฑ์ใหม่ที่ขัดขวางการพัฒนา AI

รัฐแคลิฟอร์เนีย ซึ่งเป็นผู้นำด้านเทคโนโลยีและมีบริษัทเทคโนโลยีชั้นนำอย่าง Google, Meta และ OpenAI ตั้งอยู่ในรัฐ จึงเลือกที่จะกำหนดกฎเกณฑ์ของตนเองเพื่อปกป้องผลประโยชน์สาธารณะ โดยไม่รอพึ่งพานโยบายของรัฐบาลกลาง นโยบายนี้เป็นส่วนหนึ่งของความพยายามที่กว้างขึ้นของแคลิฟอร์เนียในการกำกับดูแล AI เช่น พระราชบัญญัติ AI Safety Act (AB 2013) ที่ถูกถอนฟ้องไปก่อนหน้านี้ และกฎหมายอื่นๆ ที่กำลังพิจารณา

ความสำคัญต่อผู้รับเหมาและหน่วยงานรัฐ

สำหรับผู้รับเหมา นโยบายนี้หมายถึงการปรับเปลี่ยนกระบวนการทำงาน โดยต้องรวมการเปิดเผย AI เข้ากับข้อเสนอสัญญา (proposals) และรายงานความคืบหน้า ซึ่งอาจเพิ่มภาระด้านเอกสาร แต่ช่วยเสริมสร้างความเชื่อมั่นให้กับรัฐและลดความเสี่ยงทางกฎหมาย

หน่วยงานรัฐจะได้รับประโยชน์จากความโปร่งใสนี้ โดยสามารถประเมินความเสี่ยงของผลงานที่ได้จาก AI และรับประกันว่าผลงานเหล่านั้นมีคุณภาพสูงและปราศจากอคติ นอกจากนี้ ยังช่วยรักษาความเป็นผู้นำของแคลิฟอร์เนียในการกำกับดูแลเทคโนโลยีที่กำลังเปลี่ยนแปลงอย่างรวดเร็ว

สรุปและแนวโน้มในอนาคต

นโยบายการเปิดเผยการใช้ AI ของแคลิฟอร์เนียถือเป็นตัวอย่างของการกำกับดูแลในระดับรัฐที่ตอบสนองต่อช่องว่างของนโยบายกลาง โดยเน้นย้ำถึงความสำคัญของความรับผิดชอบในการใช้ AI ในภาครัฐ แม้จะไม่ใช่กฎหมายที่มีผลบังคับใช้ แต่เป็นข้อกำหนดทางปกครองที่ผู้รับเหมาทุกรายต้องปฏิบัติตามเพื่อรักษาความสัมพันธ์กับรัฐ

ในอนาคต รัฐอื่นๆ อาจเลียนแบบแนวทางนี้ โดยเฉพาะอย่างยิ่งหากนโยบายกลางยังคงผ่อนคลายการกำกับดูแล นโยบายนี้ไม่เพียงปกป้องผู้เสียหายจากความเสี่ยงของ AI แต่ยังส่งเสริมการพัฒนา AI ที่มีจริยธรรมและยั่งยืนในระยะยาว

(จำนวนคำ: 728)

This Article is sponsored by Gnoppix AI (https://www.gnoppix.org)