3 บิ๊ก AI จับมือรัฐบาลสหรัฐฯ ตั้งมาตรการพัฒนา AI ปลอดภัย

3 บิ๊ก AI จับมือรัฐบาลสหรัฐฯ ตั้งมาตรการพัฒนา AI ปลอดภัย

 

เมื่อไม่นานมานี้ บริษัทเทคโนโลยี AI ชั้นนำอย่าง Microsoft, Google, และ OpenAI ได้ตกลงที่จะปฏิบัติตามมาตรการคุ้มครองบางอย่างในการพัฒนา AI ตามคำขอของรัฐบาลสหรัฐอเมริกา รายงานจาก Bloomberg มีใจความว่า บริษัทเทคยักษ์ใหญ่เหล่านี้จะยินยอมที่จะปฏิบัติตามหลักการหลายประการก่อนที่รัฐสภาจะออกกฎหมายในการกำหนดกฎระเบียบสำหรับเทคโนโลยี AI เพื่อความปลอดภัยนี้

โดยมาตราการดังกล่าวมีใจความว่า

  • ผู้พัฒนา AI ต้องอนุญาตให้ผู้เชี่ยวชาญทดสอบโมเดลเพื่อหาพฤติกรรมไม่ดีของ AI
  • ผู้พัฒนา AI ต้องลงทุนในความมั่นคงของระบบความปลอดภัย
  • ผู้พัฒนา AI ต้องส่งเสริมให้ภายนอกค้นหาช่องโหว่ความปลอดภัย
  • ผู้พัฒนา AI ต้องระบุความเสี่ยงทางสังคมเช่น อคติของ AI และการใช้งาน AI ที่ไม่เหมาะสม
  • ผู้พัฒนา AI ต้องให้ความสำคัญกับการวิจัยเกี่ยวกับความเสี่ยงทางสังคมจาก AI
  • ผู้พัฒนา AI ต้องแบ่งปันข้อมูลความปลอดภัยและความเชื่อถือกับบริษัทอื่น ๆ และรัฐบาล
  • ผู้พัฒนา AI ต้องทำลายน้ำในเนื้อหาภาพและเสียงที่ผลิตโดย AI
  • ผู้พัฒนา AI ต้องนำเอาเทคโนโลยี AI ที่ล้ำที่สุดมาช่วยแก้ไขปัญหาสังคม

ความร่วมมือนี้ถือเป็นการแสดงให้เห็นถึงความล่าช้าและความยากลำบากของรัฐบาลสหรัฐในการออกกฏหมายควบคุม AI แม้สหรัฐจะผ่านกฏหมายควบคุม AI ไปบ้างแล้ว เช่นการออกกฏหมายบังคับให้บริษัทต้องรับผิดชอบเนื้อหาที่อันตรายที่ผลิตโดย AI เป็นต้น อย่างไรก็ตามเนื้อหาในข้อตกลงยังคงครอบคลุมกว่ากฎหมายมาก ฉะนั้นความร่วมมือระหว่างรัฐบาลและบริษัทผู้พัฒนา AI ถือเป็นเรื่องจำเป็น

ความร่วมมือนี้ถือเป็นก้าวสำคัญในการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบ มาตรการคุ้มครองที่ตกลงกันไว้จะช่วยป้องกันไม่ให้ AI ถูกใช้ในทางที่ผิดและจะส่งเสริมให้ AI ถูกใช้เพื่อประโยชน์ของสังคม

 

ที่มา: Engadget, Bloomberg

วันที่ : 21/7/2566