บริษัทเทคโนโลยียักษ์ใหญ่ของสหรัฐฯ เดินหน้าร่วมมือกับภาครัฐด้านความปลอดภัย AI หลัง Google, Microsoft และ xAI ของ Elon Musk ตกลงเปิดให้รัฐบาลสหรัฐฯ เข้าตรวจสอบโมเดลปัญญาประดิษฐ์รุ่นใหม่ก่อนเปิดใช้งานสู่สาธารณะ หวังลดความเสี่ยงด้านไซเบอร์ การเผยแพร่ข้อมูลผิดพลาด และการนำ AI ไปใช้ในทางที่อาจกระทบต่อความมั่นคง
ข้อตกลงดังกล่าวเกิดขึ้นภายใต้ความร่วมมือกับหน่วยงานด้านความปลอดภัยของสหรัฐฯ โดยบริษัทที่เข้าร่วมจะส่งโมเดล AI ขั้นสูงให้ผู้เชี่ยวชาญภาครัฐประเมินความเสี่ยงล่วงหน้า ก่อนเปิดตัวอย่างเป็นทางการ
รายงานจาก Bloomberg ระบุว่า รัฐบาลสหรัฐฯ กำลังเร่งวางมาตรฐานด้าน “AI Safety” หลังเทคโนโลยี Generative AI เติบโตรวดเร็ว และเริ่มมีความกังวลว่าโมเดล AI อาจถูกใช้สร้างมัลแวร์ ปลอมแปลงข้อมูล หรือโจมตีโครงสร้างพื้นฐานสำคัญของประเทศได้ในอนาคต
Google และ Microsoft ถือเป็นสองบริษัทที่ลงทุนด้าน AI มากที่สุดในโลก ขณะที่ xAI ของ Elon Musk กำลังเร่งพัฒนาโมเดลแข่งขันกับ OpenAI และ Anthropic ในตลาด AI เชิงพาณิชย์ที่กำลังแข่งขันดุเดือด
ผู้เชี่ยวชาญมองว่า การเปิดให้รัฐบาลตรวจสอบโมเดลก่อนเปิดใช้งาน ถือเป็นสัญญาณว่าอุตสาหกรรม AI เริ่มเข้าสู่ยุคที่ “ความปลอดภัย” มีความสำคัญไม่แพ้ความสามารถของโมเดล โดยเฉพาะในช่วงที่หลายประเทศกำลังเตรียมออกกฎหมายควบคุม AI อย่างจริงจัง
นอกจากนี้ นักวิเคราะห์ยังชี้ว่า ความร่วมมือระหว่างภาครัฐและบริษัทเทคโนโลยีอาจกลายเป็นมาตรฐานใหม่ของอุตสาหกรรม AI ทั่วโลก เพราะบริษัทต่าง ๆ เริ่มตระหนักว่าความน่าเชื่อถือและความปลอดภัย จะเป็นปัจจัยสำคัญต่อการแข่งขันในระยะยาว
อย่างไรก็ตาม ยังมีข้อถกเถียงเกี่ยวกับขอบเขตการเข้าถึงข้อมูลของรัฐบาล และความสมดุลระหว่างการกำกับดูแลกับเสรีภาพในการพัฒนาเทคโนโลยี เพราะหลายฝ่ายกังวลว่าการควบคุมที่เข้มเกินไป อาจกระทบต่อความเร็วในการแข่งขันด้านนวัตกรรม AI ของสหรัฐฯ ในอนาคต
***ห้าม ทำซ้ำ/ดัดแปลง/คัดลอก***
แหล่งอ้างอิง:
- Bloomberg
- Reuters
- The Verge
- TechCrunch
- Reuters Institute for the Study of Journalism