Chính phủ Mỹ siết chặt giám sát mô hình AI
Theo đài CNBC, bước đi trên cho thấy chính quyền Tổng thống Donald Trump ngày càng quan tâm đến các vấn đề liên quan tới công nghệ và an ninh AI
Trung tâm Tiêu chuẩn và Đổi mới Trí tuệ Nhân tạo (CAISI), thuộc Bộ Thương mại Mỹ, hôm 5-5 thông báo sẽ thử nghiệm các mô hình trí tuệ nhân tạo (AI) từ một số công ty hàng đầu để đánh giá rủi ro bảo mật trước khi chúng được phát hành.
CAISI đã ký kết thỏa thuận với các hãng Microsoft, xAI và Google DeepMind để triển khai hoạt động thử nghiệm và nghiên cứu nhằm "đánh giá tốt hơn các năng lực AI tiên tiến và thúc đẩy tiêu chuẩn an ninh AI". Trước đó, CAISI đã ký thỏa thuận tương tự với các công ty OpenAI và Anthropic vào năm 2024.
CAISI cho biết thêm họ đã hoàn tất hơn 40 đợt đánh giá các mô hình AI cho đến giờ, đồng thời nhấn mạnh việc đo lường một cách độc lập và chặt chẽ là rất quan trọng để hiểu rõ công nghệ AI tiên tiến và các tác động của nó đối với an ninh quốc gia. Việc mở rộng hợp tác với các doanh nghiệp trong ngành sẽ giúp trung tâm này mở rộng quy mô hoạt động vì lợi ích cộng đồng vào thời điểm then chốt hiện nay.

Một số ứng dụng trí tuệ nhân tạo (AI) trên điện thoại thông minh, gồm ChatGPT, Claude, Gemini, Perplexity, Microsoft Copilot, Meta AI, Grok và DeepSeek. Ảnh: AP
Theo đài CNBC, bước đi trên cho thấy chính quyền Tổng thống Donald Trump ngày càng quan tâm đến các vấn đề liên quan tới công nghệ và an ninh AI. Nhà Trắng đang cân nhắc thành lập một nhóm công tác mới về AI nhằm xem xét các cơ chế giám sát tiềm năng, trong đó có kế hoạch thẩm định các mô hình AI trước khi được phát hành ra công chúng. Nhóm này sẽ quy tụ nhiều lãnh đạo công nghệ và quan chức chính phủ và có thể được thành lập thông qua một sắc lệnh hành pháp.
Sự quan tâm trên được thúc đẩy sau thông báo ra mắt mô hình AI mới mang tên "Mythos" của Công ty Anthropic (Mỹ) vào tháng trước. Anthropic mô tả mô hình này có khả năng vượt trội trong việc phát hiện điểm yếu và lỗ hổng bảo mật bên trong phần mềm, từ đó chỉ cho một số công ty nhất định sử dụng nó.