Viện Công nghệ số và Chuyển đổi số quốc gia đang lấy ý kiến các đơn vị trong Bộ Khoa học và Công nghệ để xây dựng danh mục hệ thống trí tuệ nhân tạo có rủi ro cao.
Trong văn bản gửi các đơn vị thuộc Bộ Khoa học và Công nghệ tuần trước, Viện Công nghệ số và Chuyển đổi số quốc gia (Viện CNS&CĐS) – đơn vị chủ trì xây dựng dự thảo – cho biết việc lấy ý kiến nhằm đảm bảo việc xây dựng danh mục hệ thống trí tuệ nhân tạo có rủi ro cao được hiệu quả, phù hợp với đặc thù của từng lĩnh vực.
Một robot được trình diễn tại triển lãm ở Hà Nội, tháng 8/2025. Ảnh: Lưu Quý
Theo đó, các đơn vị sẽ dựa trên quy định dự kiến về hệ thống trí tuệ nhân tạo có rủi ro cao, sau đó đưa ra các đề xuất, gồm các nội dung: lĩnh vực, tên hệ thống (được xác định theo công dụng hoặc mục đích sử dụng); phạm vi và điều kiện xác định hệ thống thuộc Danh mục.
Chẳng hạn trong lĩnh vực Y tế và Chăm sóc sức khỏe, các đơn vị liên quan có thể đề xuất một nội dung như “hệ thống hỗ trợ đưa ra phác đồ điều trị hoặc quyết định chỉ định can thiệp y tế xâm lấn trên cơ thể người bệnh” cùng phạm vi và điều kiện áp dụng là “chỉ áp dụng khi hệ thống trực tiếp ra quyết định hoặc thực thi mà không qua khâu xem xét, phê duyệt độc lập của người hành nghề khám bệnh, chữa bệnh”. Ngoài hệ thống trí tuệ nhân tạo có rủi ro cao, Viện cũng lấy ý kiến về danh mục AI rủi ro cao phải chứng nhận sự phù hợp trước khi đưa vào sử dụng.
Danh mục trí tuệ nhân tạo có rủi ro cao là một nội dung quan trọng trong việc thi hành Luật Trí tuệ nhân tạo. Theo luật, hệ thống trí tuệ nhân tạo được phân loại theo ba mức rủi ro: cao, trung bình, thấp. Nhà cung cấp tự phân loại trước khi đưa vào sử dụng, dựa trên hướng dẫn kỹ thuật sẽ được ban hành. Từ việc phân loại, luật cũng đưa ra các điều khoản để thúc đẩy phát triển và quản lý, đặc biệt với các hệ thống trí tuệ nhân tạo rủi ro cao.
Trước đó, Bộ Khoa học và Công nghệ cũng đưa ra dự thảo Nghị định quy định chi tiết một số điều và biện pháp thi hành Luật Trí tuệ nhân tạo, trong đó, lần đầu đề cập tới các tiêu chí cụ thể để xác định hệ thống AI có rủi ro cao, làm cơ sở xây dựng danh mục các hệ thống cần kiểm soát chặt chẽ hơn.
Theo dự thảo Nghị định, một hệ thống AI được coi là rủi ro cao khi có thể gây tác động thiệt hại đối với tính mạng, sức khỏe, tài sản, quyền con người hoặc an ninh quốc gia. Mức độ tự động hóa của hệ thống, vai trò của AI trong việc đưa ra quyết định cuối cùng cũng như khả năng giám sát, can thiệp của con người trong quá trình vận hành là những yếu tố được xem xét.
Dự thảo cũng xác định các lĩnh vực mà việc ứng dụng AI có thể kéo theo hệ quả lớn nếu xảy ra sai sót, bao gồm y tế, giáo dục, tuyển dụng và việc làm, tài chính – ngân hàng, giao thông vận tải, năng lượng, tư pháp, hạ tầng kỹ thuật trọng yếu cũng như các hoạt động quản lý nhà nước và cung cấp dịch vụ công. Ngoài ra, quy mô ảnh hưởng của hệ thống, như số lượng người dùng hoặc mức độ kết nối với các hạ tầng quan trọng, cũng là tiêu chí để đánh giá rủi ro.
Tuy vậy, không phải mọi hệ thống đáp ứng các tiêu chí trên đều bị xếp vào nhóm rủi ro cao. Dự thảo đưa ra một số trường hợp loại trừ, trong đó có các hệ thống chỉ thực hiện các tác vụ kỹ thuật như thu thập, xử lý, phân loại hoặc cải thiện chất lượng dữ liệu mà không trực tiếp tạo ra quyết định ảnh hưởng đến quyền và lợi ích của tổ chức, cá nhân.
Các hệ thống có cơ chế giám sát thực chất của con người cũng có thể được xem xét không đưa vào danh mục rủi ro cao, nếu người có thẩm quyền có khả năng kiểm tra độc lập, can thiệp hoặc từ chối quyết định của AI trước khi quyết định đó có hiệu lực. Tương tự, các hệ thống chỉ phục vụ mục đích quản trị nội bộ của doanh nghiệp, không tác động ra bên ngoài, hoặc chỉ đưa ra phân tích, dự báo và khuyến nghị mang tính tham khảo, cũng nằm trong diện được cân nhắc loại trừ.
Lưu Quý
Góp ý kiến tạo
Bạn có thể đặt mọi câu hỏi, vấn đề về Khoa học công nghệ, Đổi mới sáng tạo, Chuyển đổi số trực tiếp cho Bộ Khoa học và Công nghệ
Gửi góp ý
Nguồn: https://vnexpress.net/bo-khoa-hoc-va-cong-nghe-xay-dung-danh-muc-ai-rui-ro-cao-5056376.html

