Trí tuệ nhân tạo đã và đang cách mạng hóa mọi ngành nghề, từ y tế, tài chính đến sản xuất và dịch vụ. Tuy nhiên, cùng với những lợi ích to lớn, AI cũng tiềm ẩn nhiều rủi ro về đạo đức, pháp lý và xã hội, bao gồm các vấn đề như thiên vị thuật toán, thiếu minh bạch trong quyết định, rủi ro về quyền riêng tư dữ liệu, và nguy cơ về an ninh mạng. Tốc độ phát triển nhanh chóng của AI và sự gia tăng rộng rãi các đơn vị sử dụng khiến các cơ quan xây dựng tiêu chuẩn phải làm việc không ngừng nghỉ để bắt kịp xu hướng.
Trong nhiều năm, các tiêu chuẩn kỹ thuật đã đóng vai trò là mục tiêu định hướng cho các tổ chức đi theo một khuôn khổ quốc tế chung - một cách để chứng minh chất lượng, giảm thiểu rủi ro và thiết lập lòng tin với các bên liên quan. Tuy nhiên, trong vài năm trở lại đây, tốc độ thay đổi chóng mặt của AI, đặc biệt là sự xuất hiện của các hệ thống AI tạo sinh (Generative AI) hoặc AI tác nhân (Agentic AI) với độ phức tạp, tính năng động và linh hoạt cao hơn nhiều, đã buộc các tiêu chuẩn phải được cập nhật không ngừng. Các khuôn khổ hiện có hoặc đang được tiến hành thường được thiết kế để giải quyết các ứng dụng AI hẹp, chỉ tập trung vào một khía cạnh chung nhất. Tuy nhiên, thực tế là AI đang phát triển từng ngày, với tốc độ chóng mặt, việc xây dựng tiêu chuẩn luôn cần được bắt kịp với sự phát triển đó, tạo hành lang pháp lý tối ưu nhất.
ISO/IEC 42005:2025 về đánh giá, giám sát và triển khai các hệ thống AI có trách nhiệm
Để giải quyết những thách thức này, cộng đồng quốc tế, đứng đầu là Tổ chức Tiêu chuẩn hóa Quốc tế (ISO) và Ủy ban Kỹ thuật Điện Quốc tế (IEC), đã nỗ lực phát triển một bộ khung tiêu chuẩn toàn diện cho AI có trách nhiệm. Một trong những tiêu chuẩn được chờ đợi là ISO/IEC 42005:2025 – Công nghệ Thông tin – Trí tuệ Nhân tạo – Đánh giá AI có trách nhiệm (Information technology – Artificial intelligence – Responsible AI assessment). Tiêu chuẩn này được thiết kế để bổ sung cho các tiêu chuẩn khác trong bộ ISO/IEC 42000, đặc biệt là ISO/IEC 42001 (Hệ thống Quản lý AI - AIMS), bằng cách cung cấp một khuôn khổ cụ thể để đánh giá sự phù hợp của các hệ thống AI với các nguyên tắc có trách nhiệm.
Nội dung của tiêu chuẩn ISO/IEC 42005:2025 tập trung vào bốn trụ cột chính:
Tính minh bạch và giải thích được: Hệ thống AI cần đảm bảo người dùng hiểu rõ cách hoạt động và các yếu tố ảnh hưởng đến kết quả.
Đảm bảo công bằng và không thiên vị: Yêu cầu phân tích và kiểm chứng dữ liệu huấn luyện, thuật toán để tránh kết quả thiên lệch.
An toàn và bảo mật: Tích hợp các cơ chế quản lý rủi ro, ngăn ngừa lạm dụng hoặc sai sót hệ thống.
Trách nhiệm và giám sát: Các tổ chức phải chỉ định trách nhiệm rõ ràng, có quy trình kiểm tra nội bộ và báo cáo.
Tiêu chuẩn này sẽ là công cụ then chốt cho các tổ chức muốn thực hiện kiểm toán nội bộ, đánh giá của bên thứ ba, hoặc chứng nhận AI của họ theo các nguyên tắc có trách nhiệm.
Trong báo cáo của PwC Hoa Kỳ về tiêu chuẩn ngành cho AI có trách nhiệm, các chuyên gia đánh giá ISO/IEC 42005:2025 là bước tiến lớn khi lần đầu tiên đưa ra khung “phổ quát” cho cả doanh nghiệp và chính phủ trên toàn thế giới. Đặc biệt, PwC nhấn mạnh việc gắn tiêu chuẩn với quy trình ra quyết định chiến lược, từ khâu thiết kế mô hình đến vận hành và giám sát. Tiêu chuẩn còn được kỳ vọng trở thành cơ sở để các cơ quan quản lý xây dựng quy định pháp lý phù hợp trong thời gian tới.
Bằng cách thiết lập một chuẩn mực quốc tế cho việc đánh giá AI có trách nhiệm, tiêu chuẩn ISO/IEC 42005:2025 không chỉ giúp giảm thiểu rủi ro mà còn là động lực mạnh mẽ để thúc đẩy sự phát triển của một trí tuệ nhân tạo đáng tin cậy, công bằng và mang lại lợi ích thực sự cho xã hội.