AI là công nghệ giúp máy móc và chương trình máy tính trở nên thông minh hơn, cho phép chúng thực hiện các nhiệm vụ thường đòi hỏi trí thông minh của con người. Nó bao gồm những thứ như hiểu ngôn ngữ con người, nhận biết các mẫu hình, học hỏi kinh nghiệm và đưa ra quyết định. Nói chung, các hệ thống AI hoạt động bằng cách xử lý lượng dữ liệu khổng lồ, tìm kiếm các mẫu hình để mô hình hóa việc đưa ra quyết định của chính chúng.
Theo ISO/IEC TR 24030:2021, AI đề cập đến “khả năng tiếp thu, xử lý, tạo ra và áp dụng kiến thức dưới dạng mô hình để thực hiện một hoặc nhiều nhiệm vụ nhất định”. Hệ thống AI hoạt động trên cơ sở đầu vào, bao gồm các quy tắc và dữ liệu được xác định trước, có thể được cung cấp bởi con người hoặc máy móc, để thực hiện các nhiệm vụ cụ thể.
Khi khả năng của AI tăng lên theo cấp số nhân, sẽ có những lo ngại sâu sắc về quyền riêng tư, thành kiến, bất bình đẳng, an toàn và bảo mật. Việc xem xét rủi ro AI tác động đến người dùng như thế nào là rất quan trọng để đảm bảo việc triển khai các công nghệ này một cách có trách nhiệm và bền vững. Với những rủi ro và sự phức tạp của AI, điều quan trọng là phải có cơ chế quản trị mạnh mẽ. Hệ thống quản lý AI đóng một vai trò quan trọng trong việc phát triển và triển khai công nghệ AI. ISO/IEC 42001, tiêu chuẩn hệ thống quản lý AI đầu tiên trên thế giới, đáp ứng nhu cầu đó.
ISO/IEC 42001 là tiêu chuẩn được công nhận trên toàn cầu, cung cấp các hướng dẫn về quản trị và quản lý công nghệ AI. Nó cung cấp một cách tiếp cận có hệ thống để giải quyết các thách thức liên quan đến việc triển khai AI trong khuôn khổ hệ thống quản lý được công nhận, bao gồm các lĩnh vực như đạo đức, trách nhiệm giải trình, tính minh bạch và quyền riêng tư dữ liệu. Được thiết kế để giám sát các khía cạnh khác nhau của trí tuệ nhân tạo, nó cung cấp một cách tiếp cận tích hợp để quản lý các dự án AI, từ đánh giá rủi ro đến xử lý hiệu quả những rủi ro này.
ISO/IEC 42001 tồn tại để giúp các doanh nghiệp và xã hội nói chung thu được giá trị tối đa một cách an toàn và hiệu quả từ việc sử dụng AI. Người sử dụng có thể được hưởng lợi theo nhiều cách: Cải thiện chất lượng, bảo mật, truy xuất nguồn gốc, tính minh bạch và độ tin cậy của các ứng dụng AI; nâng cao hiệu quả và đánh giá rủi ro AI; niềm tin lớn hơn vào hệ thống AI; giảm chi phí phát triển AI; tuân thủ quy định tốt hơn thông qua các biện pháp kiểm soát, chương trình đánh giá và hướng dẫn cụ thể phù hợp với các luật và quy định nảy sinh. Những điều này góp phần vào việc sử dụng AI có đạo đức và có trách nhiệm cho mọi người trên toàn thế giới.
Là một tiêu chuẩn hệ thống quản lý, ISO/IEC 42001 được xây dựng xoay quanh quy trình “Hoạch định -Thực hiện-Kiểm tra-Hành động” nhằm thiết lập, triển khai, duy trì và liên tục cải tiến trí tuệ nhân tạo. Cách tiếp cận này rất quan trọng: Thứ nhất, nó đảm bảo rằng giá trị tăng trưởng của AI được công nhận và có mức độ giám sát phù hợp. Thứ hai, hệ thống quản lý cho phép tổ chức chủ động điều chỉnh cách tiếp cận của mình phù hợp với sự phát triển theo cấp số nhân của công nghệ. Cuối cùng, nó khuyến khích các tổ chức tiến hành đánh giá rủi ro AI và xác định các hoạt động xử lý rủi ro AI một cách định kỳ.
Với sự phát triển nhanh chóng của AI trên toàn thế giới, ISO/IEC 42001 được dự đoán sẽ trở thành một phần không thể thiếu trong thành công của tổ chức, tiếp bước các tiêu chuẩn hệ thống quản lý khác như ISO 9001 về chất lượng, ISO 14001 về môi trường và ISO/IEC 27001 về an toàn thông tin.
Việc vượt qua ranh giới giữa cơ hội và rủi ro chỉ có thể thực hiện được khi có một cơ chế quản trị mạnh mẽ. Đây là lý do tại sao các nhà lãnh đạo doanh nghiệp và ngành công nghiệp cần được đào tạo về ISO/IEC 42001 – một hệ thống quản lý AI đặt nền tảng cho việc sử dụng AI có đạo đức, an toàn và có tư duy tiến bộ trong các ứng dụng khác nhau, để giúp điều hướng tránh những cạm bẫy trong hành trình AI chung của mình.