Mục tiêu ban hành Quyết định số 1290/QĐ-BKHCN nhằm thúc đẩy sự quan tâm của các bên liên quan trong việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo ở Việt Nam một cách có trách nhiệm.
Đồng thời, thúc đẩy việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm, đồng thời hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng; thúc đẩy việc chia sẻ kinh nghiệm trong hoạt động nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo nhằm đạt được sự tin tưởng của người dùng và xã hội đối với trí tuệ nhân tạo cũng chính là tạo điều kiện thuận lợi cho việc nghiên cứu, phát triển trí tuệ nhân tạo ở Việt Nam.
Ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm
Trong hướng dẫn, Bộ Khoa học và Công nghệ đã đưa ra 9 nguyên tắc nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo: Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo; tính minh bạch; khả năng kiểm soát; an toàn; bảo mật; quyền riêng tư; tôn trọng quyền và phẩm giá con người; hỗ trợ người dùng; trách nhiệm giải trình.
Một là, tinh thần hợp tác, thúc đẩy đổi mới sáng tạo. Nhà phát triển cần chú ý đến khả năng kết nối và tương tác của các hệ thống trí tuệ nhân tạo.
Cụ thể, các nhà phát triển cần xem xét tính liên kết và khả năng tương tác giữa các hệ thống trí tuệ nhân tạo của mình với các hệ trí tuệ nhân tạo khác thông qua việc xem xét tính đa dạng của các hệ thống trí tuệ nhân tạo nhằm: tăng cường lợi ích của hệ thống trí tuệ nhân tạo thông qua quá trình kết nối các hệ thống trí tuệ nhân tạo; tăng cường sự phối hợp để kiểm soát rủi ro.
Hai là, tính minh bạch. Nhà phát triển cần chú ý đến việc kiểm soát đầu vào/đầu ra của hệ thống trí tuệ nhân tạo và khả năng giải thích các phân tích có liên quan.
Ba là, khả năng kiểm soát. Để đánh giá các rủi ro liên quan đến khả năng kiểm soát của hệ thống trí tuệ nhân tạo, các nhà phát triển cần thực hiện đánh giá trước (là quá trình đánh giá liệu hệ thống có đáp ứng với các yêu cầu kỹ thuật và tiêu chuẩn tương ứng). Một trong những phương pháp đánh giá rủi ro là tiến hành thử nghiệm trong một không gian riêng như trong phòng thí nghiệm hoặc môi trường thử nghiệm nơi đã có các biện pháp đảm bảo an ninh, an toàn trước khi đưa vào áp dụng thực tế.
Bốn là, an toàn. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo sẽ không gây tổn hại đến tính mạng, thân thể hoặc tài sản của người dùng hoặc bên thứ ba kể cả thông qua trung gian. Về cơ bản, khuyến khích nhà phát triển tham khảo các tiêu chuẩn quốc tế có liên quan và chú ý đến những điểm sau đây, trong đó đặc biệt lưu ý các khả năng đầu ra hoặc chương trình thay đổi do quá trình huấn luyện hệ thống trí tuệ nhân tạo.
Năm là, bảo mật. Bên cạnh việc tuân thủ các văn bản, hướng dẫn và thực hiện các biện pháp bảo mật thông tin theo quy định (của các cơ quan chuyên môn, có thẩm quyền), các nhà phát triển cần chú ý đến những điểm sau đây, trong đó đặc biệt lưu ý các khả năng đầu ra hoặc chương trình thay đổi do quá trình huấn luyện hệ thống trí tuệ nhân tạo.
Sáu là, quyền riêng tư. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba. Quyền riêng tư được đề cập trong nguyên tắc này bao gồm quyền riêng tư về không gian (sự yên bình trong cuộc sống cá nhân), quyền riêng tư về thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc.
Bảy là, tôn trọng quyền và phẩm giá con người. Khi phát triển các hệ thống trí tuệ nhân tạo có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người của các cá nhân liên quan. Trong phạm vi có thể, tùy theo đặc điểm của công nghệ được áp dụng, các nhà phát triển cần thực hiện các biện pháp để đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị (định kiến) trong dữ liệu khi huấn luyện hệ thống trí tuệ nhân tạo.
Tám là, hỗ trợ người dùng. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo sẽ hỗ trợ người dùng và tạo điều kiện cho họ cơ hội lựa chọn theo cách phù hợp.
Chín là, trách nhiệm giải trình. Các nhà phát triển cần thực hiện trách nhiệm giải trình đối với các hệ trí tuệ nhân tạo mà họ đã phát triển để đảm bảo niềm tin của người dùng. Cụ thể, các nhà phát triển cần cung cấp cho người dùng thông tin để giúp họ lựa chọn và sử dụng hệ thống trí tuệ nhân tạo.