Ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm
(CL&CS)- Bộ Khoa học và Công nghệ vừa ban hành quyết định số 1290/QĐ-BKHCN về việc hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm.
Mục tiêu ban hành Quyết định số 1290/QĐ-BKHCN nhằm thúc đẩy sự quan tâm của các bên liên quan trong việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo ở Việt Nam một cách có trách nhiệm.
Đồng thời, thúc đẩy việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm, đồng thời hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng; thúc đẩy việc chia sẻ kinh nghiệm trong hoạt động nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo nhằm đạt được sự tin tưởng của người dùng và xã hội đối với trí tuệ nhân tạo cũng chính là tạo điều kiện thuận lợi cho việc nghiên cứu, phát triển trí tuệ nhân tạo ở Việt Nam.

Ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm
Trong hướng dẫn, Bộ Khoa học và Công nghệ đã đưa ra 9 nguyên tắc nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo: Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo; tính minh bạch; khả năng kiểm soát; an toàn; bảo mật; quyền riêng tư; tôn trọng quyền và phẩm giá con người; hỗ trợ người dùng; trách nhiệm giải trình.
Một là, tinh thần hợp tác, thúc đẩy đổi mới sáng tạo. Nhà phát triển cần chú ý đến khả năng kết nối và tương tác của các hệ thống trí tuệ nhân tạo.
Cụ thể, các nhà phát triển cần xem xét tính liên kết và khả năng tương tác giữa các hệ thống trí tuệ nhân tạo của mình với các hệ trí tuệ nhân tạo khác thông qua việc xem xét tính đa dạng của các hệ thống trí tuệ nhân tạo nhằm: tăng cường lợi ích của hệ thống trí tuệ nhân tạo thông qua quá trình kết nối các hệ thống trí tuệ nhân tạo; tăng cường sự phối hợp để kiểm soát rủi ro.
Hai là, tính minh bạch. Nhà phát triển cần chú ý đến việc kiểm soát đầu vào/đầu ra của hệ thống trí tuệ nhân tạo và khả năng giải thích các phân tích có liên quan.
Ba là, khả năng kiểm soát. Để đánh giá các rủi ro liên quan đến khả năng kiểm soát của hệ thống trí tuệ nhân tạo, các nhà phát triển cần thực hiện đánh giá trước (là quá trình đánh giá liệu hệ thống có đáp ứng với các yêu cầu kỹ thuật và tiêu chuẩn tương ứng). Một trong những phương pháp đánh giá rủi ro là tiến hành thử nghiệm trong một không gian riêng như trong phòng thí nghiệm hoặc môi trường thử nghiệm nơi đã có các biện pháp đảm bảo an ninh, an toàn trước khi đưa vào áp dụng thực tế.
Bốn là, an toàn. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo sẽ không gây tổn hại đến tính mạng, thân thể hoặc tài sản của người dùng hoặc bên thứ ba kể cả thông qua trung gian. Về cơ bản, khuyến khích nhà phát triển tham khảo các tiêu chuẩn quốc tế có liên quan và chú ý đến những điểm sau đây, trong đó đặc biệt lưu ý các khả năng đầu ra hoặc chương trình thay đổi do quá trình huấn luyện hệ thống trí tuệ nhân tạo.

Năm là, bảo mật. Bên cạnh việc tuân thủ các văn bản, hướng dẫn và thực hiện các biện pháp bảo mật thông tin theo quy định (của các cơ quan chuyên môn, có thẩm quyền), các nhà phát triển cần chú ý đến những điểm sau đây, trong đó đặc biệt lưu ý các khả năng đầu ra hoặc chương trình thay đổi do quá trình huấn luyện hệ thống trí tuệ nhân tạo.
Sáu là, quyền riêng tư. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba. Quyền riêng tư được đề cập trong nguyên tắc này bao gồm quyền riêng tư về không gian (sự yên bình trong cuộc sống cá nhân), quyền riêng tư về thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc.
Bảy là, tôn trọng quyền và phẩm giá con người. Khi phát triển các hệ thống trí tuệ nhân tạo có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người của các cá nhân liên quan. Trong phạm vi có thể, tùy theo đặc điểm của công nghệ được áp dụng, các nhà phát triển cần thực hiện các biện pháp để đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị (định kiến) trong dữ liệu khi huấn luyện hệ thống trí tuệ nhân tạo.
Tám là, hỗ trợ người dùng. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo sẽ hỗ trợ người dùng và tạo điều kiện cho họ cơ hội lựa chọn theo cách phù hợp.
Chín là, trách nhiệm giải trình. Các nhà phát triển cần thực hiện trách nhiệm giải trình đối với các hệ trí tuệ nhân tạo mà họ đã phát triển để đảm bảo niềm tin của người dùng. Cụ thể, các nhà phát triển cần cung cấp cho người dùng thông tin để giúp họ lựa chọn và sử dụng hệ thống trí tuệ nhân tạo.
Trung Kiên
Bình luận
Nổi bật
Đột phá mạnh mẽ phát triển khoa học, công nghệ và đổi mới sáng tạo
sự kiện🞄Thứ sáu, 27/06/2025, 16:35
(CL&CS) - Sáng 27/6, tiếp tục chương trình Kỳ họp thứ 9, Quốc hội khóa XV, Quốc hội thông qua Luật Khoa học, công nghệ (sửa đổi) và đổi mới sáng tạo, với 435/438 đại biểu tham gia biểu quyết tán thành (chiếm 91% tổng số đại biểu).
Học viện Chiến lược Khoa học và Công nghệ là đơn vị sự nghiệp công lập trực thuộc Bộ Khoa học và Công nghệ
sự kiện🞄Thứ năm, 19/06/2025, 07:27
(CL&CS) - Phó Thủ tướng Nguyễn Chí Dũng vừa ký Quyết định số 17/2025/QĐ-TTg ngày 16/6/2025 quy định chức năng, nhiệm vụ, quyền hạn và cơ cấu tổ chức của Học viện Chiến lược Khoa học và Công nghệ trực thuộc Bộ Khoa học và Công nghệ.
Võng mạc nano nhân tạo mang đến siêu thị lực
sự kiện🞄Thứ hai, 16/06/2025, 14:13
(CL&CS) - Các nhà khoa học tạo ra loại võng mạc nhân tạo từ nguyên tố hiếm teluri, giúp phục hồi thị lực cho chuột, khỉ bị mù, thậm chí nhìn thấy ánh sáng hồng ngoại.
anh đứcLorem ipsum dolor sit amet, consectetur adipisicing elit. Quis cum, ut esse cupiditate autem. Dolor est dolorem sunt, sequi omnis corporis cumque ratione accusamus ex deserunt, molestiae consequuntur natus beatae.