Thứ ba, 18/06/2024, 14:38 PM

Ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm

(CL&CS)- Bộ Khoa học và Công nghệ vừa ban hành quyết định số 1290/QĐ-BKHCN về việc hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm.

Mục tiêu ban hành Quyết định số 1290/QĐ-BKHCN nhằm thúc đẩy sự quan tâm của các bên liên quan trong việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo ở Việt Nam một cách có trách nhiệm.

Đồng thời, thúc đẩy việc nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm, đồng thời hạn chế tối đa các ảnh hưởng tiêu cực cho con người và cộng đồng; thúc đẩy việc chia sẻ kinh nghiệm trong hoạt động nghiên cứu, phát triển và sử dụng các hệ thống/ứng dụng trí tuệ nhân tạo nhằm đạt được sự tin tưởng của người dùng và xã hội đối với trí tuệ nhân tạo cũng chính là tạo điều kiện thuận lợi cho việc nghiên cứu, phát triển trí tuệ nhân tạo ở Việt Nam.

ai-co-trach-nhiem1

Ứng dụng trí tuệ nhân tạo một cách an toàn và có trách nhiệm

Trong hướng dẫn, Bộ Khoa học và Công nghệ đã đưa ra 9 nguyên tắc nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo: Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo; tính minh bạch; khả năng kiểm soát; an toàn; bảo mật; quyền riêng tư; tôn trọng quyền và phẩm giá con người; hỗ trợ người dùng; trách nhiệm giải trình.

Một là, tinh thần hợp tác, thúc đẩy đổi mới sáng tạo. Nhà phát triển cần chú ý đến khả năng kết nối và tương tác của các hệ thống trí tuệ nhân tạo.

Cụ thể, các nhà phát triển cần xem xét tính liên kết và khả năng tương tác giữa các hệ thống trí tuệ nhân tạo của mình với các hệ trí tuệ nhân tạo khác thông qua việc xem xét tính đa dạng của các hệ thống trí tuệ nhân tạo nhằm: tăng cường lợi ích của hệ thống trí tuệ nhân tạo thông qua quá trình kết nối các hệ thống trí tuệ nhân tạo; tăng cường sự phối hợp để kiểm soát rủi ro.

Hai là, tính minh bạch. Nhà phát triển cần chú ý đến việc kiểm soát đầu vào/đầu ra của hệ thống trí tuệ nhân tạo và khả năng giải thích các phân tích có liên quan.

Ba là, khả năng kiểm soát. Để đánh giá các rủi ro liên quan đến khả năng kiểm soát của hệ thống trí tuệ nhân tạo, các nhà phát triển cần thực hiện đánh giá trước (là quá trình đánh giá liệu hệ thống có đáp ứng với các yêu cầu kỹ thuật và tiêu chuẩn tương ứng). Một trong những phương pháp đánh giá rủi ro là tiến hành thử nghiệm trong một không gian riêng như trong phòng thí nghiệm hoặc môi trường thử nghiệm nơi đã có các biện pháp đảm bảo an ninh, an toàn trước khi đưa vào áp dụng thực tế.

Bốn là, an toàn. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo sẽ không gây tổn hại đến tính mạng, thân thể hoặc tài sản của người dùng hoặc bên thứ ba kể cả thông qua trung gian. Về cơ bản, khuyến khích nhà phát triển tham khảo các tiêu chuẩn quốc tế có liên quan và chú ý đến những điểm sau đây, trong đó đặc biệt lưu ý các khả năng đầu ra hoặc chương trình thay đổi do quá trình huấn luyện hệ thống trí tuệ nhân tạo.

tri-tue-nhan-tao-ai-la-gi-ung-dung-nhu-the-nao-trong-cuoc-song--11

Năm là, bảo mật. Bên cạnh việc tuân thủ các văn bản, hướng dẫn và thực hiện các biện pháp bảo mật thông tin theo quy định (của các cơ quan chuyên môn, có thẩm quyền), các nhà phát triển cần chú ý đến những điểm sau đây, trong đó đặc biệt lưu ý các khả năng đầu ra hoặc chương trình thay đổi do quá trình huấn luyện hệ thống trí tuệ nhân tạo.

Sáu là, quyền riêng tư. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba. Quyền riêng tư được đề cập trong nguyên tắc này bao gồm quyền riêng tư về không gian (sự yên bình trong cuộc sống cá nhân), quyền riêng tư về thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc.

Bảy là, tôn trọng quyền và phẩm giá con người. Khi phát triển các hệ thống trí tuệ nhân tạo có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người của các cá nhân liên quan. Trong phạm vi có thể, tùy theo đặc điểm của công nghệ được áp dụng, các nhà phát triển cần thực hiện các biện pháp để đảm bảo không gây ra sự phân biệt đối xử, không công bằng do thiên vị (định kiến) trong dữ liệu khi huấn luyện hệ thống trí tuệ nhân tạo.

Tám là, hỗ trợ người dùng. Nhà phát triển cần đảm bảo rằng hệ thống trí tuệ nhân tạo sẽ hỗ trợ người dùng và tạo điều kiện cho họ cơ hội lựa chọn theo cách phù hợp.

Chín là, trách nhiệm giải trình. Các nhà phát triển cần thực hiện trách nhiệm giải trình đối với các hệ trí tuệ nhân tạo mà họ đã phát triển để đảm bảo niềm tin của người dùng. Cụ thể, các nhà phát triển cần cung cấp cho người dùng thông tin để giúp họ lựa chọn và sử dụng hệ thống trí tuệ nhân tạo.

Trung Kiên

Bình luận

Nổi bật

Quảng Ninh: Diễn đàn đầu tư số Quốc tế tại Việt Nam năm 2024

Quảng Ninh: Diễn đàn đầu tư số Quốc tế tại Việt Nam năm 2024

sự kiện🞄Thứ năm, 21/11/2024, 15:43

(CL&CS) - Trong khuôn khổ Tuần lễ số Quốc tế Việt Nam được tổ chức tại thành phố Hạ Long, tỉnh Quảng Ninh, ngày 20/11, Bộ Thông tin và Truyền thông phối hợp với Ủy ban Nhân dân tỉnh tổ chức Diễn đàn đầu tư số quốc tế tại Việt Nam năm 2024.

10 giải pháp công nghệ vào chung kết Cuộc thi Dữ liệu với cuộc sống 2024

10 giải pháp công nghệ vào chung kết Cuộc thi Dữ liệu với cuộc sống 2024

sự kiện🞄Thứ năm, 21/11/2024, 15:43

(CL&CS) - Vừa qua, Cục Cảnh sát quản lý hành chính về trật tự xã hội (Bộ Công an) cho biết, Cuộc thi Dữ liệu với cuộc sống 2024 (Data for life 2024) do Bộ Công an phát động, đã chọn được 10 đội xuất sắc vào chung kết, diễn ra trong 2 ngày 26 và 27/11 tới.

Phát triển công nghiệp công nghệ thông tin thúc đẩy kinh tế số

Phát triển công nghiệp công nghệ thông tin thúc đẩy kinh tế số

sự kiện🞄Thứ năm, 21/11/2024, 10:51

(CL&CS) - Hiện nay, việc ưu tiên tập trung vào một số ngành, lĩnh vực trọng điểm mà Việt Nam có tiềm năng lớn và dư địa phát triển kinh tế số gồm: Thương mại bán buôn, bán lẻ; nông nghiệp; công nghiệp chế biến, chế tạo; du lịch; logistics.