MỚI NHẤT
CƠ QUAN CỦA TỔNG LIÊN ĐOÀN LAO ĐỘNG VIỆT NAM
Hội nghị trí tuệ nhân tạo (AI) thế giới ở Trung Quốc năm 2021. Ảnh: Xinhua

Trí tuệ nhân tạo gặp sự cố, ai sẽ chịu trách nhiệm?

Khánh Minh LDO | 04/02/2023 12:00
Quy trách nhiệm cho ai khi trí tuệ nhân tạo (AI) hoặc các thuật toán gặp trục trặc: Lập trình viên, nhà sản xuất hay người tiêu dùng?

AI thường đưa ra những câu trả lời chính xác, đáng tin cậy. Nhưng chỉ vậy thôi là chưa đủ, theo Channel News Asia.

Các giải pháp AI - ít nhất là loại mà chúng ta sẽ thấy trong 7 năm tới - chỉ là những chương trình cực kỳ phức tạp. Chúng không thể chịu trách nhiệm về những sai lầm thay cho máy tính của bạn.

AI và những nhận thức về công nghệ

Hãy xem xét kỹ hơn về cách ta tương tác với máy tính và các công nghệ giúp tự động hóa một số suy nghĩ của con người. Chúng ta sử dụng máy tính với nhiều lý do khác nhau, từ chơi game, kết nối mọi người qua Internet, xử lý văn bản, thuyết trình và thực hiện các phép tính...

Trong những trường hợp nêu trên, liệu điều đó có phải máy tính đáng tin cậy hay không? Giả sử là đúng, tại sao chúng ta lại tin tưởng máy tính trong các trường hợp này? Trong khi máy tính vẫn thường xuyên gặp trục trặc?

Điều hợp lý là trong hầu hết các trường hợp, trừ khi yêu cầu máy tính thực hiện các phép tính, chúng ta tin tưởng máy tính vì chúng ta có thể xác minh ngay tức khắc rằng máy tính có đang làm theo những mệnh lệnh được đưa ra hay không.

Với các trường hợp tính toán, một lý do chính đáng khiến chúng ta tin tưởng máy tính bỏ túi là chúng ta đặt niềm tin vào tay nghề của các nhà sản xuất và lập trình viên.

Ngược lại, nhiều nhiệm vụ mà chúng ta muốn AI thực hiện lại cần có khả năng phán đoán. Ví dụ, các khuyến nghị điều trị và chẩn đoán y tế có đa dạng loại hình yếu tố đánh giá khác nhau, theo đó mọi người tổng hợp thông tin từ nhiều nguồn tin và sắp xếp chúng theo một cách phức tạp.

Hộp trắng, hộp đen, hộp xám

Để minh họa, hãy xem xét một loại mô hình AI: "Hộp trắng" hay "AI có thể diễn giải". Loại AI này được coi là các chương trình máy tính phức tạp. 

Để một thuật toán hoạt động đúng cách, các lập trình viên phải lường trước mọi tình huống và biết cách xử lý chúng. Điều này khó đến nỗi sẽ không thích hợp nếu quy hết trách nhiệm cho các lập trình viên nếu họ mắc phải sai lầm.

Thay vào đó hãy quan sát mô hình AI hộp đen: Mô hình này liên quan đến các thuật toán phức tạp khó mà hiểu được, ngay cả các lập trình viên cũng vậy. Điều này là do lập trình viên không lập trình thuật toán một cách rõ ràng. Do vậy, chúng ta không biết AI đưa ra kết luận cuối cùng như thế nào.

Những mô hình khác gọi là "có thể giải thích" hay hộp xám AI, đang cố gắng đạt được điều tốt nhất của cả hai thế giới. Họ bắt đầu dựa trên cơ sở là hộp AI màu đen, sau đó sử dụng một AI khác để giải thích quyết định của AI đầu tiên. 

Với điều này, chúng ta có thể biết vì sao một quyết định nhất định lại được đưa ra. Tuy nhiên, ta vẫn sẽ không thể dự đoán trước AI sẽ đưa ra quyết định như thế nào.

Một robot trinh sát hỏa hoạn tại Hội nghị trí tuệ nhân tạo thế giới 2022 ở Thượng Hải, Trung Quốc. Ảnh: Xinhua

Trách nhiệm của người dùng

Tất cả những điều trên cho thấy, các nhà sản xuất và lập trình viên không thể chịu trách nhiệm về sự cố AI (ngoại trừ, có lẽ trong trường hợp sơ suất nghiêm trọng). Tuy nhiên, nếu không phải họ thì sẽ là ai?

Một câu trả lời hợp lý sẽ là chính người dùng. Xét cho cùng, nếu không có AI, thì chính những người "sẽ sử dụng AI" này phải chịu trách nhiệm về quyết định của chính mình.

Công nghệ không thể là cách để con người trốn tránh trách nhiệm của mình. Tuy nhiên, điều này có ý nghĩa đối với loại AI mà chúng ta triển khai và cách chúng ta triển khai chúng.

Đầu tiên, con người phải là đối tượng đưa ra quyết định cuối cùng trong mọi tình huống. Kết quả cuối mà AI đưa ra chỉ là các gợi ý, khuyến nghị tạm thời.

Bên cạnh đó, sẽ là phi lý nếu buộc người dùng phải chịu trách nhiệm cho sự cố của AI nếu họ không thể ngăn cản AI hành động theo quyết định sai lầm của nó.

Điều thứ hai, AI sẽ trở nên vô dụng nếu con người không có cách nào để quyết định liệu có nên tuân theo các khuyến nghị của AI hay không.

Niềm tin vào AI cũng một phần tác động đến lòng tin của người dùng. Nhưng suy cho cùng, AI cũng không thể chịu trách nhiệm về những sai lầm mà chúng tạo ra.

AI sẽ trở nên đáng tin cậy khi có thể đưa ra quyết định chính xác cho người dùng.

Tin mới nhất

Gợi ý dành cho bạn