MỚI NHẤT
CƠ QUAN CỦA TỔNG LIÊN ĐOÀN LAO ĐỘNG VIỆT NAM
Ban lãnh đạo OpenAI cho rằng, nếu không được kiểm soát, AI có thể trở nên nguy hiểm cho loài người. Ảnh: AFP

OpenAI kêu gọi thành lập tổ chức đề phòng trí tuệ nhân tạo siêu thông minh

Anh Vũ LDO | 24/05/2023 16:13
OpenAI cho rằng, cần có cơ quan giám sát để bảo vệ loài người chống lại rủi ro của AI "siêu thông minh".

Các nhà lãnh đạo của OpenAI đã kêu gọi đưa ra quy định về các trí tuệ nhân tạo (AI) “siêu thông minh”, lập luận rằng cần có một cơ quan tương đương với Cơ quan Năng lượng Nguyên tử Quốc tế để bảo vệ loài người khỏi nguy cơ vô tình tạo ra thứ gì đó có sức mạnh hủy diệt, theo Guardian.

Trong một ghi chú ngắn đăng trên trang web của công ty, những người đồng sáng lập Greg Brockman và Ilya Sutskever cùng giám đốc điều hành, Sam Altman, kêu gọi thành lập một cơ quan quản lý quốc tế và bắt đầu làm việc về cách “kiểm tra hệ thống, yêu cầu kiểm tra, kiểm tra việc tuân thủ các tiêu chuẩn an toàn và đặt ra các hạn chế về mức độ triển khai cùng mức độ bảo mật” để giảm “rủi ro tồn tại” mà các hệ thống như vậy có thể gây ra.

“Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả như một trong những tập đoàn lớn nhất hiện nay.

Xét về mặt tích cực và tiêu cực, siêu trí tuệ sẽ mạnh hơn các công nghệ khác mà nhân loại từng phải đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều, nhưng chúng ta phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro hiện hữu, chúng ta không thể chỉ phản ứng được", OpenAI viết.

Giám đốc điều hành OpenAI Sam Altman. Ảnh: AFP

Trong ngắn hạn, bộ ba của OpenAI kêu gọi “sự phối hợp ở một mức độ nào đó” giữa các công ty làm việc trong lĩnh vực nghiên cứu AI tiên tiến, nhằm đảm bảo sự phát triển của các mô hình mạnh mẽ hơn bao giờ hết tích hợp trơn tru với xã hội, đồng thời ưu tiên sự an toàn.

Chẳng hạn, sự phối hợp đó có thể được thực hiện thông qua một dự án do chính phủ lãnh đạo hoặc thông qua một thỏa thuận tập thể nhằm hạn chế sự phát triển về năng lực AI.

Các nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của siêu trí tuệ trong nhiều thập kỷ, nhưng khi sự phát triển của AI đã tăng tốc, những rủi ro đó đã trở nên cụ thể hơn. Trung tâm an toàn AI (CAIS) có trụ sở tại Mỹ, hoạt động nhằm “giảm thiểu rủi ro do trí tuệ nhân tạo gây ra ở quy mô xã hội”, mô tả 8 loại rủi ro “thảm họa” và “hiện hữu” mà sự phát triển AI có thể gây ra.

Trong khi một số người lo lắng về việc một AI mạnh mẽ sẽ hủy diệt hoàn toàn loài người, dù vô tình hay cố ý, CAIS mô tả những tác hại khác nguy hiểm hơn.

Một thế giới mà các hệ thống AI được giao nhiều lao động một cách tự nguyện hơn bao giờ hết có thể dẫn đến việc loài người “mất khả năng tự quản và trở nên hoàn toàn phụ thuộc vào máy móc”, được mô tả là “sự suy yếu” và một nhóm nhỏ những người kiểm soát các hệ thống mạnh mẽ có thể “biến AI thành một lực lượng tập trung hóa”, dẫn đến “giá trị bị khóa chặt”, một hệ thống phân chia đẳng cấp vĩnh cửu giữa kẻ cai trị và kẻ bị trị.

Các nhà lãnh đạo của OpenAI cho biết, để những rủi ro đó, “mọi người trên khắp thế giới nên quyết định một cách dân chủ về các giới hạn và mặc định cho các hệ thống AI”, nhưng thừa nhận rằng “chúng tôi chưa biết cách thiết kế một cơ chế như vậy”. Tuy nhiên, OpenAI cho rằng việc tiếp tục phát triển các hệ thống mạnh mẽ đáng để mạo hiểm.

Tin mới nhất

Gợi ý dành cho bạn