MỚI NHẤT
CƠ QUAN CỦA TỔNG LIÊN ĐOÀN LAO ĐỘNG VIỆT NAM
ChatGPT và một số chatbot AI khác dường như sẽ phải đối mặt với nhiều quy định chặt chẽ hơn trong tương lai. Ảnh: AFP

Những rắc rối về pháp lý mà chatbot trí tuệ nhân tạo phải đối mặt

Anh Vũ LDO | 06/05/2023 19:39

OpenAI đã xoay sở để xoa dịu các cơ quan quản lý dữ liệu của Italy và dỡ bỏ lệnh cấm ChatGPT, nhưng cuộc chiến chống lại các cơ quan quản lý châu Âu của nó còn lâu mới kết thúc.

Đầu năm nay, chatbot trí tuệ nhân tạo (AI) ChatGPT phổ biến và gây tranh cãi của OpenAI đã gặp phải một trở ngại pháp lý lớn là lệnh cấm có hiệu lực ở Italy.

Cơ quan bảo vệ dữ liệu của Italy (GPDP) đã cáo buộc OpenAI vi phạm các quy tắc bảo vệ dữ liệu của EU và công ty đã đồng ý hạn chế quyền truy cập vào dịch vụ ở nước này trong khi họ cố gắng khắc phục sự cố.

Vào ngày 28.4, ChatGPT đã quay trở lại Italy khi OpenAI giải quyết nhẹ nhàng các mối quan tâm của GPDP mà không thực hiện các thay đổi lớn đối với dịch vụ của mình.

GPDP đã nói rằng họ “hoan nghênh” những thay đổi mà ChatGPT đã thực hiện. Tuy nhiên, các vấn đề pháp lý của công ty, và của các công ty xây dựng chatbot tương tự, có thể chỉ mới bắt đầu.

Các cơ quan quản lý ở một số quốc gia đang điều tra cách thức những công cụ AI này thu thập và tạo ra thông tin, viện dẫn một loạt mối lo ngại từ việc thu thập dữ liệu đào tạo trái phép của các công ty cho đến xu hướng đưa ra thông tin sai lệch của chatbot. 

Tại EU, họ đang áp dụng Quy định bảo vệ dữ liệu chung (GDPR), một trong những khuôn khổ pháp lý về quyền riêng tư mạnh nhất thế giới, những tác động của nó có thể sẽ lan rộng ra bên ngoài châu Âu.

Trong khi đó, các nhà lập pháp trong khối đang đưa ra một đạo luật sẽ giải quyết cụ thể về công nghệ AI, có khả năng mở ra một kỷ nguyên quy định mới cho các hệ thống như ChatGPT.

Các vấn đề khác nhau của ChatGPT với thông tin sai lệch, bản quyền và bảo vệ dữ liệu vào tầm ngắm

ChatGPT là một trong những ví dụ phổ biến nhất về AI tổng quát, một thuật ngữ chung bao gồm các công cụ tạo văn bản, hình ảnh, video và âm thanh dựa trên lời nhắc của người dùng.

Không chỉ ChatGPT, các quy định sẽ nhắm tới những AI tổng quát nói chung, như Bing AI của Microsoft hay Bard của Google. Ảnh: AFP 

Dịch vụ này được cho là đã trở thành một trong những ứng dụng tiêu dùng phát triển nhanh nhất trong lịch sử sau khi đạt 100 triệu người dùng hoạt động hàng tháng chỉ hai tháng sau khi ra mắt vào tháng 11.2022. Tuy nhiên, OpenAI chưa bao giờ xác nhận những con số này. 

Hiện nay, mọi người sử dụng nó để dịch văn bản sang các ngôn ngữ khác nhau, viết bài luận đại học và tạo mã. Nhưng các nhà phê bình, bao gồm cả các cơ quan quản lý, đã nêu bật vấn đề thông tin đầu ra không đáng tin cậy của ChatGPT, các vấn đề bản quyền khó hiểu và các phương pháp bảo vệ dữ liệu mờ ám.

Italy là quốc gia đầu tiên thực hiện một động thái với ChatGPT. 

Vào ngày 31.3, họ đã nêu rõ bốn vấn đề mà họ tin rằng OpenAI đã vi phạm GDPR: cho phép ChatGPT cung cấp thông tin không chính xác hoặc gây hiểu lầm, không thông báo cho người dùng về các hoạt động thu thập dữ liệu của mình, không đáp ứng bất kỳ lý do nào trong sáu lý do pháp lý có thể có để xử lý dữ liệu cá nhân và không ngăn chặn triệt để trẻ em dưới 13 tuổi sử dụng dịch vụ.

Cơ quan của Italy đã ra lệnh cho OpenAI ngay lập tức ngừng sử dụng thông tin cá nhân được thu thập từ các công dân nước này trong dữ liệu đào tạo của mình cho ChatGPT.

Không có quốc gia nào khác từng thực hiện hành động như vậy. Nhưng kể từ tháng 3, ít nhất ba quốc gia EU là Đức, Pháp và Tây Ban Nha, đã tiến hành các cuộc điều tra về ChatGPT.

Trong khi đó, bên kia Đại Tây Dương, Canada đang đánh giá các mối lo ngại về quyền riêng tư theo Đạo luật Bảo vệ Thông tin Cá nhân và Tài liệu Điện tử, hay PIPEDA.

Mối quan tâm của cơ quan quản lý

Các mối quan tâm của cơ quan quản lý có thể được chia thành hai loại: dữ liệu đào tạo của ChatGPT đến từ đâu và cách OpenAI cung cấp thông tin cho người dùng của nó.

ChatGPT sử dụng các mô hình ngôn ngữ lớn (LLM) GPT-3.5 và GPT-4 của OpenAI, được đào tạo trên số lượng lớn văn bản do con người tạo ra. Điều này có khả năng gây ra những vấn đề lớn, theo GDPR.

Luật được ban hành vào năm 2018 và áp dụng cho mọi dịch vụ thu thập hoặc xử lý dữ liệu từ công dân EU, bất kể tổ chức chịu trách nhiệm có trụ sở ở đâu.

Xu hướng cung cấp thông tin sai lệch của ChatGPT cũng có thể gây ra sự cố. Các quy định của GDPR quy định rằng tất cả dữ liệu cá nhân phải chính xác, điều mà GPDP đã nhấn mạnh trong thông báo của mình.

Tùy thuộc vào cách xác định điều đó, nó có thể gây rắc rối cho hầu hết các trình tạo văn bản AI, vốn dễ bị “ảo giác”: một thuật ngữ dễ thương trong ngành để chỉ các câu trả lời thực tế không chính xác hoặc không liên quan cho một truy vấn.

Điều này đã gây ra một số hậu quả trong thế giới thực ở những nơi khác, vì một thị trưởng khu vực của Australia đã đe dọa kiện OpenAI vì tội phỉ báng sau khi ChatGPT tuyên bố sai sự thật rằng ông đã từng ngồi tù vì tội hối lộ.

Tin mới nhất

Gợi ý dành cho bạn