MỚI NHẤT
CƠ QUAN CỦA TỔNG LIÊN ĐOÀN LAO ĐỘNG VIỆT NAM
Tội phạm mạng lợi dụng công nghệ AI nhằm để tăng hiệu quả cho các vụ tấn công mạng. Ảnh chụp màn hình

Hội chứng tội phạm mạng đổ lỗi cho AI

NGUYỄN ĐĂNG LDO | 06/09/2023 16:34

Hội chứng né tránh tội lỗi do AI

Trí tuệ nhân tạo đang hiện diện ở mọi mặt của đời sống. Ngoài những ưu điểm, AI cũng đi kèm với nguy cơ tâm lí tiềm ẩn của công nghệ này. Ông Vitaly Kamluk, Giám đốc Nhóm Nghiên cứu và Phân tích toàn cầu (GReAT) khu vực châu Á - Thái Bình Dương của Kaspersky, tiết lộ rằng khi tội phạm mạng sử dụng AI để thực hiện hành vi phạm tội, chúng có thể đổ lỗi cho công nghệ này và cảm thấy ít phải chịu trách nhiệm hơn về hậu quả của cuộc tấn công mạng.

Điều này dẫn đến “hội chứng né tránh tội lỗi”.

Vị chuyên gia này lí giải rằng khi thực hiện các tấn công hoặc làm bị thương những người đi đường, kẻ phạm tội sẽ chịu áp lực tâm lí nặng nề từ việc chứng kiến trực tiếp hậu quả mà chúng gây ra. Tuy nhiên, điều này sẽ không được áp dụng đối với một tên tội phạm mạng ảo đang đánh cắp và tấn công một nạn nhân mà chúng không bao giờ nhìn thấy.

“Việc tạo ra AI mang lại tiền bạc hoặc lợi ích bất hợp pháp cho kẻ phạm tội một cách ‘thần kì’, tạo ra khoảng cách giữa tâm lý tội lỗi và hành vi phạm tội của chúng vì trên thực tế, người phạm tội không thực sự thực hiện hành vi, mà AI mới chính là chủ thể phạm tội”, ông Kamluk cho biết.

Một tác dụng phụ tâm lý khác của AI có thể ảnh hưởng đến các nhóm bảo mật công nghệ thông tin là “ủy thác trách nhiệm”. Khi ngày càng có nhiều quy trình và công cụ an ninh mạng được tự động hóa và ủy quyền cho mạng nơ-ron nhân tạo, con người có thể cảm thấy ít phải chịu trách nhiệm hơn nếu một cuộc tấn công mạng xảy ra, đặc biệt là trong môi trường công ty.

Làm thế nào tận dụng lợi thế của AI?

Liên minh châu Âu đã bắt đầu thảo luận về việc đánh dấu nội dung được tạo ra với sự trợ giúp của AI. Bằng cách đó, người dùng ít nhất sẽ có cách nhanh chóng và đáng tin cậy để phát hiện ra các hình ảnh, âm thanh, video hoặc văn bản được tạo ra bởi AI. Sẽ luôn có những kẻ phạm tội, nhưng chỉ là thiểu số và luôn phải chạy trốn.

Đối với các nhà phát triển AI, việc cấp phép cho các hoạt động như vậy có thể là hợp lý vì những hệ thống này có thể gây hại. Đây là một công nghệ có nhiều mục đích sử dụng, tương tự như các thiết bị quân sự hoặc có thể dùng cả hai cách. Vì thế, việc sản xuất nội dung được tạo ra bởi AI là điều cần phải được kiểm soát, bao gồm cả các hạn chế xuất khẩu khi cần thiết.

Các chuyên gia an ninh mạng cũng đề cao việc cần có một quy trình xử lí việc sử dụng và lạm dụng AI sai mục đích, đồng thời có các thông tin liên hệ rõ ràng để báo cáo hành vi lạm dụng. Qui trình này có thể được xác minh bằng sự hỗ trợ dựa trên AI tuyến đầu và có thể được con người xác thực trong một số trường hợp cần thiết.

Bên cạnh đó, việc nâng cao nhận thức về cách phát hiện nội dung nhân tạo, cách xác thực nội dung đó và cách báo cáo hành vi lạm dụng có thể xảy ra là biện pháp hiệu quả nhất để đối phó với các tác nhân gây hại.

“Với sự phát triển của AI, mọi người đã chứng kiến ​​​​sự đột phá của công nghệ có thể tổng hợp nội dung tương tự như những gì con người làm: từ hình ảnh đến âm thanh, video deepfake và thậm chí cả các cuộc hội thoại dựa trên văn bản không thể phân biệt được với con người.

Giống như hầu hết các đột phá công nghệ, AI là con dao hai lưỡi. Mọi người luôn có thể tận dụng nó để làm lợi thế cho mình miễn biết cách đặt chỉ dẫn an toàn cho những cỗ máy thông minh này”, ông Vitaly Kamluk chốt lại.

Tin mới nhất

Gợi ý dành cho bạn