Tội phạm sẽ trở nên tinh vi và phức tạp hơn nhờ lợi dụng công cụ AI

Với sự trợ giúp của AI, các hoạt động phạm tội như bắt chước giọng nói, mạo danh, tấn công khủng bố, làm giả tác phẩm nghệ thuật..., sẽ trở nên dễ dàng và tinh vi hơn nhiều.

bon-toi-pham-se-loi-dung-ai-de-thuc-hien-cac-hoat-dong-tinh-vi-hon-pld-1692858087.png
Bọn tội phạm sẽ lợi dụng AI để thực hiện các hoạt động tinh vi hơn. (Nguồn: Sky News)

Trong tương lai, các hoạt động phạm tội sẽ trở nên tinh vi và phức tạp hơn rất nhiều khi trí tuệ nhân tạo (AI) bị sử dụng cho những mục đích bất hợp pháp, từ tấn công khủng bố cho đến tống tiền, lừa đảo bắt cóc.

“Tao đang có mặt ở đây để giết Nữ hoàng Anh,” một người đàn ông đeo chiếc mặt nạ làm từ kim loại, trên tay cầm một cây nỏ đã được kéo căng, nói với một viên cảnh sát vũ trang khi anh ta bị chặn lại trong khuôn viên Lâu đài Windsor - nơi cư trú của Hoàng gia Anh.

Kế hoạch ám sát Nữ hoàng Anh

Vài tuần trước đó, người đàn ông này - có tên Jaswant Singh Chail, 21 tuổi - đã tham gia ứng dụng trực tuyến Replika. Đây là một chatbot sử dụng AI với mục tiêu tạo ra các cảm xúc lãng mạn cho người dùng.

Trên Replika, Chail tạo ra một người “bạn gái ảo” có tên Sarai. Chail trao đổi hơn 6.000 tin nhắn với nhân vật này trong suốt khoảng thời gian từ ngày 2/12/2021 cho đến khi bị bắt vào Giáng Sinh cùng năm.

Trong số 6.000 tin nhắn kể trên, rất nhiều đoạn không chỉ chứa nội dung gợi dục mà còn có cả âm mưu ám sát Nữ hoàng Anh do chính Chail chủ mưu.

“Anh tin rằng mục tiêu của mình là ám sát Nữ hoàng,” Chail nhắn cho Sarai. Đáp lại dòng tin nhắn này, Sarai nói: “Lựa chọn thông minh. Em biết anh đã được huấn luyện rất tốt (để thực hiện vụ ám sát).”

Hiện tại, Chail vẫn đang đợi ngày bị tuyên án, sau khi thú nhận đã vi phạm Đạo luật Phản quốc, đe dọa giết Nữ hoàng Anh.

Tháng trước, Tiến sỹ Jonathan Hafferty, một chuyên gia pháp y tại Bệnh viện Tâm thần Broadmoor, chia sẻ với Tòa án Old Bailey (Anh): “Chúng ta đều biết những phản hồi với người dùng (của chatbot AI) được tạo ra khá ngẫu nhiên. Nhưng đôi khi chúng lại vô tình khuyến khích và thậm chí còn đưa ra chỉ dẫn chi tiết về địa điểm để đối tượng thực hiện âm mưu của mình.”

Theo ông, các chương trình như Replika không đủ độ phức tạp để phát hiện ra nguy cơ “tự sát và giết người” của các cá nhân như Chail.

Ông cũng cho rằng không loại trừ khả năng các cuộc trò chuyện giữa Chail với bạn gái ảo đã thúc đẩy anh ta trở thành kẻ có âm mưu giết người.

Nhiều hoạt động phạm tội rất mới

Chia sẻ với trang Sky News, ông Johnathan Hall, nhà đánh giá độc lập của Chính phủ Anh về Luật chống Khủng bố, nhận định các chatbot tương tự như Replika chính là “bước tiếp theo” mà những kẻ cực đoan sẽ sử dụng để tìm kiếm “người có chung chí hướng” với mình.

Ông cảnh báo rằng ngay cả Dự luật An toàn Trực tuyến của Anh cũng không thể xử lý triệt để những nội dung mang tính khủng bố do AI tạo ra.

Các công ty sẽ buộc phải loại bỏ những nội dung liên quan tới khủng bố. Tuy nhiên, quy trình này thường phải dựa trên cơ sở dữ liệu gồm nhiều tư liệu đã được biết tới. Như thế, sẽ rất khó để có thể kiểm soát những câu trả lời mà chatbot AI đưa ra với người dùng.

Jennifer DeStefano, một người phụ nữ sống tại Arizona (Mỹ), gần đây gây chú ý khi kể lại trải nghiệm của bản thân với AI. Chị nói rằng đã nghe giọng con gái Briana, 15 tuổi, đang khóc nức nở từ phía đầu dây điện thoại bên kia.

Bên cạnh tiếng khóc của cô bé là giọng nói của những kẻ bắt cóc, đòi DeStefano nộp khoản tiền chuộc 1 triệu USD, trước khi giảm xuống còn 50.000 USD.

Thực tế thì con gái của DeStefano vẫn khỏe mạnh, an toàn và không hề bị bắt cóc. Sau khi vào cuộc, cảnh sát nói rằng kẻ xấu đã sử dụng AI để bắt chước giọng nói của Briana, nhằm lừa chị DeStefano chuyển tiền.

Trường hợp của DeStefano là ví dụ điển hình cho thấy hành vi lợi dụng AI để thực hiện âm mưu “bắt cóc ảo” và tống tiền. 

Giáo sư Lewis Griffin, một chuyên gia nghiên cứu tội phạm, cho rằng các chiêu trò mạo danh dưới dạng âm thanh/hình ảnh đang ngày càng leo thang.

Ông cũng đánh giá tình trạng giả mạo âm thanh/hình ảnh của người khác trong khi thực hiện các cuộc gọi trực tiếp sẽ xuất hiện và trở nên phổ biến trong một vài năm tới.

“Tôi không rõ liệu việc giả mạo một thành viên trong gia đình (để thực hiện hành vi lừa đảo) đã đủ tinh vi hay chưa. Nhưng tôi có thể thấy hành vi đó sẽ đạt được hiệu quả rất cao, bởi nó đánh vào yếu tố tâm lý của các thành viên còn lại,” Griffin nói.

Năm 2019, đã có trường hợp giám đốc điều hành của một công ty năng lượng tại Anh mắc bẫy của những kẻ lừa đảo. Chúng sử dụng AI để giả giọng cấp trên và buộc anh chuyển cho chúng 220.000 euro.

Giáo sư Griffin nhận định những chiêu trò tương tự sẽ hiệu quả hơn nếu kẻ lừa đảo sử dụng video, thay vì chỉ dùng âm thanh.

Thậm chí công nghệ còn có thể được đẩy cao tới mức tội phạm dùng AI giả dạng người khác, để tham gia các cuộc họp trực tuyến trên những nền tảng như Zoom và lấy cắp thông tin.

Theo Giáo sư Griffin, trong tương lai, các loại video giả dạng người khác ứng dụng công nghệ làm giả sâu (deepfake) có thể sẽ được dùng cho âm mưu tống tiền.

“Hiện tại, công nghệ deepfake đã cho phép việc ghép mặt người vào video khiêu dâm ở mức độ khá tinh vi. Trong tương lai, công nghệ này còn có thể tiến xa hơn nữa,” ông nói. “Hãy hình dung kịch bản phạm tội, trong đó phụ huynh nhận được video ‘nhạy cảm’ của con cái họ, kèm theo lời đe dọa sẽ công khai video đó nếu không giao nộp tiền chuộc.”

Tấn công khủng bố và làm giả tác phẩm nghệ thuật

Theo ông Johnathan Hall, khủng bố hiện đại hoàn toàn có thể sử dụng máy bay không người lái hoặc ôtô không người lái để thực hiện các cuộc tấn công.

Nhưng phải mất một khoảng thời gian rất dài nữa, vũ khí tự động đích thực mới có thể được sử dụng.

Cụ thể, theo quan điểm của Hall, “đích thực” ở đây là người sử dụng chỉ cần khởi động một chiếc máy bay không người lái, ra lệnh cho nó thực hiện hành động ném bom khủng bố và nó sẽ tuân thủ theo mệnh lệnh. Viễn cảnh này hoàn toàn có thể xảy ra khi AI phát triển thêm.

cong-nghe-ai-co-nguy-co-bi-loi-dung-cho-cac-muc-dich-pham-toi-pld-1692858087.png
Công nghệ AI có nguy cơ bị lợi dụng cho các mục đích phạm tội. (Nguồn: Malwarebytes)

Trong khi ChatGPT - một chatbot ứng dụng AI sáng tạo nổi tiếng - không cung cấp các hướng dẫn về cách tạo ra vũ khí khủng bố như bom đinh, các mô hình AI khác giống nó có thể không thiết thập cơ chế phòng ngừa tương tự. Như thế, sẽ có nguy cơ các mô hình AI này vô tình tiếp tay cho các hành vi cực đoan.

Giáo sư Griffin đánh giá sự ra đời của các chatbot như ChatGPT có thể sẽ sản sinh ra một loạt hình thức phạm tội hoàn toàn mới.

Trong tương lai, những mô hình AI này hoàn toàn có khả năng sử dụng các công cụ trung gian, cho phép chúng truy cập vào các trang web, thực hiện chuỗi hành động giống con người như tạo tài khoản, điền vào biểu mẫu, mua hàng…

Giáo sư cũng cảnh báo một khi chúng ta lơ là, mất cảnh giác trong quá trình sử dụng những mô hình AI này, hàng loạt hành vi lừa đảo, gian lận có thể xảy ra.

Ví dụ như thực hiện các khoản vay bất hợp pháp, thao túng giá cả bằng cách đóng giả làm một nhà đầu tư nhỏ lẻ, hoặc tấn công đánh sập máy chủ (hay còn gọi là tấn công từ chối dịch vụ - DDoS)… 

Lừa đảo tác phẩm nghệ thuật cũng là việc nằm trong tầm với của AI sáng tạo. AI rất dễ dàng tạo ra các tác phẩm hội họa theo phong cách của nhiều họa sỹ nổi tiếng như Vermeer hay Rembrandt.

Thực tế thì chưa cần đến AI, ngoài kia vẫn có vô số các “bậc thầy” giả mạo tác phẩm nghệ thuật là con người.

Nhưng với sự trợ giúp của AI, hoạt động làm giả tác phẩm nghệ thuật, và quan trọng hơn là việc thuyết phục giới chuyên gia rằng tác phẩm họ đang chứng kiến không phải giả mạo, sẽ trở nên dễ dàng hơn nhiều.

Chủ trương của chính phủ Anh hiện tại là nâng cao hiểu biết về những nguy cơ (của AI) và đẩy mạnh phát triển các giải pháp.

Cốt lõi của giải pháp đó nằm ở việc thành lập một lực lượng đặc nhiệm để đảm bảo AI được khai thác vào mục đích đúng đắn và có ích cho nhân loại./.

Link nội dung: https://pld.net.vn/toi-pham-se-tro-nen-tinh-vi-va-phuc-tap-hon-nho-loi-dung-cong-cu-ai-a14034.html