Một số mô hình lý luận, kinh nghiệm lập pháp về trách nhiệm hình sự đối với trí tuệ nhân tạo và gợi mở cho Việt Nam

Bài viết đề xuất các giải pháp để hoàn thiện pháp luật hình sự Việt Nam, góp phần đấu tranh phòng, chống tội phạm và bảo vệ quyền con người trong bối cảnh kỷ nguyên công nghệ 4.0.

Tóm tắt: Sự phát triển của trí tuệ nhân tạo (AI) đã và đang làm thay đổi thế giới với những tiện ích không thể phủ nhận, nhưng bên cạnh đó cũng đặt ra những thách thức chưa từng có tiền lệ cho xã hội. Một vấn đề đang được quan tâm hiện nay là khi một AI thực hiện một hành vi nguy hiểm cho xã hộithì chủ thể nào sẽ phải chịu trách nhiệm, và liệu rằng có thể truy cứu trách nhiệm hình sự đối với thực thể AI hay không? Bài viết này nhằm nghiên cứu về bản chất của AI, đánh giá rủi ro tội phạm và tính khả thi của việc truy cứu trách nhiệm hình sự đối với AI thông qua việc phân tích pháp luật của một sốquốc gia trên thế giới. Từ đó, bài viết đề xuất các giải pháp để hoàn thiện pháp luật hình sự Việt Nam, góp phần đấu tranh phòng, chống tội phạm và bảo vệ quyền con người trong bối cảnh kỷ nguyên công nghệ 4.0.

Từ khóa: Trí tuệ nhân tạo, tội phạm trí tuệ nhân tạo, trách nhiệm hình sự, pháp luật hình sự

Abstract: The development of artificial intelligence (AI) has been transforming the world with undeniable benefits but has also posed unprecedented challenges to society. One pressing issue is that of determining accountability when an AI system engages in conduct harmful to society: who should bear the responsibility, and is it feasible to impose criminal liability on an AI entity? This article explores the nature of AI, assesses the risks of AI-related criminal activities, and examines the feasibility of holding AI systems criminally liable through analyzing legal frameworks of some selected countries. Based on these analyses, the article proposes solutions to improve Vietnam's criminal law, contributing to crime prevention and the protection of human rights in the context of the Fourth Industrial Revolution.

Keywords: Artificial intelligence, AI crime, criminal liability, criminal law

 

1. Sự cần thiết đặt ra vấn đề trách nhiệm hình sự đối với trí tuệ nhân tạo

Thuật ngữ trí tuệ nhân tạo (AI) lần đầu tiên được sử dụng bởi John McCarthy trong một hội nghị tại Dartmouth vào năm 1956, và lúc này AI được định nghĩa là một nhánh của khoa học và công nghệ mới với khả năng mô phỏng lại phương thức làm việc của con người.[1] Sau đó, đã có nhiều định nghĩa về AI xuất hiện trên thế giới. Một số định nghĩa cho rằng AI là máy móc và máy tính kỹ thuật số có khả năng bắt chước và thực hiện các nhiệm vụ giống những sinh vật có trí tuệ, chẳng hạn như suy nghĩ và học hỏi từ các kinh nghiệm trước đó hoặc thực hiện các hoạt động tư duy khác.[2] Một số nhà khoa họcthì khác cho rằng AI là một hệ thống phần mềm có khả năng bắt chước cách suy nghĩ của con người với sự hỗ trợ của máy tính hoặc thiết bị khác[3] hoặc là sự mô phỏng hành vi và các quá trình nhận thức của con người trên máy tính.[4] Mặc dù có nhiều khái niệm khác nhau nhưng tựu chung lại có thể nhận thấy đặc điểm của AI là khả năng mô phỏng, học hỏi, suy luận và phản ứng với các tình huống chưa được lập trình sẵn.[5]

Chính vì vậy, AI được ứng dụng trong hầu hết các lĩnh vực đời sống, trong đó bao gồm cả lĩnh vực đòi hỏi trách nhiệm nghiêm ngặt như y tế bởi các công cụ trí tuệ nhân tạo có thể thực hiện các ca phẫu thuật với tốc độ nhanh. Tuy nhiên, không phải lúc nào cũng tránh khỏi những sự cố xảy ra từ phía rô-bốt trong một số ca phẫu thuật.[6] Trên thực tế, AI không phải là một công nghệ hoàn hảo, những dữ liệu được thu nạp bởi AI hoàn toàn có thể gặp “lỗi” do chính yếu tố khách quan của dữ liệu (dữ liệu sai, quá trình phân tích dữ liệu không chính xác) hoặc do yếu tố chủ quan (cố ý sử dụng cho mục đích phạm tội).[7] Vào năm 1981, một nhân viên người Nhật đã bị giết bởi một rô-bốt có AI làm việc gần đó, do rô-bốt này đã lầm tưởng người nhân viên là một mối nguy hại đối với việc thực hiện nhiệm vụ của mình và cho rằng việc đẩy người nhân viên vào một máy móc đang vận hành gần đó là phương án hiệu quả nhất để loại trừ sự cản trở.[8]

Việc áp dụng AI một cách phổ biến đã làm nảy sinh những vấn đề pháp lý mới, đặc biệt trong lĩnh vực pháp lý hình sự với hàng loạt câu hỏi được đặt ra, chẳng hạn như: chủ thể nào chịu trách nhiệm hình sự (TNHS), liệu rằng thực thể AI có nên được coi là chủ thể của tội phạm hay là chủ thể của TNHS (liên đới) không? Việc làm rõ những vấn đề pháp lý này là rất quan trọng, đặc biệt trong bối cảnh chế tạo, sản xuất, thiết kế AI được xem là ngành có nguy cơ cao xảy ra tội phạm.[9] Hiện nay, nhiều quốc gia trên thế giới đang nghiên cứu, ban hành các dự thảo về Luật cho AI hoặc nghiên cứu, ban hành hệ thống quy định, quy tắc về AI,[10] nhưng chưa có một khái niệm chính xác và cụ thể nào về tội phạm AI. Tuy nhiên, trên thực tế đã có nhiều bằng chứng về loại tội phạm đặc biệt này.[11] Theo đó, AI có thể được sử dụng như một công cụ phục vụ cho tội phạm, tận dụng các khả năng của nó để thực hiện các hành vi xâm phạm đến các quan hệ xã hội. Chẳng hạn như, sử dụng AI để tạo ra những nội dung giả mạo như deepfakes, đây là công cụ có khả năng thao túng bằng chứng, làm tổn hại danh tiếng và lan truyền thông tin sai lệch, gây ảnh hưởng nghiêm trọng đến tính liêm chính của cá nhân và nhà nước.[12] Ngoài ra, chính các hệ thống AI cũng có thể trở thành mục tiêu của các hoạt động tội phạm như tấn công mạng. Các cuộc tấn công mạng hiện nay thường thuộc hai dạng: hoặc là tinh vi và được tùy chỉnh để nhắm vào một mục tiêu cụ thể[13], hoặc là thô sơ nhưng được tự động hóa ở mức cao, dựa vào số lượng lớn để gây tác động (ví dụ như các cuộc tấn công từ chối dịch vụ phân tán - DDoS, quét cổng). AI có thể đưa tới khả năng thực hiện các cuộc tấn công vừa cụ thể vừa quy mô lớn, bằng cách sử dụng chẳng hạn như các phương pháp học tăng cường để thăm dò điểm yếu của nhiều hệ thống đồng thời, trước khi tiến hành nhiều cuộc tấn công cùng lúc.[14] Các cuộc tấn công kiểu này được thực hiện vì mục đích lợi nhuận và gây hại đến các khách thể mới chưa được pháp luật hình sự bảo vệ như khách thể an ninh mạng.

Bên cạnh đó, AI cũng có thể chỉ đóng vai trò cung cấp bối cảnh cho một tội phạm. Các hoạt động gian lận có thể dựa trên việc khiến nạn nhân tin rằng một chức năng nào đó của AI là có thể thực hiện được dù thực tế nó không khả thi, hoặc có thể thực hiện được nhưng lại không được sử dụng trong hành vi gian lận.[15] Chẳng hạn như tấn công giả mạo (tailored phishing), đây là một cuộc tấn công nhằm thu thập thông tin bảo mật hoặc cài đặt phần mềm độc hại thông qua một thông điệp kỹ thuật số giả mạo, được cho là đến từ một bên đáng tin cậy như ngân hàng của người dùng. Kẻ tấn công lợi dụng lòng tin sẵn có để thuyết phục người dùng thực hiện các hành động mà họ thường cảnh giác, chẳng hạn như tiết lộ mật khẩu hoặc nhấp vào các liên kết đáng ngờ.[16] Hiện tại, hầu hết các cuộc tấn công mang tính chất khá bừa bãi, sử dụng các thông điệp chung được mô phỏng theo các thương hiệu lớn hoặc các sự kiện đang được quan tâm, nhằm thu hút sự chú ý của một số người dùng nhất định, đơn thuần dựa trên xác suất ngẫu nhiên.[17] Mặc dù vậy khi kết hợp với AI, tỷ lệ thành công của các cuộc tấn công giả mạo này tăng lên rất nhiều bởi AI có khả năng học hỏi (active learning) để có thể thay đổi các thông điệp khiến chúng trở nên gần gũi và đáng tin cậy hơn.[18] Điều này làm gia tăng tỷ lệ thành công của các cuộc tấn công giả mạo, khiến nạn nhân tin tưởng cung cấp thông tin ngân hàng hay thực hiện lệnh chuyển tiền, từ đó dẫn đến thiệt hại nghiêm trọng về tài sản. Bên cạnh đó, khi các cuộc tấn công này được thực hiện trên quy mô lớn, nó sẽ không chỉ ảnh hưởng tới cá nhân mà còn gây rối loạn thị trường tài chính và thương mại điện tử.

Như vậy, AI khi được sử dụng vào mục đích phạm tội sẽ tạo ra những hậu quả nghiêm trọng cho xã hội và từ đó đòi hỏi phải có những quy tắc pháp lý điều chỉnh thực thể này, đặc biệt là pháp luật hình sự.

2. Các mô hình lý luận về trách nhiệm hình sự đối với tội phạm trí tuệ nhân tạo

Mặc dù đã có nhiều bằng chứng về sự tồn tại của “tội phạm trí tuệ nhân tạo”, tuy nhiên vấn đềTNHS đặt ra với thực thể AI vẫn luôn nan giải bởi AI là một thực thể chưa được công nhận tư cách pháp lý. Pháp luật hình sự hiện nay đã có những giải pháp TNHS cho pháp nhân, một thực thể tương đồng với AI ở đặc điểm không có đầy đủ tính “con người” nhưng mối quan hệ giữa AI và con người phức tạp hơn thế rất nhiều. Điều này phụ thuộc vào từng loại hình thực thể AI (khả năng của AI) với cấp độ phát triển khác nhau, Gabriel Hallevy đã dựa trên thang đo này để tổng hợp và giới thiệu ba mô hình tương ứng với các hướng tiếp cận TNHS đối với thực thể AI như sau:[19]

Mô hình đầu tiên là mô hình TNHS thông qua chủ thể phạm tội khác. Mô hình này cho rằng AI không thể mang các đặc tính như con người và AI chỉ được coi là một tác nhân vô tội ngay cả khi thực thể này có tham gia vào việc thực hiện hành vi phạm tội.[20] Về bản chất, AI vẫn chỉ là một thiết bị do con người tạo ra và vận hành bằng năng lượng để phục vụ, hỗ trợ con người trong các công việc, và một người sử dụng một công cụ để phạm tội thì người đó vẫn được coi là thực hiện tội phạm bằng ý chí của mình. Trên cơ sở đó, mô hình này hướng tới TNHS đối với hai chủ thể là người lập trình và người sử dụng AI.[21] Cụ thể, người lập trình ra phần mềm AI nhằm thực hiện hành vi nguy hiểm cho xã hội bằng chính phần mềm này thì phải chịu TNHS. Đối với người sử dụng, mặc dù không lập trình phần mềm nhưng lại sử dụng AI hoặc có những thay đổi phần mềm AI vì mục đích cá nhân để khiến thực thể này thực hiện hành vi nguy hiểm cho xã hội thì cũng phải chịu TNHS.

Mô hình thứ hai là mô hình TNHS dựa trên hậu quả nguy hiểm cho xã hội có thể xảy ra một cách tự nhiên. Mô hình này dựa trên quan niệm rằng, người lập trình phần mềm hay người sử dụng có liên hệ mật thiết đối với hoạt động hằng ngày của thực thể AI nhưng không có ý định phạm tội thông qua thực thể này. Theo đó, khi một AI thực hiện hành vi phạm tội thì người lập trình và người sử dụng đã không biết về hành vi này cho đến khi hành vi đó xảy ra và gây hậu quả nguy hiểm cho xã hội.[22] Ví dụ, rô-bốt có AI được thiết kế để thực hiện một công việc nào đó theo lập trình (lái máy bay tự động), tuy nhiên, người phi công cùng điều khiển chiếc máy bay lại can thiệp dừng công việc đó (vì thấy có bão to nên muốn lái quay lại) nhưng rô-bốt cho rằng hành động của con người là mối nguy hiểm cản trở nhiệm vụ nên tấn công giết người này (ngắt khí ô-xy hoặc tấn công).[23] Như vậy, người lập trình phần mềm AI gắn rô-bốt không có ý định giết bất kỳ ai, đặc biệt không có ý định giết người phi công khi đã can thiệp công việc của AI.[24] Sự khác biệt giữa mô hình 1 và mô hình 2 đó là: nếu như ở mô hình 1 người lập trình hoặc người sử dụng AI ngay từ đầu đã có ý định sử dụng thực thể này vào mục đích phạm tội thì tại mô hình số 2 họ không hề mong muốn điều đó mặc dù đáng ra phải biết về khả năng thực hiện hành vi phạm tội của AI. Theo đó, TNHS sẽ được áp dụng như sau:

- Trường hợp thứ nhất, người lập trình phần mềm hay người sử dụng có sự cẩu thả trong lập trình hay sử dụng thực thể Al và không có ý định thực hiện bất kỳ hành vi phạm tội nào thì không phải chịu TNHS nếu pháp luật hình sự không quy định về tội phạm đã xảy ra với lỗi vô ý. Ở đây, người sử dụng đã phạm tội với lỗi vô ý do cẩu thả khi thực hiện hành vi mà không dự liệu được hậu quả nguy hiểm cho xã hội của hành vi đó trong khi hoàn toàn có thể biết trước và phải biết trước điều này.

- Trường hợp thứ hai, người lập trình phần mềm hoặc người sử dụng đã lập trình hoặc sử dụng thực thể AI với chủ đích thực hiện hành vi phạm tội, tuy nhiên, AI lại thực hiện một hành vi phạm tội khác ngoài mục đích của chủ thể. Điều này lại dẫn đến hai hậu quả:[25]

(1) Nếu AI hành động như một vật trung gian vô ý thức, không nhận thức được tính chất và mức độ nguy hiểm của hành vi bị cấm theo quy định của luật hình sự, thì thực thể AI không phải chịu TNHS đối với hành vi phạm tội đã thực hiện, tương tự như mô hình số 1.

(2) Nếu AI không chỉ đơn thuần là một vật trung gian vô ý thức mà còn có khả năng nhận thức, tư duy và tự định đoạt như con người, thì bên cạnh TNHS của người lập trình và người sử dụng, chính AI cũng phải liên đới chịu trách nhiệm trực tiếp về hành vi phạm tội mà AI thực hiện. Điều này dẫn đến một mô hình TNHS mới, trong đó AI được xem như một chủ thể có khả năng chịu trách nhiệm pháp lý như con người (mô hình số 3).

Mô hình thứ ba là mô hình TNHS trực tiếp, mô hình này quan niệm rằng AI được cho là tương đương với con người cả về năng lực pháp luật và năng lực hành vi; nói cách khác AI lúc này không phụ thuộc vào người lập trình phần mềm hay người sử dụng.[26] Như vậy, mô hình này tập trung vào chính thực thể AI[27] và TNHS sẽ được xem xét dựa trên yếu tố khách quan (actus reus) và yếu tố chủ quan(mens rea)[28], khi chủ thể nào được chứng minh là có đủ hai yếu tố này và liên quan đến hành vi phạm tội cụ thể thì chủ thể đó phải chịu TNHS đối với hành vi đó.[29]

Mặc dù các mô hình của Hallevy đã đưa ra nhiều trường hợp và có những lập luận, triết lý cụ thể cho từng cấp độ của AI, tuy vậy những mô hình này vẫn gặp phải những bất cập khi vận hành trên thực tế. Trước hết, các mô hình của Hallevy chưa phù hợp với thực tiễn phát triển AI, bởi quy trình xây dựng thành công một thực thể AI là vô cùng phức tạp, quá trình ấy dựa trên những sự hợp tác rất đa dạng.[30]Theo đó, lập trình một AI đòi hỏi sự phối hợp của nhiều người lập trình viên và con số này có thể lên tới hàng nghìn người và mỗi người lại thực hiện những công đoạn khác nhau. Thực tế khi áp dụng mô hình TNHS lên người lập trình viên là tương đương với truy cứu TNHS của hàng nghìn người và đây là một khối lượng công việc vô cùng khổng lồ. Thứ hai, mã (code) AI có thể là một mã nguồn mở, tức là người sáng tạo ra mã nguồn này cho phép người khác thay đổi, nghiên cứu và phân phối (từ bỏ quyền sở hữu trí tuệ).[31] Những người dùng mã nguồn này là rất nhiều và một số người sử dụng dưới hình thức ẩn danh[32], từ đó khiến cho việc xác định TNHS trở nên phức tạp hơn. Thứ ba, cho tới thời điểm hiện tại vẫn chưa xuất hiện một AI nào tương đương với con người và việc Hallevy giả định rằng công nghệ tiến hóa bằng cách áp dụng các thuộc tính chưa được phát triển vào các đối tượng hiện có không phải lúc nào cũng đúng.[33] Đồng thời, pháp luật thì luôn đi sau công nghệ, việc đưa ra các quy định pháp luật đi trước công nghệ sẽ dễ dẫn tới việc không phù hợp và phát sinh quá trình sửa đổi, bổ sung không cần thiết.[34]

Như vậy các mô hình của Hallevy, cùng với các cơ chế pháp lý tương tự hiện có, có thể xem là một điểm khởi đầu để áp dụng pháp luật hình sự cho các tình huống trong tương lai. Mặc dù vậy, các mô hình của Hallevy vẫn mang tính chất là các mô hình lý luận.[35] Do đó, để khắc phục những thách thức của tội phạm AI thì vấn đề đặt ra đối với pháp luật hình sự Việt Nam là cần có sự kết hợp giữa lý luận và thực tiễn thông qua việc tham khảo, học hỏi, tiếp thu kinh nghiệm của các quốc gia đã và đang có các quy định về loại tội phạm mới này để từ đó tìm ra hướng đi cho Việt Nam trong kỷ nguyên của công nghệ.

3. Khung pháp lý đối với tội phạm trí tuệ nhân tạo trên thế giới

Hiện nay đã có nhiều quốc gia tiến hành xây dựng các khung pháp lý liên quan đến tội phạm AI.Các khung pháp lý này vừa có những cách tiếp cận tương đồng vừa có sự khác biệt riêng phụ thuộc vào tình hình thực tế của mỗi quốc gia. Do đó, tại phần này của bài viết, nhóm tác sẽ phân tích từ tổng quan các cách tiếp cận đối với tội phạm AI tới khung pháp lý cụ thể của một số quốc gia được lựa chọn là Hoa Kỳ, Ấn Độ, Nga, Trung Quốc, Indonesia.

3.1. Tổng quan về cách tiếp đối với tội phạm trí tuệ nhân tạo trên thế giới

Trước những sức ép mà công nghệ đặt ra, các quốc gia trên thế giới đang có chung một xu hướng đó là nghiên cứu về quản trị AI[36] với nội dung xoay quanh các vấn đề phát triển, sử dụng và xây dựng cơ sở hạ tầng cho AI.[37] Tiêu biểu vào năm 2024, Châu Âu đã trở thành tâm điểm của thế giới khi ra mắt Đạo Luật về AI nhằm quản lý những rủi ro mà AI có thể tạo ra.[38] Đạo luật này đã thiết lập nguyên tắc trách nhiệm nghiêm ngặt (strict liability), theo đó người lập trình và người sử dụng sẽ phải chịu trách nhiệm về các hành vi của AI cho dù họ có ý định hay nhận thức về hành vi phạm tội hay không.[39] Cách tiếp cận của Liên minh Châu Âu tập trung vào cá nhân (con người) và đề cao việc xây dựng AI có trách nhiệm. Ngược lại, một số khu vực khác lại có cách tiếp cận dựa trên mối quan hệ nhân quả (causation-based) như Hoa Kỳ, theo đó TNHS được quy cho những cá nhân trực tiếp khiến AI thực hiện hành vi phạm tội.[40] Cách tiếp cận này sẽ đặt trách nhiệm chứng minh cho cơ quan có thẩm quyền truy tố bởi những những cơ quan này phải chứng minh được mối quan hệ nhân quả giữa con người và hành vi phạm tội của AI. Cách tiếp cận này đòi hỏi phải xem xét cẩn trọng mức độ kiểm soát của con người đối với hệ thống AI và mức độ mà AI vận hành một cách tự chủ.[41] Bên cạnh đó, nhiều quốc gia có cách tiếp cận TNHS dựa trên tư cách pháp lý của AI. Theo đó, đa số các quốc gia trên thế giới đều không công nhận rằng AI có tư cách pháp nhân, ngoại trừ Ả rập và Nhật Bản vẫn đang cân nhắc điều này.[42] Cách tiếp cận này phản ánh quan điểm rằng AI chỉ là một công cụ hoặc công nghệ được con người tạo ra và sử dụng, do đó con người nên chịu trách nhiệm về hành động của nó.

Ngoài ra, vấn đề về đạo đức và trách nhiệm minh bạch cũng được các quốc gia như Đức và Liên minh Châu Âu quan tâm khi họ đã đã đề xuất các hướng dẫn đạo đức cho việc phát triển AI, nhấn mạnh tính minh bạch, công bằng và trách nhiệm giải trình.[43] Những hướng dẫn này được xây dựng với mục đích đảm bảo rằng các hệ thống AI được phát triển một cách có trách nhiệm và qua đó giảm thiểu những rủi ro mà thực thể này có thể tạo ra. Việc tăng cường tính minh bạch của các hệ thống AI sẽ làm gia tăng niềm tin của công chúng vào các hệ thống này, từ đó tạo điều kiện đánh giá tốt hơn các quy trình ra quyết định của AI trong các trường hợp liên quan đến hành vi phạm tội.[44] Đồng thời, vấn đề bảo vệ dữ liệu cá nhân, an ninh mạng cũng được chú trọng khi nhiều quốc gia đã ban hành các luật bảo vệ dữ liệu để bảo vệ thông tin của các cá nhân khỏi sự lạm dụng và truy cập trái phép của các hệ thống AI.[45]

Cuối cùng, hợp tác quốc tế đang là xu hướng được các quốc gia thực hiện hiệu quả và được đề cao bởi tính chất xuyên quốc gia của tội phạm mạng và các hành vi vi phạm liên quan đến AI.[46] Các quan hệ đối tác liên chính phủ, chẳng hạn như các hiệp định hỗ trợ pháp lý, đóng vai trò quan trọng trong việc trao đổi thông tin, bằng chứng và tình báo liên quan đến tội phạm AI, từ đó cho phép phản ứng toàn diện và phối hợp hơn đối với các hành vi vi phạm xuyên quốc gia do AI gây ra. Các tổ chức quốc tế như Liên hợp quốc và các quốc gia công nghiệp G7[47] cũng đã quan tâm đến việc quản trị AI và TNHS. Những diễn đàn này đóng vai trò là nền tảng để thảo luận về các thách thức toàn cầu liên quan đến AI, chia sẻ các thực tiễn tốt nhất, và xây dựng các tiêu chuẩn và quy tắc quốc tế liên quan đến đạo đức, công bằng và trách nhiệm của AI.

3.2. Khung pháp lý của một số quốc gia về tội phạm trí tuệ nhân tạo

Hoa Kỳ

Mặc dù là một cường quốc về công nghệ nhưng Hoa Kỳ lại không có một định nghĩa pháp lý chung về AI. Quốc gia này lựa chọn cách tiếp cận quản lý AI dựa trên từng cơ quan riêng lẻ thay vì một cách tiếp cận toàn diện như của châu Âu.[48] Hệ quả của điều này là các định nghĩa khác nhau về AI đã được đưa ra bởi các cơ quan khác nhau của Hoa Kỳ, nhưng có thể được phân chia làm 5 lĩnh vực như sau:[49]

(1) Chính sách, bao gồm “các tài liệu như lệnh hành pháp, nghị quyết và kế hoạch thể hiện chính sách của chính phủ Hoa Kỳ về quản lý AI”;

(2) Trách nhiệm giải trình, bao gồm “các công cụ lập pháp hướng tới trách nhiệm giải trình thuật toán, có khả năng phản ánh phản ứng của chính phủ đối với các mối lo ngại công khai về sự thiên lệch và phân biệt đối xử của thuật toán”;

(3) Công nghệ nhận dạng khuôn mặt, bao gồm “khung pháp luật ngày càng phát triển nhanh chóng điều chỉnh việc sử dụng công nghệ nhận dạng khuôn mặt và dữ liệu liên quan”;

(4) Minh bạch, bao gồm các bộ luật “chủ yếu hướng tới việc thúc đẩy tính minh bạch liên quan đến việc sử dụng AI trong các bối cảnh khác nhau”;

(5) Khác, bao gồm “các dự luật liên bang đang chờ thông qua liên quan đến quản trị tổng quát hoặc các vấn đề nghiên cứu về AI, cùng các vấn đề khác”.

Trên thực tế, Hoa Kỳ đã ghi nhận những phán quyết hình sự liên quan đến các hệ thống trí tuệ nhân tạo.

Đối với các phương tiện tự lái, vào năm 2018 một người phụ nữ đã bị chiếc xe thử nghiệm tự hành của Uber tông chết khi đang chở một người bên trong.[50] Theo đó, nguyên nhân của vụ việc là do hệ thống lái tự động đã không nhận diện được người phụ nữ, tuy nhiên mấu chốt của vụ việc là trong suốt quá trình vận hành thì hệ thống này đã bị ảnh hưởng bởi điện thoại cá nhân của người ngồi trong xe.[51]Vào tháng 3 năm 2019, Văn phòng Công tố Quận Yavapai tuyên bố rằng không có cơ sở để truy cứu TNHS đối với công ty Uber. Tuy nhiên người ngồi trong xe bị buộc tội giết người do bất cẩn. Bất cẩn được định nghĩa là “một người không nhận thức được rủi ro nghiêm trọng và không thể biện minh được rằng kết quả sẽ xảy ra hoặc hoàn cảnh tồn tại. Rủi ro phải ở mức độ và bản chất khiến sự không nhận thức đó trở thành một sự sai lệch nghiêm trọng so với tiêu chuẩn chăm sóc mà một người hợp lý sẽ tuân thủ trong tình huống đó.”[52] Năm 2022, Hoa Kỳ lại tiếp tục ghi nhận một vụ việc khác liên quan đến xe tự lái. Một người đàn ông đã bị truy tố về tội danh ngộ sát do điều khiển chiếc xe Tesla ở chế độ tự lái và gây tai nạn.[53] Điểm khác biệt của vụ việc này đó là chiếc xe Tesla đã được thương mại hóa và sử dụng rộng rãi. Do đó, vụ việc này được đánh giá có thể trở thành tiền lệ cho các vụ truy tố khác đối với người lái xe quá phụ thuộc vào hệ thống tự lái.[54] Như vậy, cách tiếp cận TNHS của Hoa Kỳ đối với các hệ thống tự động đó là đánh giá mối quan hệ giữa công nghệ và con người, cụ thể trong trường hợp này là sự phụ thuộc của con người vào AI.

Đối với các tội phạm về lừa đảo và lạm dụng công nghệ, Đạo luật Lừa đảo và Lạm dụng Máy tính năm 1986 (CFAA)[55] quy định TNHS đối với hành vi truy cập trái phép vào máy tính hoặc vượt quá quyền truy cập được cho phép. Trong thực tế, một hành vi gây hại liên quan đến hệ thống trí tuệ nhân tạo có thể truy ngược lại hành vi của con người (ví dụ: một hacker sử dụng AI để đánh cắp tiền từ tài khoản ngân hàng) và lúc này AI sẽ được coi như công cụ để thực hiện hành vi phạm tội.[56] Trong vụ án Van Buren v. United States[57], Tòa án Tối cao Hoa Kỳ đã làm rõ rằng “vượt quá quyền truy cập được cho phép” áp dụng cho các tình huống mà một cá nhân, mặc dù được phép truy cập vào máy tính, nhưng lại lấy dữ liệu hoặc truy cập vào các khu vực bị cấm, chẳng hạn như tệp hoặc cơ sở dữ liệu hạn chế.

Liên quan đến loại tội phạm tấn công giả mạo (tailored phishing), Hoa Kỳ đã có Đạo luật Bảo vệ Thông tin Điện tử năm 1986 (ECPA).[58] Các hành vi truy cập trái phép có chủ ý (tức là hacking) hoặc vượt quá quyền truy cập được phép vào cơ sở cung cấp dịch vụ liên lạc điện tử là vi phạm hình sự theo ECPA. ECPA cũng trừng phạt hành vi cố ý chặn các liên lạc điện tử trong quá trình truyền tải theo Đạo luật Chặn nghe lén.[59]

Tựu chung lại, Hoa Kỳ đã lựa chọn phương pháp tiếp cận điều chỉnh theo từng lĩnh vực cụ thể. Điều này theo nhóm tác giả nhận định là tương đối phù hợp bởi Hoa Kỳ là một quốc gia có cấu trúc liên bang với sự phức tạp trong mối quan hệ giữa chính quyền liên bang và chính quyền bang, và mặt khác, cũngbởi bản chất liên ngành của AI. Cho đến nay, luật pháp của Hoa Kỳ vẫn đang tập trung vào việc quy kết TNHS đối với con người và những hành vi sử dụng AI với mục đích xấu và sử dụng hệ thống pháp luật hình sự truyền thống.[60]

Ấn Đ

Ấn Độ đang là một quốc gia rất phát triển về AI.[61] Tại quốc gia này, TNHS dựa trên các nguyên tắc được thiết lập trong nhiều đạo luật, án lệ, và các quy định hiến pháp.[62] Bộ luật Hình sự Ấn Độ (IPC) năm 1860 là văn bản pháp luật chính điều chỉnh TNHS tại Ấn Độ.[63] IPC phân loại các hành vi phạm tội thành nhiều nhóm dựa trên mức độ nghiêm trọng của tội phạm và quy định các hình phạt tương ứng. Bộ luật này cũng xác định các trường hợp mà một số hành vi được coi là phạm tội, chẳng hạn như giết người, trộm cắp, lừa đảo và hành hung. Ngoài ra, IPC còn đề cập đến các biện pháp miễn TNHSnhư tự vệ, mất trí, say xỉn, và sai lầm về mặt thực tế.[64] Ở Ấn Độ, TNHS không chỉ áp dụng cho cá nhân mà còn áp dụng cho một số thực thể, chẳng hạn như các tập đoàn.[65] Như vậy, Bộ luật Hình sự của Ấn Độ khá tương đồng với Bộ Luật Hình sự của Việt Nam (sẽ được phân tích bên dưới) ở cách tiếp cận phân loại hành vi phạm tội và đưa ra hình phạt tương ứng, đồng thời tại Việt Nam cũng có những chế định hình sự đối pháp nhân thương mại.

Hiện nay, Ấn Độ chưa có luật riêng dành cho AI, nhưng quốc gia này đã có kế hoạch thay thế Luật Công nghệ Thông tin năm 2000 bằng Luật Số hóa Ấn Độ năm 2023 (Digital India Act) để bao gồm các quy định liên quan đến AI.[66] Mặc dù vậy, AI vẫn đặt ra những thách thức cho hệ thống pháp luật hình sự tại quốc gia này xoay quanh các vấn đề về tư cách pháp lý của AI, quyền riêng tư, bảo vệ dữ liệu và các vấn đề về đạo đức.[67]

Nga và Trung Quốc

Theo luật hình sự hiện hành của Nga và Trung Quốc, các tội phạm AI có thể được chia thành ba loại: (i) tội phạm có thể được điều chỉnh bằng luật hình sự hiện hành; (ii) tội phạm được điều chỉnh không đầy đủ bằng luật hình sự hiện hành; và (iii) tội phạm không thể được điều chỉnh bằng luật hình sự hiện hành.[68]

Về tội phạm được điều chỉnh bằng luật hình sự hiện hành, đây là các tội phạm đã được quy định trong Bộ luật hình sự của hai quốc gia này và có thể dễ dàng điều chỉnh bằng cách giải thích tư pháp. Chẳng hạn như trong vụ việc đầu tiên sử dụng AI để gian lận tại Trung Quốc,[69] về cơ bản đây là tội “Trộm cắp hoặc truy cập trái phép vào thông tin cá nhân bằng các phương tiện khác” đã được quy định trong pháp luật hình sự của Trung Quốc. Còn tại Nga, hành vi truy cập trái phép vào thông tin máy tính chứa thông tin cá nhân về đời sống riêng tư, được thực hiện một cách cố ý và có mục đích vụ lợi hoặc cá nhân, gây thiệt hại cho quyền và lợi ích hợp pháp của công dân, sẽ bị xử lý theo các điều khoản của Bộ luật Hình sự Liên bang Nga.[70]

Về tội phạm được điều chỉnh không đầy đủ bằng luật hình sự hiện hành, đây là các tội phạm truyền thống nhưng mang một số đặc điểm mới của AI và luật hình sự không thể điều chỉnh một cách hiệu quả. Chẳng hạn như trong trường hợp lái xe gây tai nạn, trước đây nếu sự kiện tai nạn đó là do lỗi của nhà sản xuất thì nhà sản xuất chịu trách nhiệm, nếu lỗi là do người điều khiển phương tiện thì người này chịu trách nhiệm. Tuy nhiên, trong bối cảnh xe tự lái phát triển, tự vận hành mà không cần sự tham gia của người lái, và hệ thống lái tự động gây ra tai nạn thì trách nhiệm sẽ khó xác định hơn nhiều. Tương tự như vụ việc của Uber hay Tesla đã được phân tích tại Hoa Kỳ, liệu có thể quy kết trách nhiệm cho người điều khiển phương tiện hay nhà sản xuất về lỗi do AI tự thực hiện? Pháp luật hình sự của Nga và Trung Quốc vẫn chưa có quy định cụ thể về vấn đề này.[71]

Về các tội phạm không thể điều chỉnh bằng luật hình sự hiện hành, đây là các tội phạm mà pháp luật hình sự hiện hành của Nga và Trung Quốc chưa thể điều chỉnh do quy định pháp luật chưa bao phủ, dự liệu được các trường hợp đặc biệt này. Ví dụ trường hợp một cánh tay giả lập được tích hợp AI để hỗ trợ những người khuyết tật vận động bị tấn công (hack) và gây đau đớn cho chủ sở hữu thì sẽ giải quyết như thế nào? Nếu như áp dụng pháp luật truyền thống coi cánh tay này là tài sản và hành vi tấn công chỉ là hành vi hủy hoại tài sản là chưa phù hợp. Tuy nhiên nếu như coi cánh tay này là bộ phận của con người và việc hủy hoại cách tay AI là hành vi gây tổn hại sức khỏe cũng dẫn đến những bất cập liên quan đến vấn đề xác định mức độ thiệt hại.[72]

Bên cạnh đó, cũng có trường hợp luật hình sự không thể điều chỉnh do không đáp ứng được yếu tố cấu thành tội phạm. Một vụ việc khá nổi tiếng vào năm 2016 tại Trung Quốc đó là một AI tên “Tay”[73] - là AI có khả năng học hỏi trong quá trình tương tác với người dùng. Tuy nhiên, tính năng này đã bị người dùng lạm dụng và biến AI này thành một công cụ để đăng tải các câu nói sai chính trị, xúc phạm và phân biệt chủng tộc. Theo Bộ luật Hình sự của Nga và Bộ luật Hình sự của Trung Quốc, việc sử dụng rộng rãi những phát ngôn như vậy có thể bị coi là tội phạm. Vấn đề đặt ra trong trường hợp này đó là hành vi “dạy” AI có khiến những người dùng này phải chịu TNHS? Đây là một hành vi mới chỉ xuất hiện trong kỷ nguyên của công nghệ, do đó vẫn chưa thể có câu trả lời cụ thể trong trường hợp này.[74]

Tóm lại, Bộ luật Hình sự hiện hành của Liên bang Nga và Bộ luật Hình sự Cộng hòa Nhân dân Trung Hoa cũng đang đối mặt với những thách thức mà pháp luật hình sự của Việt Nam (sẽ được phân tích bên dưới đây) đang gặp phải.

Indonesia

Indonesia là một quốc gia Đông Nam Á thuộc khối ASEAN với nền kinh tế và sự phát triển xã hội không quá chênh lệch với Việt Nam. Hiện nay, quốc gia này đang đầu tư rất nhiều vào lĩnh vực AI với tham vọng biến lĩnh vực này trở thành một nền kinh tế mũi nhọn của quốc gia.[75] Xu hướng mới này đòi hỏi Indonesia cần nhanh chóng hoàn thiện các khung pháp lý liên quan đến AI, trong đó bao gồm cả lĩnh vực hình sự.

Thực tế, công nghệ trí tuệ nhân tạo chưa được quy định cụ thể ở Indonesia,[76] tuy nhiên đã có một số luật đề cập đến lĩnh vực này như Luật số 28 năm 2014 về Bản quyền, Luật số 19 năm 2016 về Thông tin và Giao dịch Điện tử, và Luật số 27 năm 2022 về Bảo vệ Dữ liệu Cá nhân. Tương ứng với từng văn bản luật đó, AI lại được định nghĩa khác nhau và Indonesia chưa đưa ra được một định nghĩa toàn diện về AI.

Điểm đáng chú ý đó là Bộ Thông tin và Truyền thông của Indonesia đang chuẩn bị Thông tư về Hướng dẫn Đạo đức đối với Trí tuệ Nhân tạo.[77] Theo đó, thông tư này có mục đích nhằm đảm bảo việc sử dụng dữ liệu để phát triển công nghệ AI cần phải được tiến hành một cách có trách nhiệm và bảo vệ dữ liệu cá nhân dựa trên khuôn khổ pháp lý đã có là Luật số 27 năm 2022 về Bảo vệ Dữ liệu Cá nhân.Đồng thời, Bộ trưởng Bộ Thông tin và Truyền thông của quốc gia này đã ban hành Thông tư về Đạo đức đối với việc Sử dụng Trí tuệ Nhân tạo, được kỳ vọng sẽ trở thành một hướng dẫn đạo đức trong việc phát triển và sử dụng trí tuệ nhân tạo tại Indonesia.[78] Theo đó, thông tư này tập trung vào các đối tượng là các doanh nghiệp, các nhà quản lý hệ thống điện tử trong cả khu vực công và tư.

Như vậy, cách tiếp cận của Indonesia có điểm tương đồng với Đức và Liên minh Châu Âu khi lựa chọn cách tiếp cận dựa trên vấn đề về đạo đức và trách nhiệm minh bạch[79], qua đó tăng cường quản trị và giảm thiểu các rủi ro mà AI có thể tạo ra.

Có thể thấy, tội phạm AI là một vấn đề phức tạp đối với nhiều quốc gia. Dù có một số điểm khác nhau do ảnh hưởng bởi chính sách, hình thức chính thể và cấu trúc nhà nước nhưng tựu chung lại các quốc gia được phân tích ở trên đang lựa chọn hướng tiếp cận cân bằng giữa việc thúc đẩy đổi mới và duy trì các biện pháp kiểm soát chặt chẽ. Theo đó, các quốc gia đang áp dụng TNHS đối với AI như một công cụ hỗ trợ để thực hiện hành vi tội phạm. Ngay cả khi AI thực hiện hành vi phạm tội một cách độc lập thì các chính sách về trách nhiệm nghiêm ngặt trong quá trình sản xuất, huấn luyện AI sẽ được áp dụng để giải quyết vấn đề này. Như vậy, tại thời điểm hiện tại, nhiều quốc gia đang lựa chọn cách tiếp cận giống với mô hình số 1 đã được đề cập tại phần 2 của bài viết.

4. Pháp luật hình sự Việt Nam đối với tội phạm trí tuệ nhân tạo

4.1. Thách thức đối với việc đặt ra trách nhiệm hình sự của AI trong pháp luật hình sự Việt Nam

Thông qua việc phân tích về tội phạm AI nhóm tác giả nhận thấy loại tội phạm mới này đã đặt ra những thách thức liên quan đến trách nhiệm hình sự của AI trong pháp luật hình sự Việt Nam cũng như vấn đề cần phải hoàn thiện đối với pháp luật hình sự Việt Nam, cụ thể như sau:

Thứ nhất, về vấn đề khái niệm tội phạm. Pháp luật hình sự Việt Nam hiện nay quy định tội phạm là hành vi nguy hiểm cho xã hội do người hoặc pháp nhân thương mại thực hiện, có lỗi, xâm phạm đến các quan hệ xã hội được pháp luật hình sự xác lập, bảo vệ. Vấn đề đặt ra ở đây là khi một AI có thể đưa ra một hành vi nguy hiểm cho xã hội một cách độc lập và không sự tác động của con người thì việc quy định tội phạm là hành vi do người hoặc pháp nhân thương mại thực hiện có thể sẽ không còn phù hợp.

Thứ hai, về cấu thành tội phạm. Nối tiếp vấn đề từ khái niệm tội phạm, việc xuất hiện một chủ thể mới bên ngoài hai chủ thể truyền thống là cá nhân và pháp nhân thì quan niệm về cấu thành tội phạm với các yếu tố truyền thống trước đây cũng sẽ có sự biến đổi.

Về khách thể, trong tương lai AI có thể gây ra những thiệt hại không thể tính được về mặt vật chất và xâm phạm đến các quan hệ xã hội mới nên cần tiếp tục nghiên cứu để mở rộng phạm vi khách thể mà pháp luật cần bảo vệ (chẳng hạn như khách thể an ninh thông tin).[80]

Về mặt khách quan, với sự phát triển của công nghệ thì giờ đây nơi (địa điểm) thực hiện hành vi phạm tội có thể rất xa nơi xảy ra hậu quả nguy hiểm cho xã hội (từ quốc gia này tới quốc gia khác) hoặc thậm chí xảy ra ở những nơi như không gian mạng hoặc các không gian khác ngoài Trái Đất. Trên thực tế, một số cách thức phạm tội mới như mô phỏng hình ảnh để lừa đảo, tạo thông tin giả, hay sử dụng AI để hiển thị nội dung quảng cáo trái phép trên các trang mạng xã hội… đã xuất hiện và đang dần trở nên phổ biến. Có thể thấy, AI đóng vai trò như một công cụ đắc lực cho người phạm tội khiến cho việc điều tra, phát hiện tội phạm lại càng trở nên khó khăn hơn bởi rất khó để xác định chính xác về thời gian, địa điểm thực hiện tội phạm do đặc trưng của AI là có thể thực hiện hành vi từ xa.[81] Với những trường hợp sử dụng AI để phạm tội, nơi thực hiện tội phạm và nơi xảy ra hậu quả có thể cách nhau rất xa (ở nhiều quốc gia, lãnh thổ khác nhau) đồng thời biểu hiện dưới nhiều dạng thiệt hại khác nhau.[82] Vì vậy, cần có nhận thức mới về nơi (địa điểm) thực hiện hành vi phạm tội, hậu quả của hành vi phạm tội,phương thức, thủ đoạn phạm tội mới và việc xác định hiệu lực của đạo luật hình sự.

Về mặt chủ quan của tội phạm, AI có khả năng học hỏi, tổng hợp dữ liệu để không ngừng cập nhật, tuy nhiên quá trình phát triển này của AI lại nằm ngoài khả năng dự liệu của con người. Khi đầu ra của dữ liệu gặp sự cố hay không còn phù hợp với chuẩn mực xã hội (chẳng hạn một AI được thiết kế để theo dõi và xử lý các dữ liệu y tế tự thay đổi dữ liệu dẫn đến định hướng chữa trị sai lầm cho người bệnh), quá trình truy cứu TNHS sẽ gặp khó khăn, cụ thể là về việc xác định lỗi đối với hành vi nguy hiểm cho xã hội mà chưa có tiền lệ. Cho đến nay, để chứng minh những yếu tố thuộc về mặt chủ quan của AI thì cần chứng minh những yếu tố như sự hiểu biết, ý định, động cơ, cảm xúc….; và điều này đòi hỏi sự hợp tác liên ngành, cũng như rất nhiều sự nỗ lực mới có thể thực hiện được.[83]

Về chủ thể, khi nói đến vấn đề tội phạm AI, một câu hỏi lớn được đặt ra: Liệu AI có được coi là một chủ thể của tội phạm hay không? Nếu như có được khả năng nhận thức giống như hoặc thậm chí vượt xa con người, thực thể AI có thể coi là cá nhân hay pháp nhân không, hay quy định của luật cần đưa vào một chủ thể mới. Đây là vấn đề đã và đang gây tranh cãi trong những năm gần đây trong nghiên cứu về AI. Theo Nghị viện châu Âu, AI có thể có địa vị pháp lý như một pháp nhân có năng lực pháp luật nhưng trách nhiệm lại thuộc về thể nhân được đăng ký.[84] Một luồng quan điểm khác lại cho rằng có khả năng sẽ xuất hiện một chủ thể tội phạm mới là thực thể AI khi AI phát triển và trở thành một thực thể độc lập thì chúng hoàn toàn có khả năng gây ra tội phạm mới.[85] Nếu xét một cách tổng thể giữa hai quan điểm như trên, có thể việc buộc người lập trình hoặc người sử dụng phải chịu trách nhiệm cho hệ thống AI sẽ trở nên hiệu quả hơn bởi nó sẽ đặt ra một trách nhiệm nghiêm ngặt trong quá trình sáng tạo và phát triển các hệ thống này. Tuy nhiên, nhóm tác giả cho rằng việc đặt ra trách nhiệm nghiêm ngặt có thể tạo rào cản đối với sự phát triển của công nghệ khi mà AI đã luôn là lĩnh vực rất tốn kém cho các nhà đầu tư[86] và thật khó để các nhà đầu tư chi trả một khoản tiền lớn mà không thể dự đoán được rủi ro mà AI sẽ gây ra. Bởi vậy, việc đưa ra một phương án có thể cân bằng giữa trách nhiệm và lợi nhuận là điều cần thiết. Cùng với đó, phương án truy cứu TNHS đối với người lập trình hoặc người sử dụng cũng kéo theo một số vấn đề khác như phạm vi truy cứu TNHS (bởi sẽ không công bằng nếu để họ phải chịu trách nhiệm đối với toàn bộ những gì AI gây ra thông qua học hỏi và tự diễn biến); nghĩa vụ phải có hành vi nào đó để giám sát cũng như ngăn chặn AI phạm tội,...[87] Để tìm kiếm một phương án hợp lý, các nhà làm luật và các nhà công nghệ học cần kết hợp để xây dựng các mô hình TNHS đối với AI trong các trường hợp cụ thể.

Thứ ba, về mặt hình phạt. Mặc dù có trí tuệ thông minh và khả năng ưu việt nhưng thực chất AI cũng chỉ là một thứ vô hồn (không có cảm xúc) được tồn tại dưới dạng vật chất nào đó (chẳng hạn như rô-bốt). Như vậy việc trừng phạt các hệ thống AI và rô-bốt lại đặt ra một vấn đề lớn trong việc áp dụng, bởi chúng chỉ là những cỗ máy, ngay cả khi chúng có trí tuệ nhân tạo.[88] Sau nhiều cuộc thảo luận, các nhà nghiên cứu đã đề xuất những hình phạt đối với AI bao gồm việc vô hiệu hóa một số chức năng của máy AI, ngắt kết nối internet, hoặc giới hạn chúng trong một khu vực cụ thể.[89] Tuy nhiên, cho đến hiện này pháp luật hình sự của các nước nói chung (trong đó có Việt Nam) đều chủ yếu xem con người là yếu tố cốt lõi và bác bỏ ý tưởng rằng các thực thể ngoài con người có thể nhận thức hoặc cần bị trừng phạt vì hành vi của mình.[90] Có thể thấy, trước bối cảnh của kỷ nguyên công nghệ, triết lý và các biện pháp hình phạt áp dụng cũng cần phải có sự thay đổi không chỉ về hình thức mà còn bao gồm cả mục đích của hình phạt.

4.2. Một số giải pháp để hoàn thiện pháp luật hình sự của Việt Nam

Thứ nhất, điều chỉnh về chính sách và pháp luật.Vấn đề đặt ra đầu tiên trong quá trình hoàn thiện pháp luật hình sự của Việt Nam đó là cần phải có những giải pháp pháp lý phù hợp để bảo vệ các quan hệ xã hội trước những công nghệ vốn chưa chịu sự điều chỉnh của pháp luật. Để làm được điều này, chính sách pháp luật cần có những quy định, hướng dẫn liên quan đến tư cách pháp lý của AI. Nhóm tác giả nhận định rằng đây sẽ là một vấn phức tạp và có những cuộc tranh luận kéo dài bởi thực tiễn vào thế kỷ 14 trên thế giới đã xuất hiện pháp nhân nhưng phải mất hàng trăm năm mới có những quy định điều chỉnh chủ thể này, đặc biệt là trong lĩnh vực luật hình sự.[91] Mặc dù vậy, thông qua những phân tích về các cách tiếp cận về tội phạm AI trên thế giới và khung pháp lý cụ thể tại một số quốc gia, nhóm tác giả kiến nghị chưa cần thiết phải coi AI là một pháp nhân độc lập mà nên tiếp cận AI như một công cụ hỗ trợ thực hiện các hành vi phạm tội và từ đó xây dựng chính sách điều chỉnh thực thể đặc biệt này. Với cách tiếp cận này, pháp luật hình sự Việt Nam cần có sự rà soát, điều chỉnh, bổ sung các vấn đề liên quan đến tội phạm, cấu thành tội phạm có sự liên quan đến thực thể AI. Cụ thể, cần bổ sung về những khách thể mới cũng như các phương thức thủ đoạn phạm tội gắn liền với công nghệ cao như AI nhằm đảm bảo có căn cứ pháp lý để áp dụng TNHS khi xảy ra tội phạm. Theo đó, nhóm tác giả khuyến nghị cần bổ sung thêm khách thể “an ninh mạng” và ban hành thêm các văn bản hướng dẫn Mục 2 - Tội phạm trong lĩnh vực công nghệ thông tin, mạng viễn thông trong BLHS 2015 nhằm giải quyết các lỗ hổng pháp luật mà công nghệ tạo ra và đảm bảo sự phù hợp, hài hóa của pháp luật Việt Nam với pháp luật quốc tế.

Bên cạnh đó, một xu hướng được ghi nhận rõ nét tại Hoa Kỳ và Indonesia đó chính là pháp luật hình sự không phải biện pháp duy nhất để giải quyết triệt để vấn đề tội phạm AI bởi lẽ AI quá đa dạng và xuất hiện ở nhiều lĩnh vực, làm thay đổi các ngành công nghiệp truyền thống.[92] Do đó, Việt Nam cũng cần hoàn thiện các hệ thống pháp luật trong lĩnh vực công nghệ thông tin có liên quan đến AI như: Luật Công nghệ cao năm 2008, sửa đổi năm 2013, 2014; Luật Công nghệ thông tin năm 2006; Luật An ninh thông tin mạng năm 2015; Luật An ninh mạng năm 2018 và các văn bản cụ thể điều chỉnh các lĩnh vực chuyên ngành như: xe tự động lái, công nghệ in 3D, tiền ảo… để có một khung chính sách toàn diện đối với tội phạm AI.

Ngoài ra, vấn đề về xây dựng AI có trách nhiệm cũng cần phải được quan tâm và đẩy mạnh. Có thể thấy, vấn đề phức tạp của AI đó là con người không thể dự đoán chính xác được kết quả đầu ra của một AI khi nó thực hiện công việc,[93] tuy nhiên dữ liệu đầu vào lại có thể kiểm soát được. Do đó, vấn về xây dựng AI có trách nhiệm và chủ động quản trị rủi ro AI đã được thể hiện và nhấn mạnh tại Đạo Luật về AI của Liên minh Châu Âu, cũng như những thông tư hướng dẫn về trách nhiệm và đạo đức của AI đang được xây dựng tại Indonesia. Thực tế, Việt Nam cũng đã và đang bắt đầu quá trình này khi Thủ tướng Chính phủ đã ban hành “Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030”, đồng thời rất nhiều các cuộc hội thảo về vấn đề này đã được tổ chức tại Việt Nam trong thời gian gần đây.[94] Như vậy, vấn đề trước mắt của Việt Nam đó là hướng tới xây dựng và hoàn thiện các bộ quy tắc về đạo đức, các hướng dẫn về AI có trách nhiệm.

Thứ hai, tăng cường hợp tác quốc tế. Nhu cầu hợp tác quốc tế là vô cùng cần thiết trong bối cảnh hiện nay bởi tính chất xuyên quốc gia[95] và sự phức tạp về công nghệ của AI.[96] Việc hợp tác không chỉ trong vấn đề về phòng, chống tội phạm mà còn trong cả hoạt động nghiên cứu, chia sẻ công nghệ, kiến thức về AI. Sự kiện tập đoàn công nghệ hàng đầu thế giới Nvidia đầu tư hàng triệu đôla vào Việt Nam[97] đang mở ra những cơ hội và thách thức cho quốc gia đặc biệt trong vấn đề kiểm soát công nghệ. Thực tế ngay cả các quốc gia lớn như Nga và Trung Quốc hay Hoa Kỳ, Ấn Độ vốn nổi tiếng về phát triển công nghệ cũng chưa xây dựng được khung chính sách toàn diện về AI. Do đó, việc tăng cường hợp tác quốc tế không chỉ giúp Việt Nam giải quyết được các vấn đề hình sự trước mắt mà còn tạo cơ hội để vươn mình và làm chủ được công nghệ này, qua đó có những chính sách toàn diện và chính xác đáp ứng nhu cầu cải cách trong tương lai đối với tội phạm AI.

5. Kết luận

Thông qua việc nghiên cứu về tội phạm AI có thể nhận thấy vấn đề áp dụng TNHS đối với thực thể AI là một vấn đề mới và nhiều thách thức tại Việt Nam. Những vấn đề này không chỉ đến từ tư cách pháp lý của thực thể AI mà còn liên quan tới các khía cạnh về công nghệ, đạo đức và trách nhiệm khi xây dựng AI. Trong bối cảnh triển khai thực hiện Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng AI đến năm 2030 đòi hỏi Việt Nam phải xây dựng, hoàn thiện các văn bản pháp luật về trách nhiệm pháp lý của các đối tượng liên quan tới AI.

Tuy nhiên, công nghệ luôn biến đổi không ngừng, phát triển mạnh mẽ, khó đoán và khó lường. Vì vậy, để có thể xây dựng được một chính sách toàn diện và hiệu quả, trong tương lai sẽ cần thêm nhiều nghiên cứu sâu, rộng và liên ngành về chủ đề tội phạm AI trong nước và cả quốc tế. Từ đó, nhân loại cùng nhau tìm ra hướng đi trong kỷ nguyên của công nghệ./.

TÀI LIỆU THAM KHẢO

1. Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control, 4 AKRON INTELLECTUAL PROPERTY JOURNAL (2016).

2. Caldwell M., Andrews J.T.A., Tanay T. & cộng sự, AI-enabled Future Crime, 9(1) CRIME SCIENCE 14 (2020).

3. Hifajatali Sayyed, Artificial Intelligence and Criminal Liability in India: Exploring Legal Implications and Challenges, 10 Cogent Social Sciences 2343195 (2024).

4. El-Kady R., Artificial Intelligence and Criminal Law: Advances in FinanceAccounting, and Economics, IGI GLOBAL 34–52 (2024).

5. Dongmei, Pang; Olkhovik, Nikolay V., Criminal Liability for Actions of Artificial Intelligence: Approach of Russia and China, Journal of Siberian Federal University. Humanities & Social Sciences. 2022 15 (8): 1094-1107 (2022)

6. Alice Giannini, United States Report on Traditional Criminal Law Categories and AI, (2024), https://www.penal.org/sites/default/files/files/A-01-24.pdf.

7. Dong Jun (Justin) Kim, Artificial Intelligence and Crime: What Killer Robots Could Teach about Criminal Law (2017), https://ir.wgtn.ac.nz/handle/123456789/20861.

8. Yaumi Ramdhani, Amiruddin, & Ufran, Countering Artificial Intelligence Crimes in a Criminal Law Perspective, 9 rrijm 167 (2024).

9. Viet T.T., Models of Criminal Liability of Artificial Intelligence: From Science Fiction to Prospect for Criminal Law and Policy in Vietnam, 35(4) LS (2019).

10. TRỊNH TIẾN VIỆT (CHỦ BIÊN), CHÍNH SÁCH HÌNH SỰ VIỆT NAM TRƯỚC THÁCH THỨC CÁCH MẠNG CÔNG NGHIỆP 4.0, NXB TƯ PHÁP (2020).

11. TRỊNH TIẾN VIỆT (CHỦ BIÊN), TRÁCH NHIỆM HÌNH SỰ VÀ HÌNH PHẠT, NXB ĐHQG HÀ NỘI (2022).

* TS. Đỗ Việt Cường, Khoa Luật Quốc tế, Trường Đại học Luật, Đại học Quốc gia Hà Nội. Duyệt đăng 24/3/2025. Email: cuongvietdo@vnu.edu.vn

** Phạm Ngọc Tân, Khóa 66 Luật Chất lượng cao, Trường Đại học Luật, Đại học Quốc gia Hà Nội

[1] Artificial Intelligence (AI) Coined at Dartmouth | Dartmouth, https://home.dartmouth.edu/about/artificial-intelligence-ai-coined-dartmouth (truy cập lần cuối 18/11/2024).

[2] Sayed Tantawy Mohamed Sayed, Legal Aspects of Artificial Intelligence and Robotics, 2 Journal of Afro-Asian Studies 25 (2020).

[3] Stuart J. Russell & Peter Norvig, Artificial Intelligence: A Modern Approach, NXB Pearson (Third edition, Global edition ed. 2016), tr 1 - 5.

[4] Yahya Dahshan, Criminal Liability for Artificial Intelligence Crimes, 2020 UAEU Law Journal (2021), https://scholarworks.uaeu.ac.ae/sharia_and_law/vol2020/iss82/2.

[5] Ramy El-Kady, Artificial Intelligence and Criminal Law, Artificial Intelligence Approaches to Sustainable Accounting Advances in Finance, Accounting, and Economics, 34 (Maria C. Tavares et al. eds., 2024), https://services.igi-global.com/resolvedoi/resolve.aspx?doi=10.4018/979-8-3693-0847-9.ch003 (truy cập lần cuối 6/1/2025).

[6] Isabelle Poirot-Mazères, Chapitre 8. Robotique et médecine  quelle(s) responsabilité(s) ?, 24 Journal International de Bioéthique 99 (2013).

[7] Xuejiao Li et al., Data Issues in Industrial AI System: A Meta-Review and Research Strategy, (2024), https://arxiv.org/abs/2406.15784 (truy cập lần cuối 10/12/2024).

[8] Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities - from Science Fiction to Legal Social Control, 4 Akron Intellectual Property Journal (2016).

[9] Danila Kirpichnikov et al., Criminal Liability of the Artificial Intelligence, 159 E3S Web Conf. 04025 (2020).

[10] Regulation of artificial intelligence around the world, Library of Congress, Washington, D.C. 20540 USA, https://www.loc.gov/item/2023555920/ (truy cập lần cuối 19/11/2024).

[11] M. Caldwell et al., AI-Enabled Future Crime, 9 Crime Science 14 (2020).

[12] Todd C. Helmus, Artificial Intelligence, Deepfakes, and Disinformation: A Primer, (2022), https://www.jstor.org/stable/resrep42027 (truy cập lần cuối ngày 6/1/2025).

[13] David Kushner, The Real Story of Stuxnet, 50 IEEE Spectr. 48 (2013).

[14] Caldwell et al., tlđd, 11, tr.8.

[15] Caldwell et al., tlđd, 11, tr.5.

[16] Matt Boddy, Phishing 2.0: The New Evolution in Cybercrime, 2018 Computer Fraud & Security 8 (2018).

[17] Caldwell et al., tlđd, 11, tr.8.

[18] Alejandro Correa Bahnsen et al., DeepPhish : Simulating Malicious AI (2018), https://www.semanticscholar.org/paper/DeepPhish-%3A-Simulating-Malicious-AI-Bahnsen-Torroledo/ae99765d48ab80fe3e221f2eedec719af80b93f9 (truy cập lần cuối 6/1/2025).

[19] Hallevy, tlđd, 8, tr. 177-181.

[20] Gabriel Hallevy, Virtual Criminal Responsibility, 6 The Original Law Review 6 (2020).

[21] Gabriel Hallevy, tlđd, 20tr.11.

[22] Dong Jun (Justin) Kim, Artificial Intelligence and Crime: What Killer Robots Could Teach about Criminal Law (2017), https://ir.wgtn.ac.nz/handle/123456789/20861 (truy cập lần cuối 6/1/2025).

[23] Trịnh Tiến Việt (Chủ biên), Chính Sách Hình Sự Việt Nam Trước Thách Thức Cách Mạng Công Nghiệp 4.0, NXB TƯ PHÁP, tr.244 (2020).

[24] Hallevy, tlđd, 8, tr.181.

[25] Hallevy, tlđd, 8, tr.182.

[26] Hallevy, tlđd, 8, tr.182

[27] Steven J. Frank, Tort Adjudication and the Emergence of Artificial Intelligence Software, 21 Suffolk U. L. Rev. 623 (1987).

[28] Hallevy, tlđd, 8, tr.186.

[29] Trịnh Tiến Việt (Chủ biên), tlđd, 23, tr. 247.

[30] Jack Beard, Autonomous Weapons and Human Responsibilities, Nebraska College of Law: Faculty Publications (2014), https://digitalcommons.unl.edu/lawfacpub/196.

[31] ANDREW LAURENT, UNDERSTANDING OPEN SOURCE AND FREE SOFTWARE LICENSING (2008).

[32] Christian Payne, On the Security of Open Source Software, 12 Information Systems Journal 61 (2002).

[33] Rachel Charney, Can Androids Plead Automatism - A Review of When Robots Kill: Artificial Intelligence under the Criminal Law by Gabriel Hallevy, 73 U. Toronto Fac. L. Rev. 69 (2015).

[34] Lyria Bennett Moses, Recurring Dilemmas: The Law’s Race to Keep Up With Technological Change, (2007), https://papers.ssrn.com/abstract=979861 (truy cập lần cuối 9/1/2025).

[35] Caldwell et al., tlđd, 11, tr. 5-6.

[36] Rostam J. Neuwirth, Law, Artificial Intelligence, and Synaesthesia, 39 AI & Soc 901 (2024).

[37] Michael Veale, Kira Matus & Robert Gorwa, AI and Global Governance: Modalities, Rationales, Tensions, 19 Annu. Rev. Law. Soc. Sci. 255 (2023).

[38] Claudio Novelli et al., AI Risk Assessment: A Scenario-Based, Proportional Methodology for the AI Act, 3 DISO 13 (2024).

[39] Margot E. Kaminski, The Developing Law of AI: A Turn to Risk Regulation, SSRN Journal (2024), https://www.ssrn.com/abstract=4692562 (truy cập lần cuối 9/1/2025).

[40] Kate Crawford & Jason Schultz, Ai Systems as State Actors, 119 Columbia Law Review 1941 (2019).

[41] Hifajatali Sayyed, Artificial Intelligence and Criminal Liability in India: Exploring Legal Implications and Challenges, 10 Cogent Social Sciences 2343195 (2024).

[42] A. Atabekov & O. Yastrebov, Legal Status of Artificial Intelligence Across Countries: Legislation on the Move, XXI ERSJ 773 (2018).

[43] Ulrike Franke Sartori Paola, Machine Politics: Europe and the AI Revolution, ECFR (2019), https://ecfr.eu/publication/machine_politics_europe_and_the_ai_revolution/ (truy cập lần cuối 9/1/2025).

[44] Sayyed, tlđd, 41, tr.8.

[45] Lars Hornuf, Sonja Mangold & Yayun Yang, Data Protection Law in Germany, the United States, and Chinain Data Privacy and Crowdsourcing 19 (2023), https://link.springer.com/10.1007/978-3-031-32064-4_3 (truy cập lần cuối 9/1/2025).

[46] Cristos Velasco, Cybercrime and Artificial Intelligence. An Overview of the Work of International Organizations on Criminal Justice and the International Applicable Instruments, 23 ERA Forum 109 (2022); Ana I. Cerezo, Javier Lopez & Ahmed Patel, International Cooperation to Fight Transnational Cybercrimein Second International Workshop on Digital Forensics and Incident Analysis (WDFIA 2007) 13 (2007), http://ieeexplore.ieee.org/document/4299369/ (truy cập lần cuối 9/1/2025).

[47] AI Watch: Global regulatory tracker - G7 | White & Case LLP, (2024), https://www.whitecase.com/insight-our-thinking/ai-watch-global-regulatory-tracker-g7 (truy cập lần cuối 9/1/2025).

[48] Maneesha Mithal, Legal Requirements for Mitigating Bias in AI Systems, JD Supra, https://www.jdsupra.com/legalnews/legal-requirements-for-mitigating-bias-3221861/ (truy cập lần cuối 9/1/2025).

[49] Yoon Chae, US AI Regulation Guide: Legislative Overview and Practical Considerations, Connect On Tech (2019), https://www.connectontech.com/us-ai-regulation-guide-comprehensive-overview-and-practical-considerations/ (truy cập lần cuối 9/1/2025).

[50] TROY GRIGGS, DAISUKE WAKABAYASHI, How a Self-Driving Uber Killed a Pedestrian in Arizona - The New York Times, https://www.nytimes.com/interactive/2018/03/20/us/self-driving-uber-pedestrian-killed.html (truy cập lần cuối 11/1/2025).

[51] Highway Accident Report: Collision Between Vehicle Controlled by Developmental Automated Driving System and Pedestrian, Tempe, Arizona, March 18, 2018, (2019), https://trid.trb.org/View/1751168 (truy cập lần cuối 11/1/2025).

[52] Luật Hình sự Arizona, §13-105.

[53] Tom Krisher & STEFANIE DAZIO Associated Press, L.A. County Felony Charges Are First in Fatal Crash Involving Tesla’s Autopilot, Los Angeles Times (2022), https://www.latimes.com/california/story/2022-01-18/felony-charges-are-first-in-fatal-crash-involving-teslas-autopilot (truy cập lần cuối 11/1/2025).

[54] Alice Giannini, United States Report On Traditional Criminal Law Categories And AI, (2024), https://www.penal.org/sites/default/files/files/A-01-24.pdf.

[55] Computer Fraud and Abuse Act (CFAA), 18 U.S.C. §1030.

[56] Ryan Abbott & Alexander Sarch, Punishing Artificial Intelligence: Legal Fiction or Science Fiction, 4 in Legal Aspects of Autonomous Systems 83 (Dário Moura Vicente, Rui Soares Pereira, & Ana Alves Leal eds., 2024), https://link.springer.com/10.1007/978-3-031-47946-5_6 (truy cập lần cuối 11/1/2025).

[57] Van Buren v. United States 141 S. Ct. 1648, 1652 (2021).

[58] Electronic Communications Protection Act (“ECPA”), 18 U.S.C. § 2702.

[59] Wiretap Act (18. US.C. § 2511).

[60] Alice Giannini, tlđd, 54, tr.41.

[61] U.S Department of Commerce, India Artificial Intelligence, (2024), https://www.trade.gov/market-intelligence/india-artificial-intelligence (last visited Jan 11, 2025).

[62] Craig Eggett, The Role of Principles and General Principles in the ‘Constitutional Processes’ of International Law, 66 Neth Int Law Rev 197 (2019).

[63] Sesha Kethineni, Cybercrime in India: Laws, Regulations, and Enforcement Mechanisms, 1 (2019).

[64] Ameya Kilara, Justification and Excuse in the Criminal Law: Defences Under the Indian Penal Code, 19 Student Bar Review 12 (2007).

[65] Sayyed, tlđd, 41, tr.5.

[66] Sanhita Chauriha, How the Digital India Act Will Shape the Future of the Country’s Cyber Landscape, The Hindu, Oct. 9, 2023, https://www.thehindu.com/sci-tech/technology/how-the-digital-india-act-will-shape-the-future-of-the-countrys-cyber-landscape/article67397155.ece (truy cập lần cuối 11/1/2025).

[67] Sayyed, tlđd, 41, tr.12.

[68] Dongmei, Pang; Olkhovik, Nikolay V., Criminal Liability for Actions of Artificial Intelligence: Approach of Russia and China, Journal of Siberian Federal University. Humanities & Social Sciences. 2022 15 (8): 1094-1107 (2022).

[69] Global Times, China’s First ‘AI Cheating’ Case in Video Games Publicly Adjudicated; Defendant Sentenced to Years of Imprisonment for Selling Illegal AI Plug-Ins - Global Times, https://www.globaltimes.cn/page/202405/1311806.shtml (truy cập lần cuối 12/1/2025).

[70] Dongmei, Pang; Olkhovik, Nikolay V., tlđd, 68, tr.1099.

[71] Dongmei, Pang; Olkhovik, Nikolay V., tlđd, 68.

[72] Dongmei, Pang; Olkhovik, Nikolay V., tlđd, 68.

[73] C. Custer, I Tried to Make Microsoft’s Chinese Chatbot Racist. Here’s How She Stacked up to Tay., https://www.techinasia.com/tay-bad-microsofts-chinese-chatbot-racist (truy cập lần cuối 12/1/2025).

[74] Dongmei, Pang; Olkhovik, Nikolay V., tlđd, 68, tr.1100.

[75] Vietnam+ (VietnamPlus), Indonesia seeks to become AI investment destination, Vietnam+ (VietnamPlus) (2024), https://en.vietnamplus.vn/indonesia-seeks-to-become-ai-investment-destination-post297443.vnp (truy cập lần cuối 12/1/2025); Indonesia attracts $1.9b AI investments, Tech in Asia (2024), https://www.techinasia.com/news/indonesia-attracts-19b-ai-investments (truy cập lần cuối 12/1/2025); Unlocking The Potential Of AI-Driven Growth In Indonesia, https://www.oliverwyman.com/our-expertise/insights/2024/oct/unlocking-potential-of-ai-driven-growth-in-indonesia.html (truy cập lần cuối 12/1/2025).

[76] Yaumi Ramdhani, Amiruddin, & Ufran, Countering Artificial Intelligence Crimes in a Criminal Law Perspective, 9 rrijm 167 (2024).

[77] Yaumi Ramdhani, Amiruddin, & Ufran, tldd, 76.

[78] Yaumi Ramdhani, Amiruddin, & Ufran, tldd, 76.

[79] Ulrike Franke Sartori Paola, tlđd, 44, tr.4 - 8.

[80] TRỊNH TIẾN VIỆT (CHỦ BIÊN), TRÁCH NHIỆM HÌNH SỰ VÀ HÌNH PHẠT, NXB ĐHQG HÀ NỘI, tr. 411 - 412 (2022).

[81] Caldwell et al., tlđd, 11, tr. 3-5.

[82] PGS. TS. Trịnh Tiến Việt, Pháp Luật Hình Sự Việt Nam Trước Tác Động, Thách Thức Của Cách Mạng Công Nghiệp Lần Thứ Tư, Hội Thảo Quốc Gia: “Cải Cách Tư Pháp Trong Lĩnh Vực Hình Sự” (2021).

[83] Trinh Tien Viet, Models of Criminal Liability of Artificial Intelligence: From Science Fiction to Prospect for Criminal Law and Policy in Vietnam, 35 LS (2019), https://js.vnu.edu.vn/LS/article/view/4257 (truy cập lần cuối 19/1/2025).

[84] Pritam Kumar, Determination of Civil and Criminal Liability of Artificial Intelligence, 4 DMEJL 48 (2023).

[85] Viet, tlđd, 83, tr.10.

[86] Diego Aparicio & Kanishka Misra, Artificial Intelligence and Pricing, (2022), https://papers.ssrn.com/abstract=4149670 (truy cập lần cuối 10/12/2025).

[87] Matilda Claussén Karlsson, Artificial Intelligence and the External Element of the Crime : An Analysis of the Liability Problem, 2017, https://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-58269 (truy cập lần cuối 11/1/2025).

[88] Ramy El-Kady, Towards Approving Rules for Criminal Liability and Punishment for Misuse of Artificial Intelligence Applications, 14 مجلة البحوث القانونية والإقتصادية (المنصورة) 875 (2022).

[89] C. Hakan Kan, Criminal Liability Of Artificial Intelligence From The Perspective Of Criminal Law, ijoess 55 (2024).

[90] Berrin Akbulut, YAPAY ZEKA VE CEZA HUKUKU SORUMLULUĞU, 27 HBV-HFD 267 (2023).

[91] Andrew Weissmann & David Newman, Rethinking Criminal Corporate Liability, 82 82 Indiana Law Journal 411 (2007) (2007), https://www.repository.law.indiana.edu/ilj/vol82/iss2/5.

[92] Syed Wajdan Rafay Bukhari & Saifullah Hassan, Impact Of Artificial Intelligence on Copyright Law: Challenges and Prospects, 5 647 (2024).

[93] Yavar Bathaee, The Artificial Intelligence Black Box And The Failure Of Intent And Causation, 31 Harvard Journal of Law & Technology(2018).

[94] baochinhphu.vn, Xây dựng nguyên tắc phát triển trí tuệ nhân tạo có trách nhiệm, baochinhphu.vn (2024), https://baochinhphu.vn/xay-dung-nguyen-tac-phat-trien-tri-tue-nhan-tao-co-trach-nhiem-102240705141138763.htm (truy cập lần cuối 13/1/2025); Cùng hướng đến việc phát triển trí tuệ nhân tạo có trách nhiệm | ĐẠI HỌC QUỐC GIA HÀ NỘI, https://vnu.edu.vn/ttsk/?C1654/N34573/Cung-huong-den-viec-phat-trien-tri-tue-nhan-tao-co-trach-nhiem.htm (truy cập lần cuối 13/1/2025).

[95] Velasco, tlđd, 46, tr.110-111.

[96] Esmat Zaidan & Imad Antoine Ibrahim, AI Governance in a Complex and Rapidly Changing Regulatory Landscape: A Global Perspective, 11 Humanit Soc Sci Commun 1 (2024).

[97] NVIDIA Expansion into Vietnam: Potential for AI Sector Growth, Vietnam Briefing News (2024), https://www.vietnam-briefing.com/news/nvidia-expansion-into-vietnam-potential-for-ai-sector-growth.html/ (truy cập lần cuối 13/1/2025).