Pháp luật bồi thường thiệt hại ngoài hợp đồng trước thách thức của trí tuệ nhân tạo và công nghệ số mới nổi

14/12/2022

TS. ĐỖ GIANG NAM

Trường Đại học Luật, Đại học Quốc gia Hà Nội

THS. NCS. ĐÀO TRỌNG KHÔI

Trường Đại học Luật, Đại học Quốc gia Hà Nội.

Tóm tắt: Trên cơ sở nhận diện đặc trưng của trí tuệ nhân tạo(AI) và các công nghệ số mới nổi khác, các tác giả bài viết phân tích thách thức pháp lý của AI gây ra đối với hệ thống pháp luật bồi thường thiệt hại ngoài hợp đồnghiện hành củaViệt Nam và đưa ra các giải pháp để bảo đảm vai trò điều tiết của Luật Bồi thường thiệt hại ngoài hợp đồngcũngnhư thúc đẩy sáng tạo và không cản trở công nghệ mới phát triển.
Từ khoá: Trí tuệ nhân tạo, công nghệ số mới nổi, bồi thường thiệt hại ngoài hợp đồng.
Abstract: On the basis of identifying characteristics of artificial intelligence (AI) and other emerging digital technologies, the authors of the article give out an analysis of the legal challenges posed by AI to thelegal system in the aspect ofcompensation for non-contractual damages in Vietnam and provide recommended solutions to ensure the regulatory role of the Law on Non-contractual Damages as well as promote innovation and not hinder the development of new technologies.
Keywords: Artificial intelligence; emerging digital technology; non-contractual damages.
TRÍ-TUỆ-NHÂN-TẠO1.jpg
Ảnh minh họa: Nguồn internet
1. Nhận diện đặc trưng công nghệ của AI và các công nghệ số mới nổi có liên quan
Dưới góc độ công nghệ và kinh tế, AI là một ngành của khoa học thông tin - máy tính (một tập hợp các lý thuyết và kỹ thuật), có mục tiêu là tạo ra các máy hoặc hệ thống máy tínhcó:các khả năng mô phỏng trí thông minh của con người[1],hay khả năng giống như con người, bao gồm nhưng không giới hạn ở: khả năng giao tiếp với người, nhận biết hình ảnh, giọng nói, ngôn ngữ, phân tích và dự đoán dựa trên dữ liệu, tự học (machine learning) mà không cần lập trình thêm; cùng nhiều khả năng hơn người khác đang được phát triển;nhằm thực hiện các tác vụ thay thế con người và tự giải quyết vấn đề phát sinh.[2]
Dưới góc độ pháp lý, để AI có thể trở thành đối tượng điều chỉnh của pháp luật, cần có một định nghĩa thống nhất chung cho mọi loại AI.Trong bài viết này, các tác giả nhận diện AI dựa trên ba yếu tố cơ bản:(i) là một hệ thống (system) sử dụng công nghệ máy tính, là phần mềm (software) và thậm chí bao gồm cả phần cứng (hardware); (ii) có khả năng thực hiện một nhiệm vụ nhất định (capability/functionalities) như con người hoặc những khả năng khác vượt xa con người; (iii) có sự thông minh (intellgent), lý trí (rational), có thể tự thực hiện (automatic) để đại diện cho người (agent) và không cần sự can thiệp của con người[3].
Thay vì tiếp cận AI một cách riêng lẻ, cần nhìn nhận tác động của AI trong một bức tranh lớn hơn, như một hệ thống lớn được xây dựng trên dòng chảy dữ liệu: từ khi thu thập dữ liệu thông qua việc số hoá thế giới thực (bằng công nghệ Internet vạn vật - IoT, IoS), lưu trữ dữ liệu (nhờ vào công nghệ dữ liệu lớn - Big Data), xử lý và phân tích dữ liệu để đưa ra quyết định (công nghệ AI), và cuối cùng là thực thi quyết định (các công nghệ tự động hoá bằng Robot, xe tự lái - autonomous vehicles). Trong đó, AI chính là khâu quan trọng nhất, là “bộ não” vận hành toàn bộ hệ thống lớn kể trên.
Dưới góc nhìn rộng này, tổng thể hệ thống AI và các công nghệ mới nổi có liên quan trở nên vô cùng đột phá và vượt trội, với sáu đặc trưng: phức tạp (complexity), ẩn (opacity), tự động (autonomy), khó đoán (unpredictability), mở (openness), phụ thuộc vào dữ liệu (data-drivenness), và dễ tổn thương (vulnerability)[4]. Theo đó, các công nghệ này phức tạp ở chỗ chúng tích hợp cả phần cứng (như thiết bị, cảm biến …) với phần mềm (như dữ liệu, ứng dụng, …), nhiều phân lớp và bộ phận nhưng không tách rời mà kết nối với nhau. Các lựa chọn tinh chỉnh hệ thống này lại thường được ẩn đi và tối ưu, khiến người dùng thông thường rất khó tiếp cận.[5] Ngược lại, chúng mang đến tính tự động cao, không cần người điều khiển. Nhờ thu thập được lượng dữ liệu lớn và khả năng tự học (machine learning) ngày càng nhanh, hệ thống lớn này có thể đưa ra những quyết định đột phá và khó đoán hơn nhiều so với trước đây. Các công nghệ này cũng rất mở, cho phép các chuyên gia can thiệp sửa chữa, và vì thế, lại dễ tổn thương trước các cuộc tấn công mạng hoặc dễ bị lợi dụng bởi tội phạm công nghệ cao.
2. Thách thức của AI và các công nghệ số mới nổi đối với pháp luật bồi thường thiệt hại ngoài hợp đồng Việt Nam
2.1. Trách nhiệm sản phẩm (product liability)
Xuất hiện từ giữa thế kỷ XX, trách nhiệm sản phẩm được xây dựng nhằm buộc nhà sản xuất và mọi bên trung gian kinh doanh phải có trách nhiệm với khuyết tật của hàng hoá của họ gây ra với người tiêu dùng, dù giữa hai bên không hề có quan hệ giao dịch trực tiếp và thậm chí những người kinh doanh kể trên không hề có lỗi[6].Bộ luật Dân sự năm 2015 (BLDS 2015)ghi nhận chế định này khi yêu cầu chủ thể sản xuất, kinh doanh “hàng hóa, dịch vụ không bảo đảm chất lượng” gây thiệt hại cho người tiêu dùng thì phải bồi thường[7], nhưng không chi tiết hoá thế nào là “hàng hóa, dịch vụ không bảo đảm chất lượng”. Trong khi đó, Luật Bảo vệ người tiêu dùng năm 2010(BVNTD) buộcngười kinh doanh bồi thường nếu (i) hàng hoá “có khuyết tật”; (ii) người tiêu dùng bị thiệt hại sức khoẻ, tính mạng, tài sản; và (iii) có mối quan hệ nhân quả giữa khuyết tật đó với thiệt hại[8].Hàng hoá “có khuyết tật” được hiểu là hàng hoá “không bảo đảm an toàn cho người tiêu dùng”có khả năng gây thiệt hại, liệt kê thành ba trường hợp: khuyết tật đó phát sinh từ thiết kế kỹ thuật; khuyết tật từ trong quá trình sản xuất, chế biến, vận chuyển, lưu giữ; hoặc tiềm ẩn nguy cơ và rủi ro cho người tiêu dùng nhưng không có cảnh báo, hướng dẫn cho họ[9]. Luật BVNTD cũng tiếp tục không giải thích thế nào là “không bảo đảm an toàn cho người tiêu dùng”.
Khi xem xét việc ứng dụng AI và các công nghệ có liên quan dưới khung pháp lý kể trên thì một số vấn đề có thể phát sinh như sau:
Thứ nhất, về vấn đềchủ thể phải chịu trách nhiệm sản phẩm.Có thể thấy, nếu một chủ thể sử dụng AI mà gây thiệt hại cho người khác nhưng không có hành vi kinh doanh hoặc không vì mục đích thương mại thì có thể không phải bồi thường do không thuộc đối tượng điều chỉnh của Luật BVNTD. Bên cạnh đó, Luật BVNTD cũng chỉ điều chỉnh mối quan hệ giữa chủ thể kinh doanh (nhà sản xuất AI) với người dùnghệ thống AI, mà không bao gồm mối quan hệ với người thứ ba chịu thiệt hại nếu có[10].Người kinh doanh hàng hoá cũng chỉ gồm nhà sản xuất, nhà nhập khẩu, người gắn tên thương mại lên hàng hóa hoặc sử dụng nhãn hiệu, chỉ dẫn thương mại cho phép nhận biết đó là người sản xuất, nhập khẩu hàng hóa; hoặc người trực tiếp cung cấp hàng hóa tới tay người tiêu dùng[11].Bên cạnh đó, danh sách này có khả năng bỏ sót một số chủ thể khác cũng hưởng lợi từ AI nhưng không trực tiếp tham gia sản xuất, phân phối hay kinh doanh sản phẩm này. Chẳng hạn, việc ứng dụng AI có thể giúp một số chủ thể giảm chi phí phải chi, giúp một số chủ thể có nghĩa vụ quản lý rủi ro giảm được rủi ro, cho phép một số chủ thể thu được dữ liệu có giá trị[12].Do đó, việc mở rộng áp đặt trách nhiệm sản phẩm cho các chủ thể này là tương đối hợp lý.
Thứ hai,về vấn đềsẩn phẩm là hàng hoá hay dịch vụ.Có ý kiến cho rằng, chế định trách nhiệm sản phẩm theo Luật BVNTD chỉ áp dụng với “hàng hoá” mà không đề cập đến dịch vụ[13].Hàng hoá được hiểu là sản phẩm, tức là kết quả của quá trình sản xuất hoặc cung ứng dịch vụ, mà được đưa vào thị trường tiêu dùng thông qua trao đổi, mua bán, tiếp thị[14].Tuy nhiên, Luật Giá năm 2012 lại định nghĩa dịch vụ là “hàng hóa có tính vô hình” có quá trình sản xuất và tiêu dùng không tách rời nhau, liệt kê thành các loại trong hệ thống ngành sản phẩm Việt Nam[15].Vì vậy, chưa rõ “hàng hoá”theo Luật BVNTD có bao gồm cả dịch vụ hay không? Điều này quan trọng bởi một hệ thống AI cùng các công nghệ có liên quan khá phức tạp,có thể vừa là hàng hoá, vừa là dịch vụ. Chẳng hạn, một người mua sắm trực tuyến mua một phần mềm AI để chốt các đơn hàng, nhưng liên tục cập nhật phần mềm này để lấy tính năng mới, thì họ đang dùng dịch vụ do nhà sản xuất AI cung cấp hay đang sử dụng hàng hoá là AI?Do đó, định nghĩa của “dịch vụ” trong Luật BVNTD cần sớm được làm rõ để giải quyết vấn đề này.
   Thứ ba, về việc chứng minh khuyết tật trong sản phẩm.Việc chứng minh này thông thường đã rất khó cho nạn nhân, bởi họ luôn là bên yếu thế hơn so với nhà sản xuất khi không có đủ các nguồn lực và hiểu biết cần thiết để chứng minh[16].Trên thực tế, toà án Việt Nam đã nhiều lần bác yêu cầu khởi kiện đòi BTTH dựa trên trách nhiệm sản phẩm do nạn nhân không cung cấp đủ chứng cứ cần thiết[17].Đối với AI và các công nghệ có liên quan thì khó khăn này càng nhân lên gấp bội.Hầu hết người dùng thông thường đều không hiểu tường tậnvề các công nghệ hết sức phức tạpnày. Do đó, kể cả khiđược nhà sản xuất cho phép tiếp cận quy trình sản xuất AI (ví dụ dữ liệu lưu quá trình lập trình AI), nạn nhân cũng khócó thể tìm ra khiếm khuyết trong “ma trận” các câu lệnh và thuật toán của nhà sản xuất. Bên cạnh đó, giữa sản phẩm và hệ thống vận hành của các công nghệ này đôi khi không có sự phân định rõ ràng, nênkhuyết tật có thể không nằm ở sản phẩm mà lại nằm ở hệ thống vận hành[18]. Riêng các AI có khả năng học máy và tự ra quyết định, liệu việc AI tự đưa ra một quyết định khó đoán(đôi khi không phải quyết định tốt nhất) có phải là một “khuyết tật” hay lại là tính năng của chúng? Đó là chưa kể đến tính mở của AI: chỉ cần một bản cập nhật nhanh là đủ để xoá ngay khuyết tật nếu có, khiến nạn nhân gần như không thể lưu chứng cứ kịp thời.
Để giải quyết vấn đề trên, trước hết cần cụ thể hoá các tiêu chí xác định sản phẩm có khuyết tật. Hiện nay, có bốn cách tiếp cận để xác định một sản phẩm có khuyết tật hay không: (i) xét xem liệu có vi phạm một tiêu chuẩn an toàn chung; (ii) so sánh sản phẩm không bằng một sản phẩm tương tự; (iii) lợi ích không cân bằng với rủi ro đem lại, và (iv) sai sót có thể dễ dàng nhận thấy ngay từ khi sản xuất[19]. Việt Nam cũng có thể tham khảo định nghĩa về khuyết tật sản phẩm theo Nghị định về trách nhiệm sản phẩm (PLD) của Liên minh châu Âu. Theo đó, sản phẩm có khuyết tật khi chúng không đem đến sự an toàn cần thiết phải có mà một người tiêu dùng thông thường kỳ vọng (consumer expectation test)[20], được xác định qua các căn cứ: bản chất của sản phẩm, các yếu tố môi trường xung quanh, hay quan điểm chung của cộng đồng sử dụng các sản phẩm đó. Tương tự, Hoa Kỳ cũng có thước đo “sự kỳ vọng của người tiêu dùng” cho ba loại khuyết tật: (i) do sản xuất, (ii) do thiết kế, và (iii) do vi phạm nghĩa vụ cảnh báo. Chẳng hạn, để xét khuyết tật do sản xuất, Toà án cần xác định liệu sản phẩm có bị sai khác so với thiết kế gốc khi sản xuất? Đối với khuyết tật do thiết kế, tính hữu ích của sản phẩm, khía cạnh an toàn của sản phẩm và mẫu thiết kế thay thế hợp lý sẽ được xem xét. Còn nghĩa vụ cảnh báo sẽ bị vi phạm nếu nhà sản xuất không chỉ dẫn, cảnh báo một cách toàn diện, mạnh mẽ, hoặc cảnh báo đó tự thân đã có khiếm khuyết[21].
Thứ tư, về việcthực hiện nghĩa vụ thu hồi hàng hoá.Theo Điều 22 Luật BVNTD, người cung cấp có nghĩa vụ phải thu hồi hàng hoá có khuyết tật, kịp thời tiến hành mọi biện pháp cần thiết để ngừng việc cung cấp hàng hoá này trên thị trường, phải thu hồi và báo cáo kết quả cho nhà nước. Tuy nhiên, do AI có thể bị sao chép bởi người khác hoặc tự động nhân bản, nếu nhà sản xuất và phân phối không thể thực hiện hoặc không biết là đã thực hiện đủ việc thu hồi này, liệu họ có phải chịu trách nhiệm từ các thiệt hại mà bản sao của AI này tiếp tục gây ra?
Thứ năm, về vấn đềmiễn trách nhiệm do“hạn chế của trình độ khoa học kỹ thuật”.Chủ thể kinh doanh có thể được miễn trách nhiệm nếu chứng minh được khuyết tật của hàng hóa không thể phát hiện được với trình độ khoa học, kỹ thuật tại thời điểm cung cấp hàng hoá đó[22].Có thể nói, AI và các công nghệ có liên quan là những đột phá mới nhất và hầu như chỉ có chính chủ thể xây dựng và đầu tư sản xuất AI đó mới có đủ khả năng để nhận thức được các khuyết tật của các công nghệ này. Do đó, nếu chủ thể sản xuất viện dẫn ngoại lệ này, các nạn nhân nói riêng hay xã hội nói chung khó có đủ hiểu biết và khả năng chứng minh trình độ khoa học kỹ thuật hiện tại có thể phát hiện được khuyết tật đó. Vì vậy, cần xem xét giới hạn ngoại lệ này nhằm gắn thêm trách nhiệm lên những người kinh doanh AI, buộc các chủ thể này phải liên tục kiểm tra các AI để giải quyết ngay những khiếm khuyết có thể phát sinh. Tuy nhiên, giới hạn đến mức nào cũng cần được tính toán kỹ để tránh khiến các chủ thể trên phải chịu trách nhiệm quá lớn, cản trở sự phát triển chung của các công nghệ này.
2.2. Trách nhiệm nghiêm ngặt (strict liability)
Trách nhiệm bồi thường thiệt hại ngoài hợp đồng (BTTHNHĐ)cũng có thể phát sinh mà không cần người gây thiệt hại phải có lỗi. Dựa theo nguyên tắc có từ thời La Mã, chế độ trách nhiệm nghiêm ngặt được xây dựng với mục đích đảm bảo công bằng xã hội[23]. Khi súc vật hay tài sản gây thiệt hại thì người chủ phải bồi thường và không thể viện dẫn việc mình không có lỗi để loại trừ trách nhiệm[24].
BLDS 2015 của Việt Nam cũng ghi nhận chế định này tại Điều 584 và các điều từ Điều 601 đến Điều 605. Điều 584 buộc chủ sở hữu và người chiếm hữutài sản phải bồi thường tổn thất do tài sản gây ra cho chủ thể khác[25].Căn cứ vào nguồn gốc phát sinh, trách nhiệm nghiêm ngặt bao gồm trách nhiệm (i) xuất phát từ vi phạm quy định quản lý tài sản, hoặc (ii) chịu rủi ro do tài sản mang lại[26].Với loại (i), các tiêu chuẩn đối với việc quản lý tài sản được quy định minh thị bởi các đạo luật chuyên ngành và việc chủ thể không hành động, hành động trái ngược hoặc không đầy đủ so với tiêu chuẩn đó sẽ làm phát sinh trách nhiệm bồi thường. Với căn cứ (ii), nếu tài sản có độ nguy hiểm cao thì thậm chí chủ thể không có lỗi vẫn phải có trách nhiệm BTTH, chẳng hạn nhưquy định từ Điều 601 đến Điều 605 BLDS về nguồn nguy hiểm cao độ và các trường hợp đặc biệt (ô nhiễm môi trường, do nhà cửa, súc vật gây ra). Chủ sở hữu của các tài sản trong danh sách “nguồn nguy hiểm cao độ” tại Điều 601thường phải có nghĩa vụ mua bảo hiểm (bảo hiểm trách nhiệm chủ xe cơ giới, bảo hiểm cháy nổ, bảo hiểm bắt buộc trong xây dựng…), được làm rõ trong các đạo luật chuyên ngành. Danh sách kể trên không cố định bởi BLDS vẫn cho phép ghi nhận cả các “nguồn nguy hiểm cao độ khác” do luật chuyên ngành quy định[27].
Như vậy, để trách nhiệm nghiêm ngặt phát sinh thì AI phải được coi là một tài sản, và khi tài sản này gây ra thiệt hại, các chủ thể có vật quyền lên AI đó như quyền sở hữu và chiếm hữu sẽ phải liên đới chịu trách nhiệm. Do AI có tính ẩn (opacity) nên các chủ thể kể trên là phù hợp nhất để gánh trách nhiệm này, bởi chỉ họ mới có nhiều kiến thức và kinh nghiệm nhất về chính sản phẩm mà mình tạo ra hoặc vận hành. Chủ sở hữu AI có thể là nhà sản xuất AI, hoặc nếu AI được đóng gói thành phần mềm dưới dạng hàng hoá có thể chuyển giao thì người mua lúc này sẽ là chủ sở hữu.
Tuy nhiên, trong quá trình xác định trách nhiệm nghiêm ngặt, một số vấn đề khá phức tạp có khả năng phát sinh như sau:
- Thứ nhất, về vấn đề xác địnhchủ thể là người chiếm hữu AI.Pháp luật dân sự hiểu chiếm hữu là việc chủ thể “nắm giữ, chi phối” tài sản (một cách khách quan – corpus) như chủ thể có quyền với tài sản (tính chủ quan – animus)[28].Riêng đối với AI, việc nhà sản xuất giữ quyền cập nhật hoặc điều khiển AI ở một mức độ nhất định (back-end) nhằm duy trì hiệu quả của AI đó và hỗ trợ người dùng (front-end) liệu có thể được coi là việc nhà sản xuất đồng chiếm hữu AI đó với người dùng hay không? Đồng thời, do AI có tính mở và tính phụ thuộc dữ liệu, có rất nhiều yếu tố có thể tác động đến việc vận hành chúng như đã phân tích. Vì vậy, việc suy đoán áp đặt trách nhiệm nghiêm ngặt lên một mình người chiếm hữu là không công bằng, bởi lẽ người này không phải lúc nào cũng có đủ hiểu biết về AI, thậm chí đã phó mặc vào khả năng tự động của AI từ trước.
-Thứ hai,về việc xác định chủ thể nào chịu trách nhiệm nghiêm ngặt.Quy định tại khoản 3 Điều 584 BLDS còn khả năng bỏ sótmột số chủ thể có thể hưởng lợi ích từ AI nhưng lại không phải là chủ sở hữuvà cũng không chiếm hữu chúng trên thực tế. Chẳng hạn một người dùng dịch vụ do nhà sản xuất điều khiển AI thực hiện, hoặc người được hưởng lợi gián tiếp từ AI, được giảm nghĩa vụ bảo hiểm nhờ sự hoạt động của AI.Những chủ thể này liệu có nên chịu trách nhiệm nghiêm ngặt hay không, và nếu có thì phải bồi thường ở mức độ nào so với nhà sản xuất và người chiếm hữu, và yếu tố nào giúp xác định mức bồi thường đó? Có ý kiến cho rằng,để áp đặt trách nhiệm thì phải dựa vào việc người nào thực tế giữ quyền kiểm soát cao nhất, ở vị trí dễ nhận biết và dễ kiểm soát rủi ro nhất, hoặc trực tiếp quản lý hệ thống AI[29].Thậm chí, chỉ cầnhưởng lợi từ AI là đã phải liên đới chịu trách nhiệm. Tuy nhiên, khó có thể kết luận ngay rằng giữa một người trực tiếp chiếm hữu khai thác AI và một nhà sản xuất đang hỗ trợ vận hành AI gián tiếp từ xa, ai nên là người chịu trách nhiệm lớn hơn. Đồng thời, việc mở rộng phạm vi liên đới trách nhiệm như vậy cũng sẽ mang đến những hậu quả pháp lý lớn, nên cần được suy xét hết sức cẩn thận.
-Thứ ba, về những khó khăn trong việc xác định tính chấtđộ “nguy hiểm”.Trách nhiệm nghiêm ngặt áp đặt nghĩa vụ cẩn trọng rất lớn lên chủ thể sở hữu và chiếm hữu nguồn nguy hiểm cao độ, điểm mấu chốt cần xác định là đối tượng nào nên bị coi là “nguy hiểm”. Pháp luật BTTHNHĐ Việt Nam chưa cung cấp phương pháp xác định độ “nguy hiểm”, mặc định một số đối tượng là “nguy hiểm” và liệt kê chúng. Đối với các đối tượng mới như AI, giải pháp dễ thực hiện nhất là ban hành một luật chuyên ngành ấn định chúng là “nguy hiểm”, buộc chủ sở hữu phải mua bảo hiểm trách nhiệm bắt buộc. Mặc dù vậy, cách tiếp cận này có nhiều yếu điểm. Chẳng hạn, mỗi hệ thống AI có thể có những tính năng riêng, khiến chúng khác nhau về độ phức tạp và rủi ro đi kèm. Do đó, ấn định tất cả các AI là nguy hiểm / không nguy hiểm đều không hợp lý.Trong khi đó, quy định riêng về từng AI trong mỗi lĩnh vực lại tốn quá nhiều nguồn lực. Thêm vào đó, một số AI cùng công nghệ có liên quan có thể quá đột phá đến mức không có công nghệ khác để đối sánh. Vì thế, việc ấn định ngay những đối tượng quá mới, quá khác biệt là “nguy hiểm” có khả năng gây ra lo ngại không đáng có cho cộng đồng và gián tiếp hạn chế sự phát triển của công nghệ.
2.3. Trách nhiệm do lỗi (fault-based liability)
Trong trường hợp không sử dụng được các chế định trách nhiệm nghiêm ngặt và trách nhiệm sản phẩm kể trên, nạn nhân vẫn có thể đòi BTTHNHĐ dựa trên trách nhiệm do lỗi. Do đó, nếu như pháp luật chuyên ngành hay các quy định riêng chưa thể cập nhật kịp thời với các thách thức mới như AI, trách nhiệm do lỗi là chế định cơ bản của pháp luật dân sự có vai trò là “chốt chặn cuối cùng”, phát sinh khi có đủ bốn yếu tố: hành vi trái pháp luật, thiệt hại, mối quan hệ nhân quả (MQHNQ) và lỗi.
Về hành vi trái pháp luật gây thiệt hại, BLDS 2015 và Nghị quyết số 03/2006[30] yêu cầu hành vi gây thiệt hại làm phát sinh trách nhiệm bồi thường phải là hành vi trái pháp luật[31], xâm phạm quyền và lợi ích chính đáng của người khác[32], gồm hai yếu tố: (i) “những xử sự cụ thể của con người” thể hiện qua việc hành động hoặc không hành động, mà (ii) trái với các quy định của pháp luật.
Về yếu tố lỗi, BLDS 2005 và Nghị quyết số 03/2006 xác định lỗi là một trong bốn yếu tố tiên quyết làm phát sinh trách nhiệm bồi thường thiệt hại, trong khi BLDS 2015 không quy định điều đó một cách minh thị. Do đó, có nhiều ý kiến cho rằng lỗi không còn là một trong bốn điều kiện bắt buộc để làm phát sinh trách nhiệm bồi thường thiệt hại trong BLDS 2015[33]. Hay nói cách khác,chỉ cần có hành vi trái pháp luật, thiệt hại và MQHNQ là đủ căn cứ để phát sinh trách nhiệm BTTHNHĐ[34]. Dự thảo Nghị quyết thay thế Nghị quyết số 03/2006 cũng nhấn mạnh nạn nhân không có nghĩa vụ chứng minh lỗi của bên gây thiệt hại. Tuy nhiên, cũng có luồng ý kiến cho rằng việc BLDS 2015 không trực tiếp đề cập tới thuật ngữ “lỗi” giống như BLDS 2005 là căn cứ phát sinh trách nhiệm bồi thường không có nghĩa là BLDS 2015 loại bỏ yếu tố lỗi. Ngược lại, “lỗi” trong trường hợp này phải là lỗi suy đoán từ hành vi trái pháp luật: BLDS 2015 đã thiết kế theo hướng giảm nhẹ nghĩa vụ chứng minh, tạo điều thuận lợi cho nạn nhân của hành vi gây thiệt hại tiến hành khởi kiện yêu cầu bồi thường thiệt hại[35].
Áp dụng khung pháp lý này, sự xuất hiện và phổ biến của AI và các công nghệ có liên quansẽ có thể gây ra các thách thức pháp lý sau:
-Thứ nhất,về việc hành vi gây thiệt hại phải trái một quy định của luật.Trong trường hợp việc ứng dụng AI xâm phạm đến các lợi ích hợp pháp nhưng không vi phạm điều cấm minh thị nào của luật, liệu trách nhiệm BTTHNHĐ có phát sinh? Thực tế xét xử cho thấy, dù hành vi có xâm phạm đến lợi ích được pháp luật bảo vệ nhưng chưa đến mức trái pháp luật, chưa vi phạm tiêu chuẩn luật định, thì vẫn không phải bồi thường[36].Do đó, người sử dụng AI mà làm phát sinh thiệt hại thì chưa chắc đã phải bồi thường, bởi pháp luậtchuyên ngành về công nghệ này chưa được hoàn thiện, chưa quy định minh thị trách nhiệm của người tạo lập, sử dụng chúng. Giải pháp dễ thấy là phải nhanh chóng ban hành các quy định trên để đưa việc xây dựng, quản lý, sử dụng AI vào khuôn khổ. Tuy nhiên, do các AI cùng các công nghệ có liên quan rất phức tạp và thay đổi liên tục, quy trình lập pháp thông thường khó mà theo kịp tốc độ biến đổi của chúng. Việc giới hạn chỉ những hành vi trái pháp luật mới làm phát sinh trách nhiệm bồi thường dù có hiệu quả nhất định nhưng là chưa đủ để thích nghi. Do đó, Việt Nam nên tham khảo cách tiếp cận trong pháp luật nước ngoài, mở rộng phạm vi bồi thường. Theo đó, hành vi vi phạm các quy chuẩn chung của cộng đồng và ngành nghề (như các tiêu chuẩn trong lĩnh vực chuyên ngành được đặt ra bởi hiệp hội nghề nghiệp, các định chế tư uy tín), vi phạm nghĩa vụ quan tâm (duty of care) là đủ để làm phát sinh trách nhiệm cho người vi phạm. 
-Thứ hai,về vấn đề chứng minh có hành vi trái pháp luật.Dotính ẩn của AI, người tạo lập, sử dụng AI với lợi thế hiểu biết và làm chủ công nghệ có thể dễ dàng ngăn cản nạn nhân thu thập bằng chứng chứng minh sự tồn tại của hành vi trái pháp luật. Nhà sản xuất AI đơn giản chỉ cần cấm nạn nhân truy cập vào các dữ liệu về quá trình xây dựng AI, hoặc dễ dàng xoá các dữ liệu này khi bị kiện. Đôi khi,do hạn chế về bộ nhớ của các thiết bị cảm biến và máy chủ, các dữ liệu về thiệt hại có thể bị ghi đè tự động để lấy chỗ cho dữ liệu mới, khiến nạn nhân không thể truy vết. AI cũng dễ tổn thương, chúng có thể bị xâm nhập trái phéprồi tự gây thiệt hại. Tuy nhiên, chưa rõ việc nhà sản xuất và vận hành AI đã không thực hiện các biện pháp bảo vệ an ninh mạng đầy đủ và hiệu quả có cấu thành hành vi “không hành động” hoặc vô ý gây thiệt hại hay không.
Giải pháp có thể được sử dụng ngay là bổ sungcác hành vi xoá hoặc thao túng dữ liệu trong quá trình tạo lập, vận hành AI và một số hành vi tương tự vào danh sách hành vi trái pháp luật. Nếu các dữ liệu quan trọng kể trên bị xoá hoặc nạn nhân không thể truy cập, có thể đảo ngược nghĩa vụ chứng minh để buộc người sản xuất và vận hành AI phải chứng minh mình không có hành vi trái pháp luật[37].Mặc dù vậy, các giải pháp này vẫn còn nhiều tranh cãi. Kể cả khi có thể truy cập vào dữ liệu về AI thì nạn nhân là người dùng thông thường khó có khả năng và nguồn lực để phân tích dữ liệu nhằm tìm ra bằng chứng[38].Việc bắt buộc các nhà sản xuất phải mở truy cập kho dữ liệu này cũng có khả năng mở đường cho các hành vi sao chép bí mật kinh doanh, sao chép công nghệ trái phép. Đồng thời,việc đảo ngược nghĩa vụ chứng minhcũng khiến các nhà sản xuất AI phải gánh một trách nhiệm quá lớn, làm cản trở sự phát triển của công nghệ này.
-Thứ ba,về vấn đề xác định chủ thể nào có lỗi cùng mức độ lỗi tương ứng.Khi một cá nhân bị một chiếc xe do AI hỗ trợ lái hoặc điều khiển tông phải trên đường, có rất nhiều bên có thể phải chịu trách nhiệm: từ chủ xe, người trực tiếp lái, nhà sản xuất xe, nhà sản xuất AI, cho đến nhà cung cấp Internet thu thập dữ liệu từ các xe, nhà cung cấp hệ thống lưu trữ dữ liệu, nhà cung cấp thiết bị cảm biến xe, và nhiều bên khác. Lỗi có thể đến từ việc lập trình hệ thống AI từ ban đầu, hoặc từ nhà cung cấp internet kết nối các xe, chủ xe không trả tiền dịch vụ, hệ thống dữ liệu lớn gặp lỗi, cho đến nhà sản xuất chip cảm biến gắn trên mặt đường, hệ thống quản lý đèn tín hiệu và các bên khác, dưới dạng hành động hoặc không hành động.Vì vậy, rất khó để xác định chính xác chủ thể nào có lỗi, phần lỗi, mức độ lỗi của mỗi người, cũng như mối quan hệ giữa các phần lỗi đó[39].
Có quan điểm cho rằng:đối với AI và các công nghệ có liên quan, nếu không thể xác định được lỗi thuộc về ai trong số các chủ thể kể trên thì tất cả đều phải liên đới bồi thường cho đến khi xác định được tỷ lệ phân chia lỗi.Tuy nhiên, việc quy định quá rộng như vậy có khả năng khiến nhà sản xuất AI phải chịu quá nhiều trách nhiệm, góp phần khiến họ dè dặt hơn khi phát triển công nghệ này. Một giải pháp khác làxây dựng cáctiêu chuẩn cộng đồng chung về an toàn (public safety) dành riêng cho lĩnh vực này, và khi vi phạm tiêu chuẩn này thì mặc nhiên bị coi là có lỗi[40]. Tuy nhiên, do các tiêu chuẩn này phải được xây dựng để áp dụng chung nên thườngrất giản đơnvà dễ thực hiện.Bên cạnh đó, việc chấp hành lại hoàn toàn dựa vàosự tự nguyện, nên hiệu quả thực tế không cao.Nếu khái quát hoá chúng và nâng chuẩn thành bộ quy tắc chung để làm căn cứ xác định lỗi thì sẽ lại tiếp tục xảy ra những tranh cãi về việc chủ thể nào có đủ thẩm quyền, nguồn lực và chuyên môn để đặt ra các quy tắc đó.
2.4. Mối quan hệ nhân quả
Không thể đặt ra vấn đề BTTHNHĐ nếu không có MQHNQ giữa thiệt hại đó với hành vi trái pháp luật. Tuy nhiên, pháp luật Việt Nam không làm rõ các tiêu chí xác định MQHNQ. Nghị quyết số 03/2006 yêu cầu (i) thiệt hại xảy ra phải là kết quả “tất yếu” của hành vi trái pháp luật và ngược lại (ii) hành vi trái pháp luật là nguyên nhân gây ra thiệt hại, nhưng không làm rõ nội hàm của “tất yếu” là gì. Vì vậy,các Toà án có thể thoải mái xác định thế nào là “tất yếu” và có chiều hướng xem xét MQHNQ như một vấn đề tình tiết của vụ án thuần tuý, được chứng minh bởi các chứng cứ hoặc dựa vào kết quả giám định được Toà án cho là khách quan. Trong trường hợp có nhiều nguyên nhân cùng có khả năng gây ra một thiệt hại, thì căn cứ nào để xác định đâu là nguyên nhân chính và cách chia trách nhiệm tương ứng với từngnguyên nhân cũng không được làm rõ.
Khi áp dụng khung pháp lý kể trên vào việc phân tích MQHNQ giữa việc sử dụng AI (và các công nghệ có liên quan)với thiệt hại thì một số vấn đề có thể nảy sinh:
- Thứ nhất, về việc xác định nội hàm của tính tất yếu.Hành vi của người dùng sử dụng một AI vào sản xuất và giao dữ liệu đầu vào cho nó liệu có “tất yếu” dẫn đến việc AI đó gây thiệt hại sau này hay không? Do có tính ẩn như đã phân tích, người sử dụng thường phó mặc cho công nghệ này đưa ra giải pháp và không biết có những yếu tố nào có khả năng ảnh hưởng đến quyết định cuối cùng của AI trong quá trình xử lý của chúng (trong hộp đen - blackbox). Trên thực tế,có rất nhiều yếu tố đơn lẻ hoặc cộng dồn, từ bên ngoài hoặc từ nội tại có thể tác động đến khả năng gây thiệt hại và mức độ gây ra thiệt hại của một AI[41].Đôi khi chính người dùng cũng có một phần lỗi trong cả quá trình mua sắm, lắp đặt, vận hành các công nghệ này và điều này ít nhiều cũng đóng góp vào thiệt hại. Cùng với đó, tính phức tạp, khó đoán phụ thuộc dữ liệu của công nghệ này khiến việc quy trách nhiệm do riêng AI gây ra hay một công nghệ khác có liên quan gây ra cũng hết sức khó khăn[42].Nếu bản thân một AI có khả năng học máy (machine learning) và tự cập nhật, cải tiến rồi gây ra thiệt hại, liệu có MQHNQ giữa hành vi quyết định sử dụng AI từ ban đầu với thiệt hại do sự cập nhật, cải tiến mới đó gây ra hay không? Liệu hành vi hợp pháp của cơ quan có thẩm quyền khi cho phép đưa AI vào thị trường dựa trên những hiểu biết tại thời điểm cấp phép có “tất yếu” việc AI đó gây ra thiệt hại sau này hay không cũng là câu hỏi khó trả lời.
Giải pháp cho vấn đề này là phải làm rõ tính “tất yếu” thay vì mặc nhiên khẳng định có MQHNQ chỉ dựa vào các tình tiết của vụ án.Về vấn đề này, Việt Nam có thể tham khảo kinh nghiệm nước ngoài, chẳng hạn như Bộ nguyên tắc Luật BTTHNHĐ của Châu Âu. Bộ luật này cũng có phép thử Điều kiện không thể thiếu (conditio sine qua non): một hành vi là nguyên nhân gây thiệt hại, nếu hành vi đó không xảy ra thì thiệt hại không xảy ra[43], có nhiều điểm gần gũi với yêu cầu về tính “tất yếu” trong luật Việt Nam. Nếu phép thử này không khả thi, một số giải pháp khác có thể được áp dụng. Chẳng hạn, nếu nhiều hành vi cùng có khả năng gây ra thiệt hại một cách riêng rẽ mà lại xảy ra đồng thời thì chúng đều được xem là nguyên nhân[44].Nhiều hành vi cùng có khả năng tự mình gây thiệt hại mà không rõ hành vi nào đã thực sự gây thiệt hại trên thực tế, thì tất cả đều bị coi là nguyên nhân, với tỷ lệ tương ứng khả năng mà hành vi đó có thể gây thiệt hại[45].Bộ nguyên tắc còn tính đến trường hợp một hành vi A đã chắc chắn gây thiệt hại thì dù có hành vi B khác có thể gây thiệt hại xảy ra ngay sau cũng không bị coi là một nguyên nhân của thiệt hại kể trên, trừ khi hành vi B có khả năng làm gia tăng thiệt hại[46].Còn nếu nhiều hành vi có thể là nguyên nhân nhưng từng hành vi riêng rẽ không có khả năng tạo ra thiệt hại hoặc một phần thiệt hại, những hành vi nào có khả năng góp phần (dù là rất nhỏ) gây ra thiệt hại đều được coi đã gây ra thiệt hại một phần bằng nhau[47].
Thứ hai, về việc xác định khả năng chứng minh sự tồn tại mối quan hệ nhân quảcủa nạn nhân. Ngay cả khi hoàn thiện khung pháp lý Việt Nam hiện hành về mối quan hệ nhận quả, cấu trúc AI và công nghệ số mới nổi thường được nhìn nhậnphức tạpđến mức nạn nhân thông thường khó có thể chứng minh sự tồn tại của yếu tố MQHNQ.Vì vậy, từ kinh nghiệm quốc tế có thể hình dung một số giải pháp sau để hỗ trợ khả năng chứng minh của nạn nhân[48].Ở cấp độ thứ nhất, cần xem xét cải cách pháp luật theo hướng giảm nhẹ nghĩa vụ chứng minh MQHNQ cho nạn nhân. Cụ thể, thay vì phải chứng minh việc sử dụng AI đến mức “tất yếu” gây ra thiệt hại, nạn nhân chỉ cần chỉ ra việc sử dụng này có khả năng làm tăng rủi ro cho cộng đồng quá mức mà pháp luật cho phép. Ở cấp độ thứ hai, pháp luật về BTTHNHĐ ở một số quốc gia đã đảo ngược nghĩa vụ chứng minh. Theo đó, trong một số trường hợp (i) việc chứng minh khuyết tật hay lỗi trong AI quá phức tạp và tốn kém nguồn lực và (ii) AI đã bị cho vào “sổ đen” do từng gây ra nhiều thiệt hại, hệ thống pháp luật sẽ yêu cầu chính bị đơn là người sản xuất và sử dụng AI phải chứng minh quá trình sản xuất và vận hành AI không có bất kỳ sai sót.
Một giải pháp khác cũng có thể hình dung là vận dụng học thuyết cổ điểnres ipsa loquitur khi không biết chính xác ai trong số nhiều chủ thể có liên quan đã gây thiệt hại. Cụ thể, chỉ cần nạn nhân chứng minh được bất kỳ ai đã liên quan đến thiệt hại (người sản xuất, sử dụng hoặc hưởng lợi đang chiếm hữu hay chi phối AI), thì dù có tồn tại nhiều nguyên nhân khả thi khác, các chủ thể này phải chịu toàn bộ trách nhiệm bồi thường cho đến khi (i) chứng minh được mình không có lỗi hoặc (ii) tìm được chủ thể khác có lỗi để chia sẻ gánh nặng. Từ đó, việc phân bổ phần bồi thường tiếp tục được chia theo tỷ lệ lợi nhuận thu được và mối quan hệ giữa hành vi của các chủ thể kể trên (phụ thuộc hay độc lập) với nhau và với thiệt hại. Trong số đó, người vận hành trực tiếp có thể sẽ phải chịu phần trách nhiệm lớn nhất, và nếu có từ hai người vận hành trở lên thì người nào có vai trò quyết định cuối cùng trong việc điều khiển hệ thống (hưởng lợi ích nhiều nhất, giữ vị trí hỗ trợ bảo hành, hoặc trực tiếp ra lệnh cho hệ thống) sẽ phải chịu trách nhiệm lớn hơn.
3. Kết luận
Phân tích ở phần trên cho thấy, trước các thách thức từ AI và các công nghệ số mới nổi, các chế định căn bản của pháp luật BTTHNHĐ Việt Nam như trách nhiệm sản phẩm, trách nhiệm nghiêm ngặt hay trách nhiệm do lỗi về cơ bản vẫn đủ khả năng để thích nghituy nhiên cần được tiếp tục hoàn thiện và bổ sung. Mục tiêu của quá trình hoàn thiện này phải vừa bảo đảm các chức năng của pháp luật về BTTH như bảo vệ sự công bằng, tăng cường kiểm soát và giảm thiểu tai nạn, rủi ro, nhưng đồng thời phải thúc đẩy sáng tạo và không được ngăn chặn phi lý sự phát triển của các công nghệ mới.Để thực hiện mục tiêu kép kể trên, cần xây dựng một cơ chế pháp lý vừa linh hoạt vừa khả đoán theo cấu trúc đa tầng. Trước hết, các quy định chung về BTTHNHĐ như trong BLDS vàLuật BVNTDcần được chi tiết hoá và hoàn thiện dưới góc nhìn luật so sánh, chẳng hạn như mở rộng phạm vi điều chỉnh các chế định trách nhiệm sản phẩm và trách nhiệm nghiêm ngặt, mở rộng nguồn hành vi vi phạm, đổi chủ thể chịu nghĩa vụ chứng minh, làm rõ các căn cứ xác định MQHNQ. Tiếp theo đó, với AI và các công nghệ đi kèm nói riêng và các công nghệ đột phá khác nói chung, cần nghiên cứu xây dựng các quy định riêng và các ngoại lệ trong các đạo luật chuyên ngành để kịp thời đối phó với những vấn đề nảy sinh từ các công nghệ đầy thách thức này./.
 

 


[1] European Commission for the Efficiency of Justice, European Ethical Charter on the use of AI, p. 69.
[2] Xem thêm tại: Từ điển Oxford và Cambridge trực tuyến, truy cập ngày 03/12/2021.
[3] Andrea Bertolini (2020), Artificial intelligence and civil liability, Policy Department for Citizens' Rights and Constitutional Affairs; Expert Group on Liability and New technologies – New Technologies formation (2019), Liability for Artificial Intelligence and Other Emerging Digital Technologies, Report, European Commission.
[4]Expert Group on Liability and New technologies – New Technologies formation, “Liability for Artificial Intelligence and Other Emerging Digital Technologies”, Report, European Commission, 2019, 33.
[5] Mayaan Perel, Niva Elkin-Koren, “Black Box Tinkering: Beyond Disclosure in Algorithmic Enforcement”, Florida Law Review Volume 69 Issue 1 Volume 69, Issue 1 (January 2017), 189, 190.
[6]Xem thêm: Nguyễn Thị Quế Anh, Nguyễn Bích Thảo (2020), Pháp luật về trách nhiệm sản phẩm: Từ lý thuyết đến thực tiễn ở Việt Nam, Tạp chí Khoa học: Luật học, vol. 36, no. 3, tr. 41.
[7]Điều 608 BLDS 2015.
[8] Điều 23 Luật BVNTD 2010. Xem thêm: Ngô Huy Cương (2018), Trách nhiệm bồi thường thiệt hại do thực phẩm không an toàn gây ra theo quy định của pháp luật, Tạp chí Nghiên cứu Lập pháp, số 12 (364).
[9] Điều 3.3 Luật Bảo vệ người tiêu dùng năm 2010.
[10] Theokhoản 1 Điều 3 Luật BVNTD, người tiêu dùng là người mua, sử dụng hàng hóa, dịch vụ cho mục đích tiêu dùng, sinh hoạt của cá nhân, gia đình, tổ chức.
[11]Theo quy định tại Điều 23 của Luật BVNTD. Xem thêm: Nguyễn Thị Quế Anh, Nguyễn Bích Thảo (2020), Pháp luật về trách nhiệm sản phẩm: Từ lý thuyết đến thực tiễn ở Việt Nam, Tạp chí Khoa học: Luật học, vol. 36, no. 3.
[12]Expert Group on Liability and New technologies – New Technologies formation, “Liability for Artificial Intelligence and Other Emerging Digital Technologies”, Report, European Commission, 2019, 40-42.
[13] Lê Hồng Hạnh (2013), Chế định trách nhiệm sản phẩm trong pháp luật Việt Nam, Nxb. Chính trị Quốc gia, tr. 202.
[14] Điều 3 LuậtChất lượng sản phẩm, hàng hoá năm 2007.
[15] Điều 4 LuậtGiá năm 2012.
[16] Lê Hồng Hạnh (2013), Chế định trách nhiệm sản phẩm trong pháp luật Việt Nam, Nxb. Chính trị Quốc gia, tr. 212.
[17] Nguyễn Thị Quế Anh, Nguyễn Bích Thảo (2020), tlđd,tr. 37-52.
[18]Andrea Bertolini, Artificial intelligence and civil liability, 28.
[19] Jean-Sebastien Boghetti, “Civil Liability for Artificial Intelligence: What Should its Basis Be?”, La Revue des Juristes de Sciences Po, juin 2019, n°17, ISSN 2111-4293, 97.
[20] Khoản 1, Điều 6 Nghị định về Trách nhiệm Sản phẩm (Product Liability Directive) của Liên minh châu Âu.
[21] Nguyễn Thị Quế Anh, Nguyễn Bích Thảo (2020), tlđd,tr. 43.
[22] Điều 24 Luật BVNTD.
[23]Nguyễn Mạnh Bách, Nghĩa vụ dân sự trong Luật dân sự Việt Nam, Sách chuyên khảo, Nxb. Chính trị Quốc gia, tr.242-243.
[24]Nicholas J McBride, Roderick Bagshaw (2018), Tort Law, Pearson Education Limited, p. 443.
[25]Khoản 3 Điều 584 BLDS 2015.
[26] Nguyễn Văn Hợi (2020), Trách nhiệm bồi thường thiệt hại do tài sản gây ra, Nxb. Công an nhân dân, tr. 65.
[27] Đỗ Văn Đại, Luật bồi thường thiệt hại ngoài hợp đồng Việt Nam: Bản án và bình luận bản án, Nxb. Hồng Đức, Quyển 2, tr. 273.
[28] Điều 179 BLDS 2015. Xem thêm: Nguyễn Thị Quế Anh (2013), Khái luận về chiếm hữu, Tạp chí Khoa học ĐHQGHN, Luật học, tập 29, số 2,tr. 1-6.
[29] Andrea Bertolini, Artificial intelligence and civil liability, p. 13.
[30] DùNghị quyết này hướng dẫn BLDS 2005 và BLDS 2005 đã được thay thế bằng BLDS 2015, nhưng trên thực tế các Toà án vẫn viện dẫn Nghị quyết này do chưa có hướng dẫn nào khác thay thế, bổ sung.
[31] Phùng Trung Tập (2009), Bồi thường thiệt hại ngoài hợp đồng về tài sản, sức khoẻ và tính mạng, Nxb. Hà Nội, tr. 57.
[32] Hoàng Thế Liên, Bình luận khoa học Bộ luật Dân sự năm 2005, Nxb. Chính trị Quốc gia 2013, tập II, tr. 712.
[33] Nguyễn Trương Tín (2016), Những điểm mới về trách nhiệm dân sự trong Bộ luật Dân sự năm 2015, Kỷ yếu Hội thảo Những điểm mới của Bộ luật Dân sự năm 2015, Khoa Luật Dân sự trường ĐH Luật Tp. HCM, tr. 142.
[34] Đỗ Văn Đại (2016),Bình luận khoa học những điểm mới của BLDS 2015, Nxb. Hồng Đức, Hội luật gia Việt Nam 2016, phần 429.
[35] Đinh Trung Tụng (2021), Bình luận khoa học BLDS năm 2015, Quyển 2, Nxb. Tư Pháp, tr.284.
[36]Bản án số 17/2016/DSPT ngày 09/03/2016 của TAND tỉnh Phú Yên. Xem thêm tại: Đỗ Văn Đại, Luật bồi thường thiệt hại ngoài hợp đồng Việt Nam: Bản án và bình luận bản án, Nxb. Hồng Đức, Quyển 1, tr. 51.
[37]Expert Group on Liability and New technologies – New Technologies formation (2019), Liability for Artificial Intelligence and Other Emerging Digital Technologies, Report, European Commission, p. 4.
[38] Andrea Bertolini, Artificial intelligence and civil liability, p. 83.
[39]Expert Group on Liability and New technologies – New Technologies formation (2019), p. 21.
[40]Expert Group on Liability and New technologies – New Technologies formation (2019),p. 21.
[41] Bernhard A Koch,“Liability for Emerging Digital Technologies: An Overview”,Journal of European Tort Law Volume 11 Issue 2,123.
[42] Maria Montagnani, Mirta Cavallo, "Liability and Emerging Digital Technologies: An EU Perspective," Notre Dame Journal of International & Comparative Law2021: Vol. 11 : Iss. 2 , Article 4, 217.
[43] Điều 3:101 Bộ nguyên tắc Luật BTTHNHĐ của Châu Âu (PETL).
[44]Điều 3:102 Bộ nguyên tắc Luật BTTHNHĐ của Châu Âu (PETL).
[45]Điều 3:103 Bộ nguyên tắc Luật BTTHNHĐ của Châu Âu (PETL).
[46]Điều 3:104 Bộ nguyên tắc Luật BTTHNHĐ của Châu Âu (PETL).
[47]Điều 3:105 Bộ nguyên tắc Luật BTTHNHĐ của Châu Âu (PETL).
[48]Expert Group on Liability and New technologies – New Technologies formation (2019), pp. 4, 49. 

(Nguồn tin: Bài viết được đăng tải trên Ấn phẩm Tạp chí Nghiên cứu Lập pháp số 20 (468), tháng 10/2022.)