Một số khía cạnh pháp lý trong lĩnh vực luật tư khi ứng dụng trí tuệ nhân tạo

14/01/2022

PGS. TS. NGUYỄN THỊ QUẾ ANH

Khoa Luật, Đại học Quốc gia Hà Nội.

Tóm tắt: Trí tuệ nhân tạo là bước tiến mới của công nghệ kỹ thuật số và sẽ có tác động sâu sắc đến thế giới của chúng ta. Trí tuệ nhân tạo sẽ mang lại những tác động to lớn về công nghệ, kinh tế và xã hội, đồng thời sẽ thay đổi cách chúng ta sản xuất và tiêu thụ hàng hóa, dịch vụ và thực sự nó sẽ thay đổi cả cách sống của thế giới loài người. Nói cách khác, việc xem xét ứng dụng trí tuệ nhân tạo không đơn thuần chỉ trong khuôn khổ của một lĩnh vực mà cần phải được nhìn nhận trên phạm vi tương đối bao quát, trong đó có lĩnh vực pháp luật. Trong phạm vi bài viết này, tác giả chỉ ra một số khoảng trống còn tồn tại trong điều chỉnh pháp lý, đặc biệt là lĩnh vực luật tư, đối với hiện tượng mới này, như sự tụt hậu của các lý thuyết pháp lý truyền thống so với các tiến bộ của khoa học kỹ thuật, thiếu các quy định của pháp luật trong tương tác giữa con người với trí tuệ nhân tạo, các vấn đề về tư cách pháp lý của trí tuệ nhân tạo, đạo đức và an ninh, dữ liệu cá nhân, các quyền sở hữu trí tuệ, trách nhiệm pháp lý và vấn đề bất khả xâm phạm đối với đời sống cá nhân.
Từ khóa: Trí tuệ nhân tạo; luật tư; dữ liệu cá nhân; trách nhiệm pháp lý, quyền sở hữu trí tuệ.
Abstract: Artificial intelligence is the next step of digital technology and shall provide a profound worldwide impacts. Artificial intelligence will particularly provide enormous technological, economic and social impacts, and will change the way we produce and consume goods and services, and indeed it will change the way we live. In other words, considering the application of artificial intelligence is not only within the framework of one field but needs to be viewed on a relatively broad scale, including the legal field. Within the scope of this article, the author provides discussions of the existing gaps in legal regulations, especially in the field of private law, for this new phenomenon, such as the lagging behind of traditional legal theories compared with advances in science and technology, lack of legal provisions in human interaction with artificial intelligence, issues of legal status of artificial intelligence, ethics and security, personal data, intellectual property rights, liability and inviolability to personal life.
Keywords: Artificial intelligence; private law; personal data; liability, intellectual property rights.
 TRÍ-TUỆ-NHÂN-TẠO_3.jpg
 Ảnh minh họa: Nguồn internet
1. Địa vị pháp lý của trí tuệ nhân tạo
Sự tham gia ngày càng phổ biến của các công nghệ mới trong các lĩnh vực của đời sống con người đang đặt ra bài toán về mối quan hệ giữa chúng với con người tự nhiên. Thông tin đến nay cho thấy, những công nghệ mới hoàn toàn có thể thay thế con người trong việc “tư duy” và “quyết định hành động” (như trí tuệ nhân tạo - TTNT). Điều đó có nghĩa là con người đang đứng trước những mối quan hệ pháp lý mới hoàn toàn khác so với những thực thể pháp lý chúng ta đã từng gặp như các pháp nhân, thậm chí cả các giao dịch điện tử (hợp đồng điện tử, chữ ký điện tử,…). Bởi vì, cho đến nay, dù có tư cách pháp lý riêng nhưng các pháp nhân hay các hình thức giao dịch điện tử vẫn phải được thực hiện thông qua hành vi của con người. Trong khi đó, sự xuất hiện của các trí tuệ nhân tạo sẽ có thể không cần tới, thậm chí, không thể bị điều khiển bởi ý chí của con người. Minh chứng điển hình là hồi cuối tháng 7/2017, hai chương trình trí tuệ nhân tạo do các kỹ sư Facebook phát triển đã tự tạo ra một ngôn ngữ riêng để liên lạc với nhau mà không kỹ sư nào hiểu được nội dung giao tiếp đó[1], dù rằng sau đó các nhà nghiên cứu nói rằng “có thể hiểu được kết quả của cuộc hội thoại”[2].
Liên minh Châu Âu cũng rất chú trọng phát triển lĩnh vực TTNT. Năm 2012, Ủy ban Châu Âu đã khởi xướng dự án Robolaw[3] nhằm hệ thống hóa và phân tích các biện pháp quản lý hiện có trong lĩnh vực robot. Các nhà nghiên cứu trong khuôn khổ dự án đã đề cập đến các vấn đề về thuật ngữ, quy phạm pháp luật và đạo đức. Kết quả của hoạt động này đã góp phần tạo cơ sở cho Nghị viện Châu Âu ban hành Nghị quyết số 2015/2103 ngày 16/02/2017 về “Bộ quy tắc về quyền dân sự đối với robot” (Nghị quyết số 2015/2103)[4]. Nghị quyết bao gồm hướng dẫn về cách tiếp cận để xác định các thuật ngữ cơ bản về robot, xác định nội dung và các vấn đề quan trọng khác trong lĩnh vực này, kiến nghị thành lập Cơ quan Châu Âu về kỹ thuật robot và TTNT, giới thiệu địa vị của "nhân cách điện tử" đối với robot[5]. Mặc dù không phải tất cả những sáng kiến nêu trên đều được triển khai trên thực tế, nhưng có thể khẳng định rằng, Nghị quyết số 2015/2103 được xem như một điển hình của một dạng luật “mềm” và nhiều điều khoản của nó có thể được tiếp tục xem xét đến trong tương lai.
Những động thái nêu trên cho thấy, xu hướng mở rộng phạm vi chủ thể của các quyền thay vì chỉ dành cho chủ thể truyền thống là các cá nhân con người. Xu hướng đó đang đặt ra một số câu hỏi như: Có hay không việc phân biệt địa vị pháp lý giữa con người với người máy tương tự như đã từng tồn tại giữa chủ nô và nô lệ trước đây? Pháp luật có cách thức nào để dung hòa sự khác biệt về nhu cầu giữa con người với các thực thể mang trí tuệ nhân tạo? Liệu có khả năng các trí tuệ nhân tạo trở thành thành viên của hội đồng xét xử tại tòa án với tư cách là “bồi thẩm đoàn”?... Ngoài ra, nghĩa vụ pháp lý của người máy cũng là một thách thức đặt ra đối với lập pháp trong bối cảnh mới. Rõ ràng, chúng ta không thể truy cứu robot trách nhiệm pháp lý giống như đối với pháp nhân khi xảy ra một thiệt hại nào đó. Bởi lẽ, xét đến cùng, trách nhiệm của pháp nhân vẫn phải được thực thi bởi những con người đại diện cho pháp nhân đó, còn người máy thì có thể không cần đến người đại diện.
Tại Việt Nam, Chiến lược Quốc gia về nghiên cứu, phát triển và ứng dụng TTNT đến năm 2030 xác định TTNT là một lĩnh vực công nghệ nền tảng của cách mạng công nghiệp lần thứ tư, góp phần quan trọng tạo bước phát triển đột phá về năng lực sản xuất, nâng cao năng lực cạnh tranh quốc gia, thúc đẩy phát triển kinh tế tăng trưởng bền vững. Tuy nhiên, Việt Nam chưa quan tâm đúng mức đến việc xây dựng khung pháp lý điều chỉnh quan hệ mới phát sinh này. Hệ thống pháp luật Việt Nam vẫn chỉ điều chỉnh các quan hệ xã hội truyền thống liên quan đến thể nhân, pháp nhân, tổ chức không có tư cách pháp nhân. Không gian pháp lý dành cho các quan hệ pháp luật có sự tham gia của công nghệ còn hạn hẹp[6]. Do vậy, để theo kịp với nhu cầu và thực tế phát triển, trên cơ sở kinh nghiệm lập pháp của các quốc gia phát triển, Việt Nam cần nghiên cứu xây dựng khung pháp lý phù hợp nhằm điều chỉnh các quan hệ liên quan đến phát triển và ứng dụng TTNT.
2. Vấn đề an toàn và trách nhiệm pháp lý trong ứng dụng trí tuệ nhân tạo
An toàn và trách nhiệm pháp lý là một trong những vấn đề cốt lõi hàng đầu trong ứng dụng TTNT. Vấn đề trở nên đặc biệt quan trọng hơn trong các trường hợp liên quan đến việc ứng dụng tích cực những phương tiện giao thông không người lái (phương tiện tự hành). Cho đến nay, vấn đề trách nhiệm pháp lý của TTNT đối với những thiệt hại gây ra cho sức khỏe, tính mạng của con người vẫn chưa có cách giải quyết thống nhất. Những trường hợp các phương tiện tự hành gây tai nạn cho con người ở một loạt các quốc gia đã làm dấy lên cuộc thảo luận về nhu cầu điều chỉnh vấn đề trách nhiệm của TTNT.
Trong Nghị quyết số 2015/2103, khái niệm mới về “cá nhân kỹ thuật số” đã xuất hiện cùng với vấn đề về trách nhiệm đối với các hành vi của robot (chủ sở hữu của robot, người sử dụng robot hay người tạo ra robot) và vấn đề bảo hiểm cho trách nhiệm đó. Nghị quyết số 2015/2103 đã nhấn mạnh tới một số đặc tính của robot thông minh như: khả năng chủ động sử dụng các cảm biến hoặc trao đổi dữ liệu trong môi trường của mình (tương thích); khả năng trao đổi dữ liệu và phân tích chúng; khả năng tự học hỏi trên cơ sở kinh nghiệm và tương tác; sự hiện diện tối thiểu của các hỗ trợ về vật lý; khả năng thích ứng các hành vi phù hợp với môi trường[7]. Trên cơ sở đó, Nghị quyết đã đưa ra những lưu ý về vấn đề trách nhiệm đối với hoạt động của robot thông minh:
Thứ nhất, nhờ có sự phát triển của các chức năng cụ thể cho phép robot thông minh hoạt động tự chủ (tự động), thực hiện quá trình tự nhận thức, đưa ra những quyết định độc lập, robot ngày càng trở nên giống với các tác nhân có thể tương tác với môi trường và đem lại những thay đổi đáng kể cho môi trường đó. Trong bối cảnh như vậy, vấn đề quan trọng được đặt ra là trách nhiệm đối với những thiệt hại do robort gây ra trong hoạt động của mình.
Thứ hai, sự tự chủ của một robot tự động có thể được định nghĩa là khả năng đưa ra quyết định và thực hiện một cách độc lập, không cần có sự kiểm soát hay tác động từ bên ngoài. Quyền tự chủ của robot hoàn toàn có tính chất kỹ thuật và mức độ tự chủ hoàn toàn phụ thuộc mức độ lập trình cho robot tương tác với môi trường của nhà sản xuất.
Thứ ba, mức độ tự chủ của một robot càng cao thì khả năng coi robot như là một công cụ trong tay những người thứ ba (nhà sản xuất, người điều hành, chủ sở hữu, người sử dụng, …) càng giảm đi. Vậy, có nên phát triển những nguyên tắc và quy tắc mới nhằm làm rõ trách nhiệm của bên thứ ba với các hành vi của robot, đặc biệt là với những trường hợp mà sẽ không làm rõ được mối quan hệ nhân quả giữa hậu quả thiệt hại với hành vi của một cá nhân cụ thể; có thể tránh được những hành động (hoặc không hành động) của robot dẫn đến thiệt hại hay không.
Thứ tư, bản thân các robot không thể tự mình chịu trách nhiệm về những thiệt hại mà chúng gây ra cho bên thứ ba. Các quy định hiện hành chỉ cho phép xem xét trách nhiệm trong trường hợp hành vi của robot nằm trong mối quan hệ nhân quả với hành vi của một cá nhân cụ thể (nhà sản xuất, người điều hành, chủ sở hữu hoặc người sử dụng), không phụ thuộc vào yếu tố lỗi, đối với các hành vi của robot.
Thứ năm, đối với những thiệt hại do hành vi của robot gây ra còn có thể áp dụng các quy định về: 1) Trách nhiệm đối với chất lượng và an toàn của hàng hóa, theo đó nhà sản xuất chịu trách nhiệm đối với mọi trục trặc của hàng hóa; 2) Trách nhiệm do những hành vi gây thiệt hại mà người sử dụng sản phẩm phải chịu trách nhiệm trong trường hợp có những hành vi dẫn tới những thiệt hại đó.
Thứ sáu, các quy chuẩn hiện hành về trách nhiệm pháp lý sẽ là không đủ trong trường hợp thiệt hại gây ra hoàn toàn do các quyết định mà robot đưa ra một cách độc lập. Trong những trường hợp này, sẽ không thể xác định được chủ thể sẽ chịu trách nhiệm đối với thiệt hại xảy ra.
Những thiếu khuyết của cơ chế điều chỉnh pháp lý hiện hành cũng được thể hiện rõ trong lĩnh vực trách nhiệm theo hợp đồng. Nếu máy móc được thiết kế để bản thân chúng có thể tự lựa chọn được đối tác, thỏa thuận về các điều khoản hợp đồng, ký kết và quyết định sẽ thực hiện các thỏa thuận đó như thế nào thì rõ ràng các nguyên tắc thông thường sẽ không áp dụng với chúng. Điều đó có nghĩa là, cần phải tạo lập những nguyên tắc mới, hiệu quả, hiện đại, tính đến sự phát triển của công nghệ và đổi mới. Ngay cả nguyên tắc bồi thường thiệt hại ngoài hợp đồng đối với sản phẩm khuyết tật được quy định trong pháp luật của Liên minh Châu Âu cũng chỉ được áp dụng trong trường hợp thiệt hại bị xảy ra do nguyên nhân có khiếm khuyết về sản xuất và với điều kiện bên bị gây thiệt hại phải chứng minh được sự kiện gây thiệt hại, sự tồn tại của khiếm khuyết về sản xuất và mối liên hệ nhân quả giữa chúng với nhau[8]. Chưa kể là các robot thế hệ mới có khả năng tự hoàn thiện và thích nghi với môi trường, hành vi và những tương tác của chúng với môi trường xung quanh có thể hoàn toàn có thể ngoài mọi dự liệu của con người, Như vậy, việc áp dụng các nguyên tắc hiện hành về trách nhiệm chủ quan và trách nhiệm khách quan (trách nhiệm không có yếu tố lỗi) đều không thể đáp ứng với vấn đề đã được đặt ra[9].
Cộng hòa liên bang Đức là quốc gia có nhiều kinh nghiệm lập pháp và thực tiễn trong lĩnh vực này. Đức không chỉ là một trong những quốc gia đi đầu trong lĩnh vực chế tạo robot với tư cách độc lập, mà còn là thành viên của Liên minh Châu Âu - một hiệp hội có tính hội nhập cao và đóng vai trò quan trọng trong thị trường robot toàn cầu. Ở Đức, việc mở rộng sử dụng TTNT được nhìn nhận trong một bối cảnh rộng hơn, không chỉ trong bối cảnh một ngành riêng biệt, mà còn là một phần của sự đổi mới chung của nền kinh tế, hình thành một mô hình kinh tế mới. Từ năm 2011, Đức đã xây dựng và triển khai Chương trình công nghiệp 4.0 (một phần của Chiến lược Công nghệ cao quốc gia 2020), với mục đích tái cơ cấu triệt để ngành sản xuất sử dụng Internet of Things, robot, TTNT, các mạng truyền thông thế hệ mới và các công nghệ hiện đại khác. Chương trình này đã cho ra đời khái niệm về Cách mạng công nghiệp 4.0, một sự chuyển đổi có tính hệ thống của nền kinh tế thế giới dựa trên việc sử dụng bổ sung các công nghệ kỹ thuật số đầu cuối. Đặc biệt, nhà kinh tế học người Đức, Chủ tịch Diễn đàn Kinh tế thế giới tại Davos, Klaus Schwab, đã có đóng góp đáng kể vào việc phát triển và phổ biến khái niệm này. Hiện nay, Đức đã thông qua Chiến lược công nghệ cao quốc gia đến năm 2025 (The High-Tech Strategy 2025), trong đó thể hiện sự chú trọng đặc biệt đối với sự phát triển TTNT[10]. Đức là một trong những quốc gia đầu tiên thông qua Luật Giao thông đường bộ sửa đổi để điều chỉnh việc sử dụng các phương tiện tự động hóa cao, trong đó có quy định khoản tiền đền bù cho những thiệt hại gây ra trong trường hợp sử dụng những phương tiện đó[11]. Bên cạnh đó, cũng giống như các quốc gia hàng đầu trong lĩnh vực TTNT, Đức vẫn áp dụng “regulatory sandbox” - “khung pháp lý thí điểm” để điều chỉnh một số hoạt động có liên quan đến TTNT. Ví dụ, vào năm 2017 tại Hamburg, dịch vụ giao hàng của Hermes đã thử nghiệm một robot giao hàng tự động có giấy phép cá nhân để được miễn tuân thủ các quy định về đăng ký, cấp phép đối với phương tiện giao thông tiện cũng như các quy định về giao thông hiện hành[12].
Như vậy, ngoài các phương án xem xét trách nhiệm pháp lý mang tính chất truyền thống (trách nhiệm sản phẩm, trách nhiệm bồi thường thiệt hại ngoài hợp đồng) đối với các chủ thể thông thường như nhà sản xuất hay chủ sở hữu robot, đã có đề xuất rằng, các máy móc tiên tiến nhất phải có tư cách chủ thể đặc biệt của một thực thể điện tử. Nghị quyết số 2015/2103 cũng đề cập tới việc, nếu như tính chất tự động của robot càng cao thì nó càng cần được xem xét như một dạng công cụ đặc biệt. Từ đó đặt ra câu hỏi: TTNT có thể tự mình chịu trách nhiệm cho những “tác vi” (hành động) và “bất tác vi” (không hành động) của mình hay không?  Nghị quyết số 2015/2103 cũng đã đưa ra quy định về việc thiết lập một hệ thống bảo hiểm bắt buộc đối với robot của chủ sở hữu và nhà sản xuất ra chúng (tương tự như như bảo hiểm trách nhiệm dân sự của người chủ sở hữu ô tô trong trường hợp xảy ra tai nạn). Khi thiệt hại gây ra không được bảo hiểm chi trả thì tiền bồi thường sẽ phải được chi trả từ quỹ bồi thường đặc biệt này.
Hiện nay, ở Việt Nam, pháp luật chưa xem xét vấn đề bồi thường thiệt hại trong ứng dụng TTNT như một loại trách nhiệm đặc biệt. Vấn đề bồi thường thiệt hại do TTNT gây ra được áp dụng trên cơ sở những nguyên tắc chung của bồi thường thiệt hại ngoài hợp đồng hoặc những quy định về trách nhiệm sản phẩm trong pháp luật về bảo vệ quyền lợi người tiêu dùng.
3. Bảo vệ dữ liệu cá nhân trong ứng dụng trí tuệ nhân tạo
Chúng ta đang sống trong thời đại mà quyền riêng tư đã trở thành mối quan tâm trung tâm của cả người dùng và cơ quan quản lý. Người dùng đang đòi hỏi sự minh bạch và kiểm soát cao hơn đối với việc thu thập, lưu trữ, sử dụng dữ liệu và trao đổi dữ liệu, đặc biệt là dữ liệu cá nhân. Thành phần chính của TTNT chính là các dữ liệu, trong khi số lượng lớn dữ liệu cho phép hệ thống “học máy” (machine learning) tự phát triển và đưa ra các quyết định một cách độc lập. Dữ liệu chính là một dạng nguyên liệu đầu vào của TTNT, cho phép TTNT có thể học cách tư duy của con người, sao chép các hành vi ứng xử của con người, tư duy các giải pháp để giải quyết vấn đề và từ đó có thể đưa những quyết định với độ tính toán chính xác, thông minh hơn con người do lợi thế xử lý kỹ thuật công nghệ vốn có của mình. Trong thời đại trí tuệ nhân tạo, dữ liệu, đặc biệt là dữ liệu cá nhân đã thực sự trở thành một loại “hàng hóa” có giá trị kinh tế. Dữ liệu cá nhân giúp cho TTNT học được cách tư duy của con người, cho ra kết quả cao hơn tư duy con người[13]. Do vậy, việc ứng dụng TTNT có liên quan mật thiết đến bảo hộ dữ liệu, đặc biệt là dữ liệu cá nhân. Vớisựpháttriểncủacôngnghệthôngtinvà bộphầncấuthànhkhôngthểthiếulà TTNT, vấn đbảovệdữliệucá nhânngàycàngnhận đượcsựquantâm đặcbiệtvì lý dodữliệucá nhâncó thểbịtiếtlộthôngquanhữngquyết định được đưarabởiTTNT.
hầuhếtcácquốcgia, quyềnbảovệdữliệucá nhân đượccoilà mộttrongnhữngquyềncơ bảncủamộtcá nhân. Châu Âu có thể được xem là một hình mẫu trong việc bảo hộ các dữ liệu cá nhân. Ngày 27/4/2016, Liên minh Châu Âu đã thông qua Chỉ thị số 2016/679 về bảo vệ các cá nhân liên quan đến xử lý và tự do lưu chuyển dữ liệu cá nhân (hay còn gọi là Quy định về bảo vệ dữ liệu chung (General Data Protection Regulation - GDPR), chính thức có hiệu lực từ 25/5/2018[14]. Dữ liệu cá nhân có thể là bất kỳ thông tin nào liên quan đến việc xác định hoặc nhận dạng một cá nhân (chủ thể dữ liệu) mà theo đó có thể được xác định trực tiếp hoặc gián tiếp chủ thể này. Những thông tin này bao gồm tên, thông tin về vị trí, số nhận dạng trực tuyến, một hoặc nhiều yếu tố cụ thể về danh tính, định dạng vật lý, sinh lý, di truyền, tinh thần, kinh tế, văn hóa hoặc xã hội của cá nhân[15]. Định nghĩa rất rộng và bao hàm khẳng định khá rõ ràng rằng ngay cả địa chỉ IP cũng có thể được coi là dữ liệu cá nhân. Một số dạng dữ liệu cá nhân thuộc về loại đặc biệt hoặc bí mật. Đó là những thông tin liên quan đến nguồn gốc chủng tộc hoặc sắc tộc, chính kiến chính trị, tín ngưỡng tôn giáo hoặc triết học cũng như danh tính thành viên của các tổ chức nghiệp đoàn, các thông tin về di truyền, sinh trắc học được sử dụng để xác định một cá nhân, các thông tin về tình trạng sức khỏe, thông tin về đời sống tình dục hoặc khuynh hướng tình dục[16].
Việc bảo vệ dữ liệu cá nhân được thực hiện trên cơ sở các tiêu chí sau: bản thân việc bảo vệ dữ liệu cá nhân luôn được nhìn nhận trong tương quan với việc bảo vệ quyền riêng tư và được xem như là sự tiếp nối của quyền riêng tư; tồn tại các quy định nghiêm ngặt về cơ chế thể hiện sự đồng ý đối với xử lý dữ liệu cá nhân; dữ liệu cá nhân có thể được sử dụng vì những mục đích công cộng với điều kiện tồn tại các cơ chế thông báo và khiếu nại; trong bảo vệ dữ liệu cá nhân cần đồng thời tôn trọng các quyền và tự do cơ bản khác như quyền tự do ngôn luận, tự do lưu thông thông tin.
Việc xử lý dữ liệu cá nhân được thực hiện trên các nguyên tắc sau:  
Thứ nhất, hợp pháp, công bằng và minh bạch. Dữ liệu cá nhân cần được xử lý một cách hợp pháp, công bằng và minh bạch. Bất kỳ thông tin nào về mục đích, phương pháp và quy mô xử lý dữ liệu cá nhân cần được thể hiện một cách tối đa, dễ tiếp cận và đơn giản.
Thứ hai, giới hạn mục tiêu. Các thông tin cá nhân cần được thu thập và sử dụng chỉ giới hạn trong mục đích đã đã được tuyên bố bởi những đơn vị thu thập thông tin đó.
Thứ ba, tối thiểu hóa dữ liệu. Không thể thu thập số lượng dữ liệu cá nhân nhiều hơn so với mức cần thiết so với mục tiêu xử lý dữ liệu.
Thứ tư, chính xác. Những thông tin cá nhân không chính xác cần được loại bỏ hoặc chỉnh sửa (theo yêu cầu của người sử dụng dịch vụ)
Thứ năm, hạn chế lưu trữ. Thông tin cá nhân cần được lưu trữ ở dạng cho phép xác định chủ thể dữ liệu trong một khoảng thời gian không vượt quá mức cần thiết cho mục đích xử lý.
Thứ sáu, toàn vẹn và bảo mật. Khi xử lý dữ liệu người dùng, các công ty có nghĩa vụ đảm bảo bảo vệ dữ liệu cá nhân khỏi việc xử lý, phá hủy trái phép[17].
Có thể dễ dàng nhận thấy, trong bối cảnh ứng dụng TTNT, các nguyên tắc xủ lý dữ liệu nêu trên đang gặp phải những mâu thuẫn và thách thức nhất định. Vậy các yêu cầu và nguyên tắc ứng xử với dữ liệu cá nhân sẽ cần phải được xử lý như thế nào trong việc ứng dụng TTNT, đặc biệt trong trường hợp TTNT có thể tự mình đưa ra các quyết định độc lập, trong đó có cả việc thu thập, xử lý, tiết lộ các thông tin thuộc về bí mật của các cá nhân? Làmthếnào để đểcáccôngtytíchhợpcácphântíchdữliệuliênquan đếncá nhânvàohệthốngsảnphẩm, dịchvụtrênnềntảngTTNTcủahọ?
Dướigóc độkỹthuật, các nhà khoa học và doanh nhân đang tích cực phát triển các phương pháp và công cụ bảo vệ dữ liệu cá nhân để sử dụng trong các hệ thống TTNT. Có  thể kể đến một số phương thức kỹ thuật mới để bảo vệ dữ liệu cá nhân trong môi trường ứng dụng TTNT như: Học liên kết (Federated Learning); Thuật toán quyền riêng tư khác biệt (Differential Privacy); Mã hóa đồng hình (Homomorphic Encryption - còn gọi là “mã hóa đồng cấu”); Sử dụng mạng ngang hàng (Peer-to-Peer) hay còn gọi là mô hình phi tập trung[18].
Việc ứng dụng TTNT không những tạo ra nguy cơ tiềm ẩn đối với tính bất khả xâm phạm về quyền riêng tư mà trong nhiều trường hợp chúng còn được thiết kế với chủ định là thiết lập các hồ sơ cá nhân. Dưới góc độ này, pháp luật các quốc gia phát triển, đặc biệt là Liên minh Châu Âu có những quy định rất nghiêm ngặt, thậm chí có khả năng kìm hãm đáng kể sự phát triển của TTNT. Như vậy, trong chính sách phát triển chung cũng như trong thiết kế, sản xuất và ứng dụng TTNT, các nhà hoạch định chính sách, các nhà thiết kế, sản xuất và cung cấp dịch vụ cần bảo đảm rằng các ứng dụng TTNT sẽ không dẫn đến việc làm suy yếu các quyền đối với dữ liệu cán nhân. Đối với các hoạt động nêu trên, có thể chỉ ra những yêu cầu chung liên quan đến bảo vệ dữ liệu cá nhân như sau[19]:    
- Các ứng dụng TTNT trong mọi trường hợp phải tôn trọng đầy đủ các quyền của chủ thể dữ liệu;
- Các ứng dụng TTNT phải cho phép chủ thể dữ liệu kiểm soát một cách có ý thức đối với quá trình xử lý dữ liệu và đối với những tác động có liên quan đến cá nhân và xã hội;
- Ở tất cả các giai đoạn xử lý dữ liệu, bao gồm cả thu thập dữ liệu, các nhà phát triển, nhà sản xuất và nhà cung cấp dịch vụ TTNTI nên áp dụng phương pháp tiếp cận theo thiết kế nhân quyền (human rights by-design) và tránh mọi thành kiến ​​tiềm ẩn (bao gồm cả vô tình hoặc không rõ ràng), nguy cơ phân biệt đối xử và các hậu quả tiêu cực khác đối với quyền con người và các quyền tự do cơ bản của chủ thể dữ liệu;[20]
- Tất cả các sản phẩm và dịch vụ dựa trên ứng dụng TTNT phải được thiết kế theo cách đảm bảo quyền của các cá nhân để đảm bảo rằng các quyết định có ảnh hưởng quan trọng đến họ không chỉ dựa trên xử lý dữ liệu tự động mà không tính đến ý kiến ​​của họ;
- Các chủ thể dữ liệu phải được thông báo rằng họ đang tương tác với ứng dụng TTNT. Họ nên có quyền nhận được những thông tin về logic đằng sau các hoạt động xử lý dữ liệu có ứng dụng TTNT liên quan đến lợi ích của họ;
- Phải đảm bảo quyền phản đối việc xử lý dữ liệu dựa trên các công nghệ ảnh hưởng đến quan điểm và sự phát triển riêng của các cá nhân.
4. Quyền sở hữu trí tuệ trong ứng dụng trí tuệ nhân tạo
TTNT đang ngày càng trở thành động lực thúc đẩy tiến bộ trong công nghệ và kinh doanh. Nó được sử dụng rộng rãi trong nhiều ngành công nghiệp và có tác động đến hầu hết mọi khía cạnh của hoạt động sáng tạo. Sự phát triển của TTNT được thúc đẩy bởi sự sẵn có của một lượng lớn dữ liệu và sự gia tăng khả năng tính toán sẵn có. Do vậy, TTNT có nhiều điểm giao thoa và tác động tới lĩnh vực sở hữu trí tuệ (SHTT). Còn sớm để nói về những vấn đề cụ thể, nhưng rõ ràng rằng, TTNT sẽ có tác động tới các lĩnh vực truyền thống của sở hữu trí tuệ. Nền kinh tế số nói chung và TTNT nói riêng sẽ sớm tạo ra các tác phẩm âm nhạc thương mại và các sáng chế, sẽ làm thay đổi khái niệm niệm truyền thống về “nhà soạn nhạc”, “tác giả”, “nhà sáng chế”. TTNT và các quan hệ pháp lý liên quan sự phát triển của TTNT trong tương quan với hệ thống bảo hộ quyền SHTT ngày càng trở thành những vấn đề cấp bách cần được xem xét và điều chỉnh.
Mục tiêu nền tảng của hệ thống SHTT luôn là khuyến khích việc tạo ra các công nghệ mới, các công trình sáng tạo cũng như tạo ra cơ sở kinh tế bền vững cho các sáng tạo. Từ quan điểm kinh tế đơn thuần, ngoài các mục tiêu khác của hệ thống SHTT như bảo đảm “phần thưởng xứng đáng” và bảo vệ các quyền nhân thân thì sẽ không có lý do gì để không sử dụng SHTT nhằm khuyền khích các công trình sáng tạo do chính TTNT tạo lập ra. Tuy nhiên, cho đến thời điểm hiện nay, cơ chế và phương thức thực hiện mục tiêu này thì hoàn toàn chưa rõ ràng. TTNT như một công nghệ có thể được hiểu theo những cách khác nhau, nhưng điểm mấu chốt với pháp luật SHTT chính là ở chỗ, kết quả của việc sử dụng phức hợp các giải pháp công nghệ cho phép bắt chước các nhận thức của con người, thu nhận được những kết quả tương đương với kết quả của hoạt động trí tuệ của con người. Từ đó dẫn đến câu hỏi là liệu các sản phẩm được tạo ra từ TTNT – kết quả của quá trình tự phân tích và đưa ra các quyết định độc lập của TTNT - có được bảo hộ quyền SHTT hay không? Và nếu được bảo hộ thì chủ thể nào sẽ nắm giữ các quyền SHTT này.
Pháp luật SHTT hiện hành chỉ công nhận quyền tác giả đối với những tác phẩm được tạo thành từ công sức lao động sáng tạo của cá nhân con người. Quyền tác giả đối với tác phẩm liên quan trực tiếp đến vấn đề tính nguyên gốc của chúng - một trong những đặc điểm chính được pháp luật bảo hộ. Nền tảng của pháp luật về bảo hộ quyền tác giả truyền thống tiếp cận theo hướng bảo hộ tác phẩm mà trong đó tính nguyên bản của chúng phản ánh các hoạt động sáng tạo và trí tuệ của tác giả. TTNT hoạt động theo các thuật toán và khá thường xuyên tạo ra các tác phẩm mới do quá trình xử lý và phân tích các tác phẩm đã có, trong trường hợp này, để tác phẩm có thể được bảo hộ thì cần thiết phải đưa ra các tiêu chí để xác định tính chất nguyên gốc trong tác phẩm mới được hình thành. Do vậy, vấn đề quan trọng đối với việc công nhận quyền tác giả cho đối tượng được tạo ra bởi TTNT chính là tác giả và tính nguyên gốc của tác phẩm. Có những xu hướng giải quyết vấn đề này như sau:
            - Tác giả là người đã tạo nên TTNT;
            - Tác giả là người sử dụng TTNT;
            - Tác giả trực tiếp là TTNT.
            Trong đó, hai xu hướng đầu là những những xu hướng phổ biến nhất, nhưng lại không hoàn toàn tương ứng với đặc điểm chính của tác phẩm là đối tượng SHTT - sự hiện diện của hoạt động sáng tạo và trí tuệ của một người. Kết quả của hoạt động trí tuệ và sáng tạo của một nhà phát triển TTNT sẽ là chính TTNT dưới dạng một chương trình máy tính hoặc một mã nguồn. Các sản phẩm do TTNT tạo ra thường không bị ảnh hưởng từ phía người tạo ra TTNT vì các sản phẩm này được TTNT tạo ra bằng cách thực hiện những thuật toán nhất định. Do vậy, việc công nhận người phát triển TTNT là tác giả sẽ không phù hợp với pháp luật hiện hành. Tiếp theo, việc coi người sử dụng TTNT như là tác giả cũng sẽ không tương thích với các nguyên tắc cơ bản của quyền SHTT. Thông thường, tất cả các hành động của người dùng liên quan đến quá trình tạo ra các tác phẩm bằng TTNT bao gồm việc khởi động một chương trình máy tính thích hợp và tải thông tin, tài liệu hoặc thiết lập các cài đặt cần thiết để tạo ra kết quả cuối cùng. Những hành động như vậy khó được coi là hoạt động có tính sáng tạo.
Cho đến nay, chưa có bất kỳ quốc gia nào công nhận TTNT trực tiếp là tác giả của các tác phẩm. Điều này liên quan trực tiếp đến vấn đề có công nhận “cá nhân điện tử” (như đã đề cập ở các nội dung trên) là chủ thể của quan hệ pháp luật hay không. Tuy nhiên, việc áp dụng xu hướng này còn liên quan đến việc giải quyết hàng loạt các khía cạnh pháp lý khác nhau trong bảo hộ quyền SHTT đối với các đối tượng do “cá nhân điện từ” - TTNT tạo nên: cơ chế thực thi các quyền nhân thân và tài sản; thời hạn bảo hộ; giải quyết tranh chấp; … 
Ngoài ra, việc ứng dụng công nghệ TTNT sẽ có tác động không chỉ tới hoạt động SHTT, hệ thống pháp luật và chính sách về SHTT mà còn tới cả các hệ thống hành chính về SHTT trên toàn thế giới. Trong những năm gần đây, Tổ chức SHTT thế giới (WIPO) đã nỗ lực nghiên cứu và thảo luận các vấn đề và các câu hỏi liên quan đến việc sử dụng các công nghệ và hệ thống TTNT để quản lý các quy trình hành chính và chính sách sở hữu trí tuệ.
            Tóm lại, trí tuệ nhân tạo là bước tiến mới của công nghệ kỹ thuật số và sẽ có tác động sâu sắc đến thế giới của chúng ta. Nó sẽ mang lại những tác động to lớn về công nghệ, kinh tế và xã hội, đồng thời sẽ thay đổi cách chúng ta sản xuất và tiêu thụ hàng hóa, dịch vụ và thực sự nó sẽ thay đổi cả cách sống của thế giới loài người. Nói cách khác, việc xem xét áp dụng trí tuệ nhân tạo không đơn thuần chỉ trong khuôn khổ của một lĩnh vực mà cần phải được nhìn nhận trên phạm vi tương đối bao quát, trong đó có lĩnh vực pháp luật. Có thể đưa ra một số tiêu chí để nhận diện hệ thống pháp luật hoàn thiện nhằm điều chỉnh và hỗ trợ cho lĩnh vực TTNT: có đạo luật chuyên ngành về điều chỉnh các quan hệ về phát triển và sử dụng công nghệ robot; có hệ thống cơ quan nhà nước chịu trách nhiệm trong lĩnh vực công nghệ robot; có chương trình quốc gia về phát triển ngành công nghiệp robot và có khung pháp pháp lý thí điểm cho việc thử nghiệm công nghệ robot. Hiện nay, ngay cả một số quốc gia phát triển trong lĩnh vực công nghệ này cũng chưa phải là đã đáp ứng đầy đủ những yếu tố nêu trên. Tuy nhiên, những kinh nghiệm nêu trên của các quốc gia phát triển có thể được coi là những hình mẫu quan trọng cho các hoạt động lập pháp về TTNT ở các quốc gia, trong đó có Việt Nam./.
 
Tài liệu tham khảo
Tiếng Việt
1. Nguyễn Thị Quế Anh, Nhận diện sự thay đổi của pháp luật trong bối cảnh công nghệ số. Kỷ yếu Hội thảo quốc tế "Luật học trước biến đổi của thời đại", tổ chức tại Khoa Luật - ĐHQGHN, tháng 8/2019, tập 2.
2. Nguyễn Thị Quế Anh. Bảo vệ dữ liệu cá nhân trong kỷ nguyên số - Kinh nghiệm Châu Âu. Kỷ yếu Hội thảo quốc tế “Hoàn thiện pháp luật tư trong bối cảnh kỷ nguyên số - kinh nghiệm từ Đức và Việt Nam”, Hà Nội, 3.2019.
3. Báo Nhân dân (2017), Facebook xóa sổ trí tuệ nhân tạo có khả năng tự sáng tạo ra ngôn ngữ mới, http://nhandan.com.vn/congnghe/item/33622102-facebook-xoa-so-tri-tue-nhan-tao-co-kha-nang-tu-sang-tao-ra-ngon-ngu-moi.html, truy cập ngày 15/8/2021.
4. Lưu Minh Sang, Trần Đức Thành. Trí tuệ nhân tạo và những thách thức pháp lý. Nguồn: Tạp chí Khoa học và công nghệ Việt Nam. https://vjst.vn/vn/tin-tuc/3303/tri-tue-nhan-tao-va-nhung-thach-thuc-phap-ly.aspx (truy cập 08/7/2021).
5. Lê Lương Minh, Trí tuệ nhân tạo và quyền riêng tư. Bài viết trong sách tham khảo “Trí tuệ nhân tạo với pháp luật và quyền con người”. Chủ biên: Nguyễn Thị Quế Anh, Vũ Công Giao và Mai Văn Thắng. Khoa Luật, ĐHQGHN. NXB Tư pháp, 2019.
6. VNReview(2017), Facebook đã không hoảng sợ và tắt chương trình AI tự tạo ra ngôn ngữ như tin đồn,  http://vnreview.vn/tin-tuc-khoa-hoc-cong-nghe/-/view_content/content/2232722/facebook-da-khong-hoang-so-va-tat-ai-tu-tao-ra-ngon-ngu-nhu-tin-don, truy cập ngày 15/8/2021.
Tiếng Anh
7. European Parliament, Resolution 2015/2103 (INL), https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.pdf, (truy cập 20/8/2021).
8. Federal Ministry of Education and Research of Germany. (2021). The high-tech strategy 2025. The Federal Government, tại: https://www.bmbf.de/upload_filestore/pub/Research_and_innovation_that_benefit_the_people.pdf
9. Federal Ministry for Economic Affairs and Energy of Germany. (2019). Making space for innovation. The handbook for regulatory sandboxes. The Federal Government. https://www.bmwi.de/Redaktion/EN/Publikationen/Digitale-Welt/handbook-regulatory-sandboxes.pdf?__blob=publicationFile&v=2, (truy cập 20/8/2021).
TiếngNga
10. Нормы гражданского права о робототехнике. Резолюция Европарламента от 16 февраля 2017 года. Xem: http://robopravo.ru/riezoliutsiia_ies (truy cập: 22/8/2021).
11. Исследовательский центр проблем регулирования робототехники. (2017). Восьмой закон о внесении изменений в Закон о дорожном движении от 16 июня 2017 г, tại:
12. Интервью с Беном Лорикой, ведущим специалистом по работе с данными компании O’Reilly Media. Взаимосвязь между защитой персональных данных, обучением машин и искусственным интеллектом. Nguồn: https://www.wipo.int/tech_trends/ru/artificial_intelligence/ask_the_experts/techtrends_ai_lorica.html (truy cập 28/8/2021).
13. Директива Совета от 25 июля 1985 г. о сближении законов, регламентов и административных положений государств-членов, применяемых к ответственности за неисправную продукцию (85/374/ЕЭС). Xem: https://eulaw.edu.ru/spisok-dokumentov-po-pravu-evropejskogo-soyuza/dokumenty-o-pravah-cheloveka-i-grazhdanina/normativnye-akty-o-svobode-peredvizheniya-tovarov-lits-i-uslug/direktiva-soveta-ot-25-iyulya-1985-g-o-sblizhenii-zakonov-reglamentov-i-administrativnyh-polozhenij-gosudarstv-chlenov-primenyaemyh-k-otvetstvennosti-za-neispravnuyu-produktsiyu-85-374-ees-perevod/ (truy cập 18/8/2021).
14. Консультативный комитет «Конвенция о защите частных лиц в отношении автоматизированной обработки данных личного характера» (ETS No.108 tại: https://www.coe.int/en/web/conventions/full-list/-/conventions/treaty/108?module=treaty-detail&treatynum=108)
 

 


[1] Báo Nhân dân (2017), Facebookxóasổtrí tuệnhântạocó khảnăngtựsángtạorangônngữmới, http://nhandan.com.vn/congnghe/item/33622102-facebook-xoa-so-tri-tue-nhan-tao-co-kha-nang-tu-sang-tao-ra-ngon-ngu-moi.html, truy cập ngày 15/8/2021.
[2] VNReview(2017), Facebook đã khônghoảngsợvà tắtchươngtrìnhAItựtạorangônngữnhư tin đồn, http://vnreview.vn/tin-tuc-khoa-hoc-cong-nghe/-/view_content/content/2232722/facebook-da-khong-hoang-so-va-tat-ai-tu-tao-ra-ngon-ngu-nhu-tin-don, truy cập ngày 15/8/2021.
[3] Xem các thông tin và kết quả của Dự án tại: http://www.robolaw.eu/, truy cập 22/9/2021.
[4] Xem Nghị quyết này tại: Resolution 2015/2103 (INL) of the European Parliament of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics, https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.pdf, truy cập 20/8/2021.
[5] Xem: Resolution 2015/2103 (INL) of the European Parliament of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics, https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.pdf, truy cập 20/8/2021.
[6] Xem: Lưu Minh Sang, Trần Đức Thành, Trí tuệ nhân tạo và những thách thức pháp lý, https://vjst.vn/vn/tin-tuc/3303/tri-tue-nhan-tao-va-nhung-thach-thuc-phap-ly.aspx, truy cập 08/7/2021.
[7] Нормы гражданского права о робототехнике. Резолюция Европарламента от 16 февраля 2017 года. Xem: http://robopravo.ru/riezoliutsiia_ies, truy cập ngày 22/8/2021.
[8] Xem: Chỉ thị số 85/374/EEC ban hành ngày 25.7.1985 của Liên minh Châu Âu- Директива Совета от 25 июля 1985 г. о сближении законов, регламентов и административных положений государств-членов, применяемых к ответственности за неисправную продукцию (85/374/ЕЭС). Xem: https://eulaw.edu.ru/spisok-dokumentov-po-pravu-evropejskogo-soyuza/dokumenty-o-pravah-cheloveka-i-grazhdanina/normativnye-akty-o-svobode-peredvizheniya-tovarov-lits-i-uslug/direktiva-soveta-ot-25-iyulya-1985-g-o-sblizhenii-zakonov-reglamentov-i-administrativnyh-polozhenij-gosudarstv-chlenov-primenyaemyh-k-otvetstvennosti-za-neispravnuyu-produktsiyu-85-374-ees-perevod/, truy cập 18/8/2021.
[9] Nguyễn Thị Quế Anh, Nhậndiệnsựthay đổicủaphápluậttrongbốicảnhcôngnghệsố. Kỷ yếu Hội thảo quốc tế “Luật học trước biến đổi của thời đại”, tổ chức tại Khoa Luật – Đại học Quốc gia Hà Nội, tháng 8/2019, tập 2, tr.125-126.
[10] Xem: Federal Ministry of Education and Research of Germany. (2021). The high-tech strategy 2025. The Federal Government, https://www.bmbf.de/upload_filestore/pub/Research_and_innovation_that_benefit_the_people.pdf
[11] Xem:  Исследовательский центр проблем регулирования робототехники. (2017). Восьмой закон о внесении изменений в Закон о дорожном движении от 16 июня 2017 г,
[12] Xem: Federal Ministry for Economic Affairs and Energy of Germany. (2019). Making space for innovation. The handbook for regulatory sandboxes. The Federal Government, https://www.bmwi.de/Redaktion/EN/Publikationen/Digitale-Welt/handbook-regulatory-sandboxes.pdf?__blob=publicationFile&v=2, truy cập ngày 20/8/2021.
[13] Xem: Lê Lương Minh, Trí tuệ nhân tạo và quyền riêng tư. Bài viết trong sách tham khảo “Trí tuệ nhân tạo với pháp luật và quyền con người”. Chủ biên: Nguyễn Thị Quế Anh, Vũ Công Giao và Mai Văn Thắng. Khoa Luật, Đại học Quốc gia Hà Nội, Nxb. Tư pháp, 2019, tr. 368.
[14] Trước thời điêm đó Châu Âu đã có các quy định về bảo vệ dữ liệu cá nhân. Tuy nhiên, với sự phát triển của các công cụ kỹ thuật cách thức tổ chức thu thập, lưu trữ thông tin cũng như lượng thông tin mà các tổ chức, cá nhân phải xử lý đã thay đổi rất nhiều. Quy định bảo vệ dữ liệu GDPR ra đời nhằm mục đích nhằm thiết lập một quy tắc chung cho các luật bảo vệ dữ liệu riêng tư của EU, không phụ thuộc vào vị trí địa lý, được áp dụng cả cho người quản lý dữ liệu và người xử lý dữ liệu. Các quyền cơ bản của cá nhân được GDPR bảo vệ bao gồm: Quyền được thông báo, quyền được truy cập, quyền chỉnh sửa, quyền xóa, quyền giới hạn/ ngừng xử lý, quyền trích xuất dữ liệu, quyền phản đối, quyền từ chối các xử lý phân nhóm và tự động ra quyết định. Xem: Nguyễn Thị Quế Anh, Bảo vệ dữ liệu cá nhân trong kỷ nguyên số - Kinh nghiệm Châu Âu, Kỷ yếu Hội thảo quốc tế “Hoàn thiện pháp luật tư trong bối cảnh kỷ nguyên số - kinh nghiệm từ Đức và Việt Nam”, Hà Nội, 3.2019, tr. 65.
[15] Khoản 4 điều 4 GDPR. Xem: Regulation (EU) 2016/679 of the European Parliament and the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) // OJ. L 119. Vol. 59. 4 May 2016. P. 1-89. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32016R0679).
[16] Điều 9 GDPR. Xem: nguồn đã dẫn.
[17] Xem: Nguyễn Thị Quế Anh, Bảo vệ dữ liệu cá nhân trong kỷ nguyên số - Kinh nghiệm Châu Âu, Kỷ yếu Hội thảo quốc tế “Hoàn thiện pháp luật tư trong bối cảnh kỷ nguyên số - kinh nghiệm từ Đức và Việt Nam”, Hà Nội, 3. 2019, tr. 67.
[18] Xem: Интервью с Беном Лорикой, ведущим специалистом по работе с данными компании O’Reilly Media. Взаимосвязь между защитой персональных данных, обучением машин и искусственным интеллектом,  https://www.wipo.int/tech_trends/ru/artificial_intelligence/ask_the_experts/techtrends_ai_lorica.html, truy cập ngày 28/8/2021.
[19] Xem: Консультативный комитет «Конвенция о защите частных лиц в отношении автоматизированной обработки данных личного характера» (ETS No.108 tại: https://www.coe.int/en/web/conventions/full-list/-/conventions/treaty/108?module=treaty-detail&treatynum=108) Совета Европы. «Руководство по защите персональных данных при использовании искусственного интеллекта» (Guidelines on artificial intelligence and data protection tại: https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8).
[20] Có thể lấy ví dụ vấn đề này bằng một nghiên cứu trên Tạp chí ProPulica, phân tích các kết quả từ một ứng dụng TTNT được sử dụng để hỗ trợ việc cho phép bảo lãnh bị cá và quyết định mức án tại các tòa án Hoa Kỳ. Ứng dụng này có nhiệm vụ đánh giá khả năng tái phạm của các bị cáo. Nghiên cứu của ProPulica cho rằng, các bị cáo người da đen đã bị đánh giá là có rủi ro tái phạm cao gấp đôi so với người da trắng. Nhà phát triển ứng dụng không đồng tình với kết luận nêu trên, nhưng từ chối cung cấp các tiêu chí và thuật toán xác định khả năng tái phạm của bị cáo. Như vậy, công chúng và giới nghiên cứu không thể biết được thực sự thuật toán của ứng dụng TTNT có thiên vị hay không. Như vậy, trong trường hợp này AI có thể không khách quan, nếu như những dữ liệu đầu vào có sự thiên vị. Việc sử dụng dữ liệu cá nhân trong trường hợp này sẽ trái với nguyên tắc công bằng. Xem: Lê Lương Minh, Trí tuệ nhân tạo và quyền riêng tư, Sách tham khảo “Trí tuệ nhân tạo với pháp luật và quyền con người”; Chủ biên: Nguyễn Thị Quế Anh, Vũ Công Giao và Mai Văn Thắng, Khoa Luật, Đại học Quốc gia Hà Nội, Nxb. Tư pháp, 2019, tr. 377.

(Nguồn tin: Bài viết được đăng tải trên Ấn phẩm Tạp chí Nghiên cứu Lập pháp số 22 (446), tháng 11/2021.)