Các vấn đề pháp lý về AI mà đội ngũ pháp lý nội bộ cần lưu ý

14/03/2024
Phạm Nhật Thăng
Phạm Nhật Thăng
Với sự phát triển nhanh chóng gần đây của công nghệ trí tuệ nhân tạo (artificial intelligence, viết tắt: AI), các luật sư nội bộ (in-house lawyers) có thể gặp nhiều khó khăn để tìm ra giải pháp tốt nhất để quản lý rủi ro (tham khảo: inhouselawyer, Anh).

1- Trí tuệ nhân tạo là gì và nó liên quan đến bạn như thế nào

Trí tuệ nhân tạo (artificial intelligence, viết tắt: AI) là một thuật ngữ có thể được sử dụng để chỉ những ý nghĩa khác nhau đối với những người khác nhau tùy thuộc vào ngữ cảnh. 

Khi nói về AI trong bối cảnh pháp lý hoặc kinh doanh, chúng ta nói đến bất kỳ máy nào xử lý dữ liệu hoặc thực hiện các nhiệm vụ với một mức độ tự chủ nào đó, tức là nó đưa ra quyết định hoặc tìm câu trả lời cho các truy vấn dựa trên 'máy học' của chính nó. Việc 'học máy' này có thể thực hiện được nhờ các thuật toán tạo thành một phần của hệ thống AI và dữ liệu mà hệ thống được đào tạo dựa trên đó.

Điều quan trọng là phải hiểu rằng công nghệ AI không phải là mới và đã được sử dụng trong nhiều năm. Ví dụ: công nghệ được sử dụng trong nhiều dịch vụ phát trực tuyến để dự đoán loại nội dung mà người xem có thể thích.

Sự quan tâm đã thu hút trong khoảng 12 tháng qua vì một loại AI mới - Generative AI (GenAI) có khả năng tạo video, văn bản và âm thanh chỉ bằng một nút bấm và theo cách (ít nhất là trực quan), trông bóng bẩy. Ví dụ: bao gồm ChatGPT và Google Bard.

Nhiều hệ thống GenAI được xây dựng dựa trên cái được gọi là 'mô hình nền tảng'. Chúng đang thu hút rất nhiều sự chú ý vì chúng có thể xử lý lượng lớn dữ liệu phi cấu trúc và thực hiện nhiều tác vụ cùng một lúc. Các mô hình nền tảng có thể được sử dụng làm công nghệ cơ sở để xây dựng hệ thống AI cho một mục đích cụ thể - và thường cho phép các tổ chức phát huy hết khả năng của mình thông qua quyền truy cập giao diện lập trình ứng dụng (API) như một phần của mô hình kinh doanh của họ.

GenAI nói riêng có thể có tác động chuyển đổi đối với các doanh nghiệp. Những nhiệm vụ mất hàng giờ của con người để hoàn thành có thể được thực hiện trong vài giây. Các luật sư nội bộ cần phải đi đầu trong cuộc chơi khi nói đến AI vì trong nhiều lĩnh vực, nhóm kinh doanh của họ sẽ rất quan tâm đến việc triển khai các hệ thống này. Có những rủi ro liên quan và những cân nhắc về mặt pháp lý, đồng thời các luật sư nội bộ sẽ được kêu gọi để chuẩn bị cho hoạt động kinh doanh của họ trước những tác động.

Xem thêm: Dịch vụ pháp lý trong lĩnh vực doanh nghiệp của Công ty Luật TNHH Everest

2- Các vấn đề pháp lý và tuân thủ quan trọng mà đội ngũ pháp lý nội bộ cần lưu ý

Các vấn đề pháp lý phát sinh sẽ phụ thuộc vào loại hệ thống AI đang được sử dụng, nhưng hãy lấy mô hình nền tảng làm ví dụ. Có nhiều rủi ro khác nhau đối với doanh nghiệp khi sử dụng hệ thống AI được xây dựng theo loại mô hình này. Bao gồm các:

[a] Rủi ro sở hữu trí tuệ và tính bảo mật

Dữ liệu mà hệ thống được đào tạo có thể bao gồm tài sản trí tuệ (intellectual property, viết tắt IP) của bên thứ ba hoặc thông tin bí mật (confidential information). Nếu không nhận được sự đồng ý và/hoặc giấy phép phù hợp, điều này có thể dẫn đến việc chủ sở hữu IP hoặc thông tin bí mật thực hiện hành động chống lại người dùng. Mức độ vi phạm việc đào tạo hệ thống AI trên IP của bên thứ ba là chủ đề của các vụ kiện ở nhiều khu vực pháp lý.

Đầu năm 2023, Getty đã khởi xướng các thủ tục pháp lý chống lại Stability AI vì bị cáo buộc sử dụng hình ảnh của Getty để đào tạo Stable Diffusion, một mô hình thuộc sở hữu của Stability. Vị trí pháp lý vẫn chưa rõ ràng cho đến khi chúng tôi có phán quyết về những trường hợp này.

Cũng không rõ ai sở hữu IP trong nội dung do hệ thống AI tạo ra (đầu ra). Ví dụ: khi một doanh nghiệp sử dụng hệ thống AI để viết một bài báo, người viết (hoặc chủ nhân của họ) thường sẽ sở hữu IP trong bài báo. Nhưng khi bài viết được viết hoàn toàn bằng máy, với sự nhắc nhở tối thiểu của con người, thì sẽ có câu hỏi về việc liệu đầu ra từ máy có đủ tính sáng tạo để đáp ứng các tiêu chí bảo vệ quyền sở hữu trí tuệ hay không.

Chúng tôi đã thấy một số trường hợp về việc liệu hệ thống AI có thể là chủ sở hữu đã đăng ký của bằng sáng chế hay không. Xu hướng hiện nay là không thể.

Luật liên quan đến bí mật thương mại có thể sẽ trở nên phù hợp hơn. Đó là bởi vì cả dữ liệu được nhập vào hệ thống AI dưới dạng truy vấn và đầu ra tiếp theo đều là bí mật thương mại của người dùng và được bảo vệ giống như thông tin bí mật hơn là một phần IP đã đăng ký như bằng sáng chế hoặc tác phẩm có bản quyền.

Điều quan trọng là, nếu một doanh nghiệp nhập thông tin bí mật vào hệ thống AI công cộng như ChatGPT, về mặt lý thuyết, mô hình này có thể sử dụng thông tin đó để tự đào tạo. Thông tin được cho là được tiết lộ ở giai đoạn đó. Khi đó, có nguy cơ thông tin hiện đã được công khai, điều này có thể vi phạm mọi nghĩa vụ bảo mật mà doanh nghiệp có đối với nhân viên hoặc đối tác kinh doanh của mình.

[b] Rủi ro bảo vệ dữ liệu

Các doanh nghiệp sử dụng hệ thống AI vẫn cần tuân thủ nghĩa vụ luật bảo vệ dữ liệu của mình. Bởi vì chúng tôi đã thấy một số trường hợp IP nổi bật nên người ta ít chú ý đến sự phức tạp của việc sử dụng hệ thống AI xử lý dữ liệu cá nhân.

Các nghĩa vụ bao gồm công bằng và minh bạch, đưa tính năng bảo vệ dữ liệu vào thiết kế hệ thống và tôn trọng một số quyền của cá nhân - ví dụ: quyền xóa dữ liệu cá nhân và các quyền liên quan đến việc ra quyết định tự động.

Các nguyên tắc phải được tuân thủ bao gồm giới hạn mục đích, giảm thiểu dữ liệu và độ chính xác. Đây rõ ràng là những nguyên tắc rất khó tuân thủ trong các hệ thống đòi hỏi lượng dữ liệu khổng lồ và sự hiểu biết của con người về cách chúng hoạt động có thể bị hạn chế. Dữ liệu cá nhân chỉ nên được xử lý theo cách mà một cá nhân mong đợi một cách hợp lý và cách thức xử lý đó được thực hiện cũng như tác động của nó phải được giải thích. Với một hệ thống AI phức tạp sử dụng thuật toán (hoặc các thuật toán) phức tạp thì đây khó có thể là một nhiệm vụ dễ dàng.

Cơ quan quản lý bảo vệ dữ liệu của Vương quốc Anh, Văn phòng Ủy viên Thông tin (ICO), đã có AI chắc chắn trên radar của mình. Gần đây, họ đã xuất bản bản tổng hợp tất cả các hướng dẫn và tài nguyên AI của mình, bao gồm tổng quan chi tiết về cách áp dụng các nguyên tắc luật bảo vệ dữ liệu vào việc sử dụng thông tin trong hệ thống AI. Hướng dẫn này đã được cập nhật vào năm ngoái sau khi có yêu cầu từ ngành công nghiệp Vương quốc Anh nhằm làm rõ các yêu cầu về tính công bằng trong AI. Sự công bằng tương tác với sự thiên vị và phân biệt đối xử, hai mối quan tâm xã hội quan trọng liên quan đến việc sử dụng AI. Đây là những cân nhắc về mặt đạo đức mà tất cả các doanh nghiệp sẽ cần phải lường trước ngay từ đầu, đặc biệt nếu bản thân họ tham gia vào việc phát triển hệ thống AI. ICO và Viện Alan Turing cũng đã cùng nhau đưa ra một hướng dẫn giải thích các quyết định được đưa ra bằng AI, trong đó có một số lời khuyên và mẹo thực tế hữu ích.

Điều thực sự quan trọng là phải tính đến các vấn đề bảo vệ dữ liệu ở giai đoạn triển khai rất sớm. Nếu hệ thống AI được đưa vào từ bên thứ ba, hãy thảo luận những vấn đề này với họ ngay từ đầu.

[c] Rủi ro về độ chính xác

Bởi vì đầu ra do AI tạo ra có xu hướng được trình bày chuyên nghiệp và có vẻ tự tin, ít lỗi đánh máy hoặc chính tả, điều này có thể khiến mọi người tin tưởng rằng nó không có lỗi. Nhưng chúng tôi biết từ những câu chuyện được báo cáo về nguy cơ 'ảo giác AI', trong đó nội dung được trình bày rõ ràng như sự thật chỉ đơn giản là bịa đặt, bao gồm toàn bộ các vụ kiện pháp lý.

Điều quan trọng là phải hiểu rằng hầu hết các hệ thống GenAI, mặc dù đã được đào tạo về lượng dữ liệu khổng lồ, nhưng về cơ bản vẫn là những cỗ máy dự đoán - chúng được thiết kế để dự báo câu trả lời có khả năng xảy ra nhất cho một câu hỏi.

Thật không may, điều này có nghĩa là nếu mô hình không có dữ liệu cần thiết để tạo ra phản hồi chính xác thì nó có thể tự tin đưa ra phản hồi không chính xác. Điều này có nhiều khả năng xảy ra trong các lĩnh vực kỹ thuật cao, nơi các mô hình chung có thể không được đào tạo đủ cụ thể để đưa ra câu trả lời chính xác.

Ngay cả AI thông minh nhất cũng có thể mắc lỗi nếu không được trang bị thông tin phù hợp. Nếu nhân viên trong các tổ chức tin rằng công nghệ họ đang sử dụng tạo ra kết quả chính xác, chất lượng cao, thì họ có thể bị cám dỗ dựa vào công nghệ đó cho một số khía cạnh nhất định trong công việc của mình, điều này có thể - tùy thuộc vào tính chất vai trò của họ - có thể là rủi ro cho kinh doanh.

Xem thêm: Dịch vụ pháp lý trong lĩnh vực lao động của Công ty Luật TNHH Everest

3- Những hành động cần thiết của lãnh đạo cấp cao của doanh nghiệp

Lãnh đạo doanh nghiệp cần xây dựng một cơ cấu nội bộ phù hợp để dẫn dắt chiến lược AI và đảm bảo thông điệp và nhận thức nhất quán trong toàn doanh nghiệp. Vì đây là một lĩnh vực đang phát triển nhanh chóng nên điều quan trọng hơn bao giờ hết là phải cập nhật các yêu cầu cũng như hướng dẫn về công nghệ và pháp lý/quy định. Các chính sách cần được xem xét và cập nhật thường xuyên và đào tạo nhân viên sẽ là chìa khóa.

Tiến hành xem xét và đánh giá rủi ro về cách AI hiện đang được sử dụng trong doanh nghiệp là bước quan trọng đầu tiên.

Tất cả các doanh nghiệp cần hiểu cách họ có thể sử dụng hệ thống AI. Cuối cùng, một số có thể không sử dụng AI trong hoạt động kinh doanh hàng ngày của họ, nhưng tất cả họ đều phải cân nhắc rằng nhân viên của họ có thể vẫn đang sử dụng các hệ thống AI có sẵn miễn phí như ChatGPT. Nhân viên cần được hướng dẫn về cách hệ thống AI có thể và không thể sử dụng.

Nếu không, doanh nghiệp có thể nhận thấy rằng thông tin IP và thông tin bí mật (của họ hoặc của đối tác kinh doanh của họ) đang được đưa vào các hệ thống này, dẫn đến mất quyền kiểm soát và có thể vi phạm giấy phép, thỏa thuận bảo mật và các nghĩa vụ khác. Ngoài ra còn có nguy cơ phụ thuộc vào kết quả đầu ra không chính xác và/hoặc có thể bị ảnh hưởng bởi sự thiên vị hoặc phân biệt đối xử cố hữu. Đây là nơi chính sách nhân viên phát huy tác dụng.

Một tiêu chuẩn ISO AI mới đã được xuất bản gần đây (ISO 42001) có phạm vi và mục đích tương tự như tiêu chuẩn ISO 27001 nổi tiếng về phương pháp thực hành tốt nhất trong quản lý thông tin. Các doanh nghiệp có thể muốn cân nhắc việc áp dụng tiêu chuẩn này khi thực hiện các chính sách và khuôn khổ quản trị của mình.

Cân nhắc xem, có nên lưu giữ nhật ký về việc sử dụng hệ thống AI cho các mục đích cụ thể hay không để bạn có hồ sơ phục vụ mục đích quản trị. Tổng quát hơn, việc ghi lại các bước đã được thực hiện để xác định và giảm thiểu rủi ro cũng như lý do đằng sau các quyết định được đưa ra có thể là yêu cầu pháp lý và/hoặc quy định (và là thông lệ kinh doanh hợp lý, trong mọi trường hợp).

Xem thêm: Dịch vụ pháp lý trong lĩnh vực đầu tư của Công ty Luật TNHH Everest

4- Luật sư nội bộ cân nhắc các biện pháp bảo vệ khi ký hợp đồng liên quan đến AI

Ký hợp đồng cho một hệ thống AI mới cũng giống như ký hợp đồng cho bất kỳ giải pháp công nghệ thông tin mới nào. Tất cả những cân nhắc thông thường xung quanh phạm vi giấy phép sử dụng hệ thống của bạn cũng như các khoản bồi thường và phân bổ trách nhiệm pháp lý thích hợp đều được áp dụng. Nhưng có một số điểm bổ sung bạn sẽ cần phải suy nghĩ:

Bảo vệ dữ liệu - nếu hệ thống sẽ xử lý bất kỳ dữ liệu cá nhân nào thì ưu tiên hàng đầu là vạch ra cách doanh nghiệp sẽ tuân thủ các nghĩa vụ bảo vệ dữ liệu của mình. Có thể cần phải thực hiện đánh giá tác động bảo vệ dữ liệu (DPIA). Bạn sẽ cần phải suy nghĩ về việc cập nhật thông báo về quyền riêng tư nếu hệ thống thu thập dữ liệu cá nhân cho các mục đích mới và được xử lý theo những cách khác nhau

Xem xét liệu nhà cung cấp bên thứ ba AI có phải là người kiểm soát hoặc xử lý dữ liệu cho mục đích luật bảo vệ dữ liệu hay không. Thông thường, liên quan đến các giải pháp công nghệ thông tin, đó là bộ điều khiển tiêu chuẩn cho mối quan hệ giữa bộ xử lý - nhưng sự phức tạp trong cách

Hệ thống AI được đào tạo và cập nhật có nghĩa là điều này có thể cần được phân tích kỹ lưỡng hơn.

[a] Tài sản trí tuệ và tính bảo mật

Bạn sẽ muốn được yên tâm rằng dữ liệu đầu vào mà hệ thống AI đã được đào tạo không lạm dụng thông tin bí mật hoặc bí mật thương mại của người khác hoặc vi phạm quyền sở hữu trí tuệ của họ và các quy trình được sử dụng để phát triển hệ thống này phù hợp về mặt pháp lý và đạo đức. Tuy nhiên, rõ ràng là do không chắc chắn về hành vi vi phạm sở hữu trí tuệ liên quan đến dữ liệu đào tạo, nhiều nhà cung cấp hệ thống AI sẽ miễn cưỡng trong việc đưa ra biện pháp bảo vệ này ở giai đoạn này.

[b] Ngừng sử dụng dữ liệu nội bộ để đào tạo mô hình

Bởi những lý do rõ ràng, điều quan trọng là phải đảm bảo rằng hệ thống AI không được đào tạo về bất kỳ dữ liệu nào do doanh nghiệp của bạn hoặc nhà cung cấp của nó cung cấp. Việc giữ dữ liệu của bạn trong tay và không lọt vào quá trình học tập của AI sẽ bảo vệ tính bảo mật cho cả doanh nghiệp của bạn và những người bạn làm việc cùng.

[c] Ai sở hữu dữ liệu

Chúng tôi đã thảo luận về những thách thức pháp lý hiện tại xung quanh quyền sở hữu đầu ra. Điều quan trọng là giữa bạn và nhà cung cấp, hợp đồng của bạn phải rõ ràng về việc ai có quyền đối với sản phẩm và mỗi bên có thể làm gì với sản phẩm đó.

[d] Bảo trì mô hình

Hệ thống AI cần được cập nhật và đào tạo về dữ liệu cập nhật. Hợp đồng cần phải nêu rõ cách thức đạt được điều này và ai sẽ là người đứng đầu trong vấn đề quan trọng này. Đây có thể là một dịch vụ hỗ trợ bổ sung trong một số hợp đồng.

Xem thêm: Dịch vụ pháp lý về nhượng quyền thương mại của Công ty Luật TNHH Everest

5- Những điểm chính mà chính sách nhân viên AI nên đề cập

Sẽ cần có các chính sách và hướng dẫn khác nhau đối với hệ thống AI có sẵn công khai như ChatGPT từ phiên bản doanh nghiệp do doanh nghiệp ủy quyền.

Không phải tất cả các doanh nghiệp đều cho phép sử dụng các hệ thống AI có sẵn công khai, nhưng những doanh nghiệp cần phải rõ ràng những gì có thể và không thể làm được với chúng. Như đã thảo luận, thông tin bí mật và IP không nên được nhập vào hệ thống AI có sẵn công khai và nhân viên cần hiểu rằng: những hệ thống này không phải lúc nào cũng chính xác. Cần phải thận trọng cả về các yếu tố gợi ý được sử dụng để tạo ra kết quả đầu ra cũng như mức độ tin cậy vào kết quả đầu ra đó.

Một doanh nghiệp triển khai hệ thống AI dành cho doanh nghiệp nên phát triển các hướng dẫn cụ thể dựa trên khả năng của nó và cách doanh nghiệp dự định sử dụng nó. Thông thường, khi doanh nghiệp triển khai một hệ thống phần mềm mới, việc sử dụng nó sẽ bị giới hạn ở chức năng của nó. Các hệ thống AI có thể khác nhau ở chỗ cách sử dụng của chúng có thể rộng rãi và đa dạng, một số trong đó có thể có rủi ro thấp và một số khác có thể có rủi ro cao. Tùy thuộc vào loại hệ thống bạn triển khai, bạn cần phải hiểu rõ nó có thể được sử dụng cho những nhiệm vụ gì.

Các lĩnh vực khác cần đề cập bao gồm tóm tắt về lợi ích và rủi ro, hậu quả của việc không tuân thủ chính sách, chi tiết về đào tạo hiện có và hỗ trợ khác, sử dụng hệ thống AI trên thiết bị cá nhân và giám sát.

Xem thêm: Dịch vụ pháp lý trong lĩnh vực sở hữu trí tuệ của Công ty Luật TNHH Everest

6- Khuyến nghị của Công ty Luật TNHH Everest

[a] Bài viết Các vấn đề pháp lý về AI mà đội ngũ pháp lý nội bộ cần lưu ý được chuyên gia của Công ty Luật TNHH Everest thực hiện nhằm mục đích nghiên cứu khoa học hoặc phổ biến kiến thức pháp luật, hoàn toàn không nhằm mục đích thương mại.

[b] Bài viết Các vấn đề pháp lý về AI mà đội ngũ pháp lý nội bộ cần lưu ý có sử dụng những kiến thức hoặc ý kiến của các chuyên gia được trích dẫn từ nguồn đáng tin cậy. Tại thời điểm trích dẫn những nội dung này, chúng tôi đồng ý với quan điểm của tác giả. Tuy nhiên, quý vị chỉ nên coi đây là những thông tin tham khảo, bởi nó có thể chỉ là quan điểm cá nhân người viết. 

[c] Trường hợp cần giải đáp thắc mắc về vấn đề có liên quan, hoặc cần ý kiến pháp lý, hoặc thuê luật sư tư vấn cho vụ việc cụ thể, Quý vị vui lòng liên hệ với luật sư, chuyên gia của Công ty Luật TNHH Everest qua Tổng đài tư vấn pháp luật: (024) 66 527 527, E-mail: info@everest.org.vn.

0 bình luận, đánh giá về Các vấn đề pháp lý về AI mà đội ngũ pháp lý nội bộ cần lưu ý

TVQuản trị viênQuản trị viên

Xin chào quý khách. Quý khách hãy để lại bình luận, chúng tôi sẽ phản hồi sớm

Trả lời.
Thông tin người gửi
Bình luận
Nhấn vào đây để đánh giá
Thông tin người gửi
Tổng đài tư vấn: 024-66 527 527
Giờ làm việc: Thứ 2 - Thứ 7: 8h30 - 18h00
1.17595 sec| 1015.305 kb