Tác giả: Stephanie Kirmer
Tới Dữ liệu Khoa học
Luật AI của Liên minh châu Âu vừa được Quốc hội châu Âu thông qua. Bạn có thể nghĩ rằng, “Tôi không ở trong Liên minh châu Âu, thì sao,” nhưng tin tôi, điều này thực sự quan trọng hơn đối với các nhà khoa học dữ liệu và cá nhân trên khắp thế giới hơn bạn nghĩ. Luật AI của Liên minh châu Âu là một bước đi quan trọng để quy định và quản lý việc sử dụng một số mô hình học máy cụ thể trong Liên minh châu Âu hoặc ảnh hưởng đến công dân Liên minh châu Âu, và nó chứa đựng một số quy tắc nghiêm ngặt và hình phạt nghiêm trọng đối với vi phạm.
Luật này đã gây ra nhiều cuộc thảo luận về rủi ro, và điều này có nghĩa là rủi ro đối với sức khỏe, an toàn và quyền cơ bản của công dân Liên minh châu Âu. Điều này không chỉ là về rủi ro của một loại hình apocalypses trí tuệ nhân tạo lý thuyết nào đó, mà là về rủi ro hàng ngày mà cuộc sống thực của những người thật bị tổn thương một cách nào đó bởi mô hình bạn đang xây dựng hoặc sản phẩm bạn đang bán. Nếu bạn quen thuộc với nhiều cuộc tranh luận về đạo đức của trí tuệ nhân tạo hiện nay, điều này nên quen thuộc với bạn. Sự phân biệt và vi phạm quyền của con người, cũng như nguy cơ làm tổn thương đến sức khỏe và an toàn của con người, là những vấn đề nghiêm trọng đang đối mặt với dòng sản phẩm và công ty trí tuệ nhân tạo hiện nay, và đây là nỗ lực đầu tiên của Liên minh châu Âu để bảo vệ con người.
Định nghĩa về Trí tuệ Nhân tạo (AI)
Những độc giả thường xuyên biết rằng tôi luôn muốn “AI” được định nghĩa rõ ràng và tôi luôn bực mình khi nó quá mơ hồ. Trong trường hợp này, Luật định nghĩa “AI” như sau:
Một hệ thống máy dựa trên máy tính được thiết kế để hoạt động với các mức độ tự động khác nhau có thể biểu hiện tính linh hoạt sau khi triển khai và, cho mục tiêu rõ ràng hoặc ngụ ý, suy luận từ thông tin đầu vào mà nó nhận được, cách tạo ra các đầu ra như dự đoán, nội dung, gợi ý hoặc quyết định có thể ảnh hưởng đến môi trường vật lý hoặc ảo.
Vậy, điều này thực sự có ý nghĩa gì? Theo quan điểm của tôi, các mô hình học máy tạo ra đầu ra được sử dụng để ảnh hưởng đến thế giới (đặc biệt là điều kiện vật lý hoặc số của con người) sẽ thuộc phạm vi định nghĩa này. Nó không cần phải thích ứng trực tiếp hoặc tái đào tạo tự động, tuy nhiên nếu nó làm điều đó thì cũng được bao gồm.
Nhưng nếu bạn đang xây dựng các mô hình học máy được sử dụng để làm những việc như…
- quyết định về mức độ rủi ro của con người, như rủi ro tín dụng, rủi ro vi phạm quy tắc hoặc luật pháp, v.v.
- xác định nội dung mà con người được hiển thị trực tuyến trong dòng thời gian, hoặc trong quảng cáo
- phân biệt giá hiển thị cho các nhóm người khác nhau cho cùng một sản phẩm
- gợi ý liệu liệu pháp điều trị, chăm sóc, hoặc dịch vụ tốt nhất cho con người
- gợi ý liệu con người nên thực hiện các hành động cụ thể hay không
Tất cả những điều này sẽ được bao gồm trong luật này, nếu mô hình của bạn ảnh hưởng đến bất kỳ ai là công dân của Liên minh châu Âu — và đó chỉ là một số ví dụ.
Phân loại Ứng dụng Trí tuệ Nhân tạo
Tuy không phải tất cả AI đều giống nhau, và luật cũng nhận thức điều đó. Một số ứng dụng của AI sẽ bị cấm hoàn toàn, và các ứng dụng khác sẽ phải tuân thủ các yêu cầu về kiểm tra và minh bạch cao hơn.
Hệ thống Trí tuệ Nhân tạo Gây Rủi ro Không Chấp Nhận
Những loại hệ thống này được gọi là “Hệ thống Trí tuệ Nhân tạo Gây Rủi ro Không Chấp Nhận” và đơn giản là không được phép. Phần này của luật sẽ có hiệu lực đầu tiên, sau sáu tháng từ bây giờ.
- Sử dụng các kỹ thuật thao túng hành vi hoặc kỹ thuật lừa dối để thuyết phục người ta làm những điều mà họ không thể làm nếu không có sự chi phối.
- Nhắm mục tiêu vào những người dựa trên các yếu tố như tuổi tác hoặc khuyết tật để thay đổi hành vi của họ và/hoặc lợi dụng họ.
- Các hệ thống phân loại sinh trắc học, để cố gắng phân loại người theo các đặc điểm cực kỳ nhạy cảm.
- Đánh giá đặc điểm cá nhân dẫn đến việc ghi điểm xã hội hoặc xử lý khác biệt.
- Nhận dạng sinh trắc học “thời gian thực” cho các cơ quan thực thi pháp luật ngoài một số trường hợp sử dụng cụ thể (tìm kiếm mục tiêu cho những người mất tích hoặc bị bắt cóc, nguy cơ đe dọa đến tính mạng hoặc sự an toàn/khủng bố, hoặc truy cứu một tội phạm cụ thể).
- Dự đoán về việc thực hiện công việc pháp lý trong tương lai (predictive policing).
- Quét khuôn mặt/sinh trắc học rộng lớn hoặc thu thập dữ liệu một cách tổng quát.
- Hệ thống suy diễn cảm xúc trong giáo dục hoặc công việc mà không có mục đích y tế hoặc an toàn.
Điều này có nghĩa là, ví dụ, bạn không thể xây dựng (hoặc bị ép buộc phải nộp) một bộ lọc được dùng để xác định liệu bạn có “hạnh phúc” đủ để có được một công việc bán lẻ hay không. Nhận dạng khuôn mặt đang bị hạn chế chỉ cho những tình huống lựa chọn, được nhắm mục tiêu cụ thể. (Clearview AI chắc chắn là một ví dụ điển hình về điều này.) Công việc dự đoán về việc phục vụ pháp luật, một cái gì đó tôi từng làm trong giới học thuật vào đầu sự nghiệp của mình và giờ tôi rất hối hận về điều đó, đã bị loại.
Điểm về “phân loại sinh trắc học” đề cập đến các mô hình phân nhóm người sử dụng các đặc điểm nguy hiểm hoặc nhạy cảm như niềm tin chính trị, tôn giáo, triết học, hướng tình dục, chủng tộc, và những điều tương tự. Việc sử dụng trí tuệ nhân tạo để cố gắng gán nhãn cho người dân theo các hạng mục này được cấm hiểu rõ dưới luật pháp.
Hệ thống Trí tuệ Nhân tạo Gây Rủi ro Cao
Danh sách này, ngược lại, bao gồm các hệ thống không bị cấm, nhưng được kiểm tra nghiêm ngặt. Có các quy định và quy tắc cụ thể sẽ áp dụng cho tất cả các hệ thống này, được mô tả dưới đây.
- Trí tuệ Nhân tạo trong các thiết bị y tế
- Trí tuệ Nhân tạo trong các phương tiện di chuyển
- Trí tuệ Nhân tạo trong các hệ thống nhận dạng cảm xúc
- Trí tuệ Nhân tạo trong lĩnh vực thi hành pháp luật
Điều này loại trừ những trường hợp sử dụng cụ thể đã được mô tả ở trên. Ví dụ, hệ thống nhận dạng cảm xúc có thể được phép, nhưng không trong môi trường làm việc hoặc trong giáo dục. Trí tuệ Nhân tạo trong các thiết bị y tế và trong các phương tiện di chuyển được nhắc đến là có rủi ro hoặc tiềm năng rủi ro nghiêm trọng đối với sức khỏe và an toàn, đúng như vậy, và cần được tiếp cận chỉ với sự cẩn trọng cần thiết.
Các Loại Hệ thống Trí tuệ Nhân tạo Còn lại
Hai danh mục khác mà vẫn tồn tại là “Các Hệ thống Trí tuệ Nhân tạo Rủi ro Thấp” và “Các Mô hình Trí tuệ Nhân tạo Mục đích Tổng quát”. Các mô hình Mục đích Tổng quát là những thứ như GPT-4, hoặc Claude, hoặc Gemini — các hệ thống có các trường hợp sử dụng rất rộng lớn và thường được sử dụng trong các sản phẩm hậu trường khác. Vì vậy, GPT-4 mà một mình không nằm trong danh mục rủi ro cao hoặc bị cấm, nhưng các cách bạn có thể nhúng chúng để sử dụng bị hạn chế bởi các quy tắc khác được mô tả ở đây. Bạn không thể sử dụng GPT-4 cho việc dự đoán hành vi phạm tội, nhưng GPT-4 có thể được sử dụng cho các trường hợp rủi ro thấp.
Sự Minh bạch và Kiểm tra
Vậy, hãy nói bạn đang làm việc trên một ứng dụng Trí tuệ Nhân tạo rủi ro cao, và bạn muốn tuân thủ tất cả các quy tắc và nhận được sự chấp thuận để thực hiện nó. Bắt đầu từ đâu?
Đối với các Hệ thống Trí tuệ Nhân tạo Rủi ro Cao, bạn sẽ phải chịu trách nhiệm về các điểm sau:
- Duy trì và đảm bảo chất lượng dữ liệu: Dữ liệu bạn sử dụng trong mô hình là trách nhiệm của bạn, vì vậy bạn cần chăm sóc nó một cách cẩn thận.
- Cung cấp tài liệu và tính truy xuất: Dữ liệu của bạn từ đâu tới, và bạn có thể chứng minh được không? Bạn có thể trình bày công việc của mình về bất kỳ thay đổi hoặc chỉnh sửa nào đã được thực hiện không?
- Cung cấp min rõ: Nếu công chúng đang sử dụng mô hình của bạn (hãy nghĩ đến một trợ lý ảo) hoặc một mô hình là một phần của sản phẩm của bạn, bạn phải thông báo cho người dùng biết điều này. Không giả mạo rằng mô hình chỉ là một người thật trên dịch vụ khách hàng hoặc hệ thống trò chuyện. Điều này thực sự sẽ áp dụng cho tất cả các mô hình, kể cả những mô hình rủi ro thấp.
- Sử dụng giám sát của con người: Chỉ nói “mô hình nói rằng…” không đủ. Con người sẽ chịu trách nhiệm cho những kết quả của mô hình và quan trọng hơn, cách kết quả được sử dụng.
- Bảo vệ an ninh mạng và tính ổn định: Bạn cần chú ý để làm cho mô hình của bạn an toàn trước các cuộc tấn công mạng, vi phạm bảo mật và vi phạm quyền riêng tư không cố ý. Việc mô hình của bạn gặp sự cố do lỗi mã hoặc bị tấn công qua các lỗ hổng mà bạn không sửa chữa sẽ là trách nhiệm của bạn.
- Tuân thủ các đánh giá tác động: Nếu bạn đang xây dựng một mô hình rủi ro cao, bạn cần thực hiện một đánh giá nghiêm ngặt về tác động có thể có (ngay cả khi bạn không có ý định) đối với sức khỏe, an toàn và quyền của người dùng hoặc công chúng.
- Đối với các cơ quan công cộng, đăng ký trong cơ sở dữ liệu công cộng của Liên minh châu Âu: Hồ sơ này đang được tạo ra như một phần của luật mới, và các yêu cầu đăng ký sẽ áp dụng cho “các cơ quan, cơ quan hoặc tổ chức” công cộng — vì vậy chủ yếu là các cơ quan chính phủ, không phải doanh nghiệp tư nhân.
Kiểm Tra
Một điều khác mà luật lưu ý là nếu bạn đang làm việc để xây dựng một giải pháp Trí tuệ Nhân tạo rủi ro cao, bạn cần có một cách để kiểm tra nó để đảm bảo bạn đang tuân thủ các hướng dẫn, vì vậy có các khoản cho phép kiểm tra trên những người thông thường sau khi bạn đã có sự đồng ý được thông báo. Những người từ các ngành khoa xã hội sẽ cảm thấy khá quen thuộc với điều này — đó là khá giống như việc nhận được sự chấp thuận của ủy ban đánh giá cơ sở để tiến hành một nghiên cứu.
Hiệu Quả
Luật này có một cách triển khai theo giai đoạn:
- Sau 6 tháng, các hạn chế về Trí tuệ Nhân tạo gây rủi ro không chấp nhận sẽ có hiệu lực
- Sau 12 tháng, quản lý Trí tuệ Nhân tạo mục đích tổng quát sẽ có hiệu lực
- Sau 24 tháng, tất cả các quy định còn lại trong luật sẽ có hiệu lực
Lưu ý: Luật không bao gồm các hoạt động cá nhân, không chuyên nghiệp, trừ khi chúng rơi vào các loại bị cấm được liệt kê trước đó, vì vậy dự án nhỏ của bạn trên mạng mở không có khả năng là một rủi ro.
Hình Phạt
Vậy, điều gì sẽ xảy ra nếu công ty của bạn không tuân thủ luật pháp, và một công dân Liên minh châu Âu bị ảnh hưởng? Có các hình phạt rõ ràng trong luật.
Nếu bạn thực hiện một trong các dạng Trí tuệ Nhân tạo bị cấm được mô tả ở trên:
- Phạt lên đến 35 triệu Euro hoặc, nếu bạn là một doanh nghiệp, 7% doanh thu toàn cầu của bạn từ năm trước (số nào cao hơn) Các vi phạm khác không được bao gồm trong danh sách bị cấm:
- Phạt lên đến 15 triệu Euro hoặc, nếu bạn là một doanh nghiệp, 3% doanh thu toàn cầu của bạn từ năm trước (số nào cao hơn) Nói dối với các cơ quan về bất kỳ điều này:
- Phạt lên đến 7,5 triệu Euro hoặc, nếu bạn là một doanh nghiệp, 1% doanh thu toàn cầu của bạn từ năm trước (số nào cao hơn)
Lưu ý: Đối với các doanh nghiệp vừa và nhỏ, bao gồm cả các startup, thì số tiền phạt là số nào thấp hơn, không phải cao hơn.
Data Scientists nên làm gì?
Nếu bạn đang xây dựng các mô hình và sản phẩm sử dụng Trí tuệ Nhân tạo theo định nghĩa trong Luật, bạn nên trước hết làm quen với luật và những yêu cầu mà nó đang yêu cầu. Ngay cả khi bạn không ảnh hưởng đến công dân Liên minh châu Âu ngày hôm nay, điều này có thể gây ra tác động lớn đối với lĩnh vực và bạn nên nhận thức về nó.
Tiếp theo, hãy chú ý đến các vi phạm tiềm ẩn trong doanh nghiệp hoặc tổ chức của bạn. Bạn có một khoảng thời gian để tìm ra và khắc phục các vấn đề, nhưng các dạng Trí tuệ Nhân tạo bị cấm sẽ có hiệu lực trước tiên. Ở các doanh nghiệp lớn, có khả năng bạn sẽ có một nhóm pháp lý, nhưng đừng cho rằng họ sẽ lo tất cả những việc này cho bạn. Bạn là chuyên gia về học máy, và vì vậy bạn là một phần quan trọng của cách doanh nghiệp có thể phát hiện và tránh vi phạm. Bạn có thể sử dụng công cụ Kiểm tra Tuân thủ trên trang web Luật AI của Liên minh châu Âu để giúp bạn.
Có nhiều dạng Trí tuệ Nhân tạo đang được sử dụng ngày nay trong các doanh nghiệp và tổ chức mà không được phép theo luật mới này. Tôi đã đề cập đến Clearview AI ở trên, cũng như việc dự đoán hành vi phạm tội. Thử nghiệm cảm xúc cũng là một thứ rất thực tế mà mọi người phải trải qua trong quá trình phỏng vấn công việc (tôi mời bạn tìm kiếm “thử nghiệm cảm xúc cho công việc” và xem sự tràn ngập của các công ty cung cấp dịch vụ này), cũng như việc thu thập khuôn mặt hoặc dữ liệu sinh trắc học với số lượng lớn. Việc theo dõi và xem cách thực thi diễn ra sau khi luật có hiệu lực đầy đủ sẽ là rất thú vị và quan trọng đối với tất cả chúng ta.