Tác giả: Chris Hetner
ngày 5 tháng 9 năm 2023
Có thể nói rằng Trí tuệ Nhân tạo hiện đã thu hút sự chú ý của tất cả các phòng họp ban quản trị và người lãnh đạo kinh doanh trên toàn quốc. Ngày xưa, đó là một công nghệ độc đáo khó sử dụng, chưa kể việc thạo nó, nhưng cửa vào Trí tuệ Nhân tạo Tạo Ra giờ đã mở rộng nhờ vào các ứng dụng như ChatGPT hoặc DALL-E. Chúng ta đang chứng kiến sự hòa nhập toàn diện của Trí tuệ Nhân tạo Tạo Ra trong tất cả các ngành công nghiệp và mọi lứa tuổi khi nhân viên tìm cách tận dụng công nghệ này cho lợi ích của họ.
Một cuộc khảo sát gần đây cho thấy 29% người thuộc thế hệ Gen Z, 28% thuộc thế hệ Gen X và 27% thuộc thế hệ Millennial hiện đang sử dụng các công cụ Trí tuệ Nhân tạo Tạo Ra trong công việc hàng ngày của họ. Vào năm 2022, tỷ lệ sử dụng Trí tuệ Nhân tạo Tạo Ra theo quy mô lớn là 23%, và số liệu này dự kiến sẽ tăng gấp đôi lên 46% vào năm 2025.
Trí tuệ Nhân tạo Tạo Ra là một công nghệ mới mẻ nhưng đang tiến triển rất nhanh, sử dụng các mô hình được đào tạo để tạo ra nội dung gốc trong nhiều hình thức khác nhau, từ văn bản và hình ảnh đến video, âm nhạc và thậm chí là mã nguồn phần mềm. Sử dụng các mô hình ngôn ngữ lớn (LLMs) và các bộ dữ liệu khổng lồ, công nghệ này có thể tạo ra ngay lập tức nội dung duy nhất gần như không thể phân biệt được với công việc của con người và trong nhiều trường hợp còn chính xác và hấp dẫn hơn.
Tuy nhiên, trong khi doanh nghiệp đang ngày càng sử dụng Trí tuệ Nhân tạo Tạo Ra để hỗ trợ hoạt động hàng ngày của họ, và nhân viên đã nhanh chóng tiếp thu, tốc độ áp dụng và thiếu sự quy định đã đặt ra những lo ngại đáng kể về an ninh mạng và tuân thủ quy định.
Theo một cuộc khảo sát trong cộng đồng dân cư chung, hơn 80% người dân lo ngại về các rủi ro về an ninh mà ChatGPT và Trí tuệ Nhân tạo Tạo Ra mang lại, và 52% người tham gia cuộc khảo sát muốn tạm dừng phát triển Trí tuệ Nhân tạo Tạo Ra để quy định có thể bắt kịp. Tình cảm rộng hơn này cũng đã được doanh nghiệp tự thể hiện, với 65% người lãnh đạo Công nghệ thông tin cấp cao không sẵn lòng chấp nhận việc truy cập Trí tuệ Nhân tạo Tạo Ra mà không gây cản trở do lo ngại về an ninh.
Trí tuệ Nhân tạo Tạo Ra vẫn là một điều chưa biết chắc chắn
Các công cụ Trí tuệ Nhân tạo Tạo Ra dựa vào dữ liệu. Các mô hình, như những mô hình được sử dụng bởi ChatGPT và DALL-E, được đào tạo dựa trên dữ liệu từ bên ngoài hoặc dữ liệu công khai trên internet, nhưng để tận dụng tối đa các công cụ này, người dùng cần chia sẻ dữ liệu cụ thể rất cụ thể. Thường xuyên, khi sử dụng các công cụ như ChatGPT, người dùng sẽ chia sẻ thông tin kinh doanh nhạy cảm để có được kết quả chính xác và toàn diện. Điều này tạo ra nhiều điều chưa biết đối với các doanh nghiệp. Nguy cơ truy cập không được ủy quyền hoặc tiết lộ không cố ý thông tin nhạy cảm được “đóng vào” khi sử dụng các công cụ Trí tuệ Nhân tạo Tạo Ra công khai.
Nguy cơ này không phải là điều tồi tệ trong bản thân nó. Vấn đề là những rủi ro này vẫn chưa được khám phá đầy đủ. Cho đến nay, chưa có phân tích tác động thực sự đối với doanh nghiệp khi sử dụng các công cụ Trí tuệ Nhân tạo Tạo Ra có sẵn rộng rãi, và các khung pháp luật và quy định toàn cầu về việc sử dụng Trí tuệ Nhân tạo Tạo Ra vẫn chưa đạt đến bất kỳ mức độ chín muối nào.
Quá trình quy định vẫn đang tiến triển
Các cơ quan quản lý đã bắt đầu đánh giá các công cụ Trí tuệ Nhân tạo Tạo Ra liên quan đến quyền riêng tư, bảo mật dữ liệu và tính toàn vẹn của dữ liệu mà chúng tạo ra. Tuy nhiên, như thường thấy trong trường hợp của công nghệ mới nổi, hệ thống quy định để hỗ trợ và điều hành việc sử dụng nó đang chậm hơn một vài bước. Trong khi công nghệ đang được các công ty và nhân viên sử dụng rộng rãi, các khung pháp luật vẫn khá chậm chạp.
Điều này tạo ra một rủi ro rõ ràng và hiện tại đối với doanh nghiệp, nhưng hiện tại, nó không được coi là một vấn đề nghiêm trọng. Các nhà quản lý tự nhiên quan tâm đến việc các nền tảng này sẽ đem lại lợi ích kinh doanh cụ thể như cơ hội tự động hóa và phát triển, trong khi việc quản trị rủi ro đang đặt câu hỏi về cách công nghệ này sẽ được quy định, những hệ quả pháp lý có thể xảy ra, và cách dữ liệu của công ty có thể bị đe dọa hoặc lọt lộ ra bên ngoài. Hiện tại, rất nhiều công cụ này đều có sẵn miễn phí cho bất kỳ người dùng nào có trình duyệt và kết nối internet, vì vậy trong thời gian chờ đợi ban hành các quy định an toàn an ninh thông tin, doanh nghiệp cần bắt đầu suy nghĩ rất cẩn thận về “quy tắc nội bộ” của riêng họ về việc sử dụng Trí tuệ Nhân tạo.
Vai trò của Giám đốc An ninh Thông tin (CISO) trong việc quản lý Trí tuệ Nhân tạo
Khi các khung pháp luật vẫn còn thiếu, Giám đốc An ninh Thông tin (CISO) phải nắm vững và đóng một vai trò quan trọng trong việc quản lý việc sử dụng Trí tuệ Nhân tạo Tạo Ra trong tổ chức của họ. Họ cần hiểu rõ ai đang sử dụng công nghệ này và vì mục đích gì, cách bảo vệ thông tin doanh nghiệp khi nhân viên tương tác với các công cụ Trí tuệ Nhân tạo Tạo Ra, cách quản lý các rủi ro về an ninh của công nghệ cơ bản và cách cân nhắc sự đánh đổi về an ninh với giá trị mà công nghệ đem lại.
Điều này không phải là một nhiệm vụ dễ dàng. Việc đánh giá rủi ro chi tiết cần được tiến hành để xác định cả kết quả tiêu cực và tích cực khi triển khai công nghệ này trong tư cách chính thức và khi cho phép nhân viên sử dụng các công cụ Trí tuệ Nhân tạo Tạo Ra có sẵn mà không có sự giám sát. Với tính chất dễ tiếp cận của các ứng dụng Trí tuệ Nhân tạo Tạo Ra, CISO cần suy nghĩ một cách cẩn thận về chính sách công ty liên quan đến việc sử dụng chúng. Liệu nhân viên có tự do sử dụng các công cụ như ChatGPT hoặc DALL-E để làm cho công việc của họ dễ dàng hơn không? Hoặc liệu truy cập vào những công cụ này có nên bị hạn chế hoặc được kiểm duyệt theo cách nào đó, với các hướng dẫn và khung pháp luật nội bộ về cách sử dụng chúng? Một vấn đề rõ ràng là ngay cả khi các hướng dẫn sử dụng nội bộ được tạo ra, do tốc độ phát triển của công nghệ, chúng có thể trở nên lạc hậu khiến chúng đã cũ khi hoàn thiện.
Một cách để giải quyết vấn đề này có thể thực tế là dời sự tập trung ra khỏi các công cụ Trí tuệ Nhân tạo, và thay vào đó tập trung vào việc phân loại và bảo vệ dữ liệu. Phân loại dữ liệu luôn luôn là một khía cạnh quan trọng trong việc bảo vệ dữ liệu khỏi việc xâm nhập hoặc rò rỉ, và điều này cũng đúng trong trường hợp ứng dụng công cụ AI. Nó bao gồm việc gán một mức độ nhạy cảm cho dữ liệu, xác định cách xử lý tương ứng. Liệu có nên mã hóa nó không? Có nên chặn truy cập không cho phép tiếp cận? Có nên thông báo khi xuất hiện dữ liệu không? Ai được phép truy cập và được phép chia sẻ ở đâu? Bằng cách tập trung vào luồng dữ liệu, thay vì công cụ, CISO và bộ phận an ninh mạng sẽ có cơ hội giảm bớt rủi ro được nhận diện nêu trên.
Giống như tất cả các công nghệ mới nổi khác, Trí tuệ Nhân tạo vừa là cơ hội và cũng tiềm ẩn rủi ro đối với doanh nghiệp. Trong khi mang lại những khả năng mới thú vị như tự động hóa và sáng tạo khái niệm, nó cũng đưa ra một số thách thức phức tạp về bảo mật dữ liệu và bảo vệ tài sản trí tuệ của tổ chức. Trong khi các khung pháp luật và quy định vẫn đang được thảo luận, doanh nghiệp phải tự thân đảm trách để điều chỉnh giữa cơ hội và rủi ro, triển khai các điều khiển chính sách của riêng họ phản ánh biện pháp bảo mật tổng thể. Trí tuệ Nhân tạo sẽ đẩy doanh nghiệp tiến về phía trước, nhưng chúng ta cần phải cẩn thận để vẫn đảm bảo kiểm soát tốt mọi rủi ro khả dĩ.