Tác giả: Bởi Zac Amos
Trước đây, AI chatbot chỉ được coi là các chương trình nói tự động, nhưng hiện nay chúng có thể học và duy trì các cuộc trò chuyện gần như không thể phân biệt được với con người. Tuy nhiên, nguy cơ từ AI chatbot cũng đa dạng không kém.
Những nguy cơ này có thể từ việc người dùng lạm dụng chúng đến các rủi ro về an ninh mạng thực tế. Khi con người ngày càng phụ thuộc vào công nghệ AI, việc hiểu rõ các hậu quả tiềm năng khi sử dụng những chương trình này là điều quan trọng. Nhưng liệu bot có gây nguy hiểm không?
1. Thiên Vị và Phân Biệt Đối Xử
Một trong những nguy cơ lớn nhất từ AI chatbot là xu hướng của chúng đối với các thiên vị có hại. Bởi vì AI tạo ra các liên kết giữa các điểm dữ liệu mà con người thường bỏ sót, nó có thể phát hiện ra các thiên vị tinh sub và ngầm trong dữ liệu đào tạo của nó để tự học cách phân biệt đối xử. Kết quả, chatbot có thể nhanh chóng học cách phun ra nội dung có tính phân biệt chủng tộc, giới tính hoặc có sự kỳ thị khác, ngay cả khi không có điều gì mạnh mẽ như vậy trong dữ liệu đào tạo của nó.
Một ví dụ điển hình là trường hợp của bot tuyển dụng của Amazon. Năm 2018, đã xuất hiện thông tin rằng Amazon đã từ bỏ một dự án AI dùng để đánh giá trước hồ sơ ứng viên vì nó đang xử phạt đơn xin việc từ phía phụ nữ. Bởi vì hầu hết các hồ sơ mà bot được đào tạo dựa trên là của nam giới, nó tự học rằng ứng viên nam là lựa chọn ưu tiên, ngay cả khi dữ liệu đào tạo không nói rõ điều đó.
Các chatbot sử dụng nội dung trên internet để tự học cách giao tiếp tự nhiên thường có xu hướng thể hiện các thiên vị cực kỳ nghiêm trọng hơn. Năm 2016, Microsoft đã ra mắt một chatbot mang tên Tay, nó đã học cách bắt chước các bài đăng trên mạng xã hội. Chỉ trong vài giờ, nó bắt đầu đăng nội dung cực kỳ xúc phạm, dẫn đến việc Microsoft tạm ngừng hoạt động tài khoản này không lâu sau đó.
Nếu các công ty không cẩn thận trong việc xây dựng và triển khai những bot này, họ có thể vô tình dẫn đến những tình huống tương tự. Chatbot có thể đối xử không tốt với khách hàng hoặc lan truyền nội dung thiên vị có hại mà chúng nên ngăn chặn.
2. Rủi Ro An Ninh Mạng
Nguy cơ từ công nghệ AI chatbot cũng có thể tạo ra mối đe dọa an ninh mạng trực tiếp hơn đối với người dân và doanh nghiệp. Một trong những dạng phổ biến nhất của cuộc tấn công mạng là các vụ lừa đảo và gian lận thông qua mạng (phishing và vishing). Đây là các cuộc tấn công mạng trong đó những kẻ tấn công mạng giả mạo các tổ chức đáng tin cậy như ngân hàng hoặc cơ quan chính phủ.
Các vụ lừa đảo thông qua mạng thường hoạt động qua email và tin nhắn văn bản – việc nhấp vào liên kết cho phép mã độc xâm nhập vào hệ thống máy tính. Một khi đã xâm nhập, mã độc này có thể thực hiện bất cứ điều gì, từ đánh cắp thông tin cá nhân đến giam giữ hệ thống máy tính để đòi tiền chuộc.
Tỷ lệ các cuộc tấn công lừa đảo thông qua mạng (phishing) đã không ngừng tăng trong thời kỳ và sau đại dịch COVID-19. Cơ quan An ninh Mạng và Hạ tầng Cơ sở Cybersecurity & Infrastructure Security Agency đã phát hiện 84% cá nhân đã trả lời các thông điệp lừa đảo bằng thông tin nhạy cảm hoặc nhấp vào liên kết.
Những kẻ lừa đảo sử dụng công nghệ AI chatbot để tự động tìm kiếm các nạn nhân, thuyết phục họ nhấp vào các liên kết và tiết lộ thông tin cá nhân. Chatbot được sử dụng bởi nhiều tổ chức tài chính – chẳng hạn như các ngân hàng – để tối ưu hóa trải nghiệm dịch vụ khách hàng.
Chatbot của những kẻ lừa đảo có thể bắt chước các lời nhắc tự động giống như những gì
3. Dữ liệu độc hại (Data Poisoning)
Tràn dữ liệu là một dạng tấn công mạng mới được tạo ra đặc biệt để tấn công trực tiếp vào trí tuệ nhân tạo. Công nghệ AI học từ các bộ dữ liệu và sử dụng thông tin đó để thực hiện các nhiệm vụ. Điều này đúng đối với tất cả các chương trình AI, không kể mục đích hoặc chức năng của chúng.
Đối với các AI chatbot, điều này có nghĩa là học cách đáp ứng nhiều câu hỏi có thể mà người dùng có thể đưa ra. Tuy nhiên, đây cũng là một trong những nguy cơ của AI.
Những bộ dữ liệu này thường là các công cụ và tài nguyên mã nguồn mở có sẵn cho bất kỳ ai. Mặc dù các công ty AI thường giữ bí mật gắt gao về nguồn dữ liệu của họ, những kẻ tấn công mạng có thể xác định các nguồn mà họ sử dụng và can thiệp vào dữ liệu.
Những kẻ tấn công mạng có thể tìm cách can thiệp vào các bộ dữ liệu được sử dụng để đào tạo các trí tuệ nhân tạo, cho phép họ kiểm soát quyết định và phản ứng của chúng. Trí tuệ nhân tạo sẽ sử dụng thông tin từ dữ liệu đã bị chỉnh sửa và thực hiện các hành động theo ý muốn của người tấn công.
Ví dụ, một trong những nguồn dữ liệu phổ biến nhất cho các bộ dữ liệu là các nguồn thông tin Wiki như Wikipedia. Mặc dù dữ liệu không phải là từ bài viết Wikipedia trực tiếp, nó được lấy từ các bản chụp dữ liệu tại những thời điểm cụ thể. Hacker có thể tìm cách chỉnh sửa dữ liệu để có lợi cho họ.
Trong trường hợp của các trí tuệ nhân tạo chatbot, hacker có thể làm hỏng các bộ dữ liệu được sử dụng để đào tạo chatbot làm việc cho các tổ chức y tế hoặc tài chính. Họ có thể can thiệp vào các chương trình chatbot để cung cấp thông tin sai lệch cho khách hàng, có thể dẫn họ nhấp vào liên kết chứa mã độc hoặc trang web giả mạo. Một khi trí tuệ nhân tạo bắt đầu sử dụng dữ liệu bị tràn độc, nó sẽ rất khó phát hiện và có thể dẫn đến một việc xâm nhập nghiêm trọng vào an ninh mạng mà không được phát hiện trong một thời gian dài.
Cách Xử Lý Những Nguy Cơ từ AI Chatbot
Những nguy cơ này là đáng lo ngại, nhưng chúng không có nghĩa là bot là một cách tự nhiên có hại. Thay vào đó, bạn nên tiếp cận chúng một cách thận trọng và xem xét những nguy cơ này khi xây dựng và sử dụng chatbot.
Chìa khóa để ngăn chặn thiên vị từ AI là tìm kiếm nó trong suốt quá trình đào tạo. Hãy chắc chắn đào tạo nó trên các bộ dữ liệu đa dạng và cụ thể lập trình nó để tránh xem xét các yếu tố như chủng tộc, giới tính hoặc tình dục trong quyết định của nó. Điều quan trọng là có một đội ngũ đa dạng các nhà khoa học dữ liệu để xem xét cách hoạt động bên trong của chatbot và đảm bảo rằng chúng không thể hiện bất kỳ sự thiên vị nào, dù là tinh sub.
Phương pháp phòng ngừa tốt nhất trước các cuộc tấn công lừa đảo thông qua mạng (phishing) là đào tạo. Đào tạo tất cả nhân viên để nhận biết các dấu hiệu phổ biến của các cuộc tấn công phishing để họ không bị mắc kẹt trong những cuộc tấn công này. Việc tạo sự nhận thức cho người tiêu dùng về vấn đề này cũng sẽ giúp ích.
Bạn có thể ngăn chặn tràn dữ liệu bằng cách hạn chế quyền truy cập vào dữ liệu đào tạo của chatbot. Chỉ những người cần truy cập vào dữ liệu này để làm công việc của họ một cách chính xác nên được cấp phép – một khái niệm gọi là nguyên tắc ít quyền (principle of least privilege). Sau khi áp dụng các hạn chế đó
Luôn Cảnh Giác Trước Nguy Cơ Từ Sự Phụ Thuộc vào Trí Tuệ Nhân Tạo
Trí tuệ nhân tạo là một công nghệ thực sự kỳ diệu với gần như không giới hạn các ứng dụng. Tuy nhiên, nguy cơ từ AI có thể mơ hồ. Liệu bot có gây nguy hiểm không? Không theo bản chất, nhưng các kẻ tấn công mạng có thể sử dụng chúng trong nhiều cách gây rối khác nhau. Quyền quyết định về ứng dụng của công nghệ mới này nằm trong tay người dùng.