Tác giả: Tiến sĩ Assad Abbas
ngày 7 tháng 6 năm 2024
Trí tuệ nhân tạo tạo sinh, một nhánh của Trí tuệ nhân tạo, đã nhanh chóng trở nên nổi bật nhờ khả năng đáng kinh ngạc trong việc tạo ra nhiều dạng nội dung khác nhau, bao gồm văn bản giống con người, hình ảnh chân thực và âm thanh, từ các tập dữ liệu khổng lồ. Các mô hình như GPT-3, DALL-E và Mạng Đối nghịch Tạo sinh (GAN) đã thể hiện khả năng vượt trội trong lĩnh vực này.
Một báo cáo của Deloitte nhấn mạnh tính chất hai mặt của Trí tuệ nhân tạo tạo sinh và nhấn mạnh sự cần thiết của việc cảnh giác chống lại Trí tuệ nhân tạo lừa đảo. Mặc dù những tiến bộ trong AI hỗ trợ ngăn chặn tội phạm, chúng cũng cung cấp sức mạnh cho những kẻ xấu. Dù có những ứng dụng hợp pháp, những công cụ mạnh mẽ này đang ngày càng bị các tội phạm mạng, kẻ lừa đảo và các tổ chức nhà nước khai thác, dẫn đến sự gia tăng các kế hoạch phức tạp và lừa đảo.
Sự trỗi dậy của Trí tuệ nhân tạo tạo sinh trong các hoạt động của tội phạm
Sự trỗi dậy của Trí tuệ nhân tạo tạo sinh đã dẫn đến sự gia tăng các hoạt động lừa đảo ảnh hưởng đến cả không gian mạng và cuộc sống hàng ngày. Phishing, một kỹ thuật lừa đảo nhằm khiến mọi người tiết lộ thông tin nhạy cảm, hiện nay đang sử dụng Trí tuệ nhân tạo tạo sinh để làm cho các email lừa đảo trở nên cực kỳ thuyết phục. Khi ChatGPT trở nên phổ biến hơn, các email phishing đã tăng lên, với những kẻ tội phạm sử dụng nó để tạo ra các tin nhắn cá nhân hóa trông như những giao tiếp hợp pháp.
Những email này, chẳng hạn như các cảnh báo giả mạo từ ngân hàng hoặc những lời mời chào hấp dẫn, lợi dụng tâm lý con người để lừa người nhận cung cấp dữ liệu nhạy cảm. Mặc dù OpenAI cấm sử dụng mô hình của họ vào mục đích bất hợp pháp, việc thực thi điều này không hề dễ dàng. Các câu lệnh vô hại có thể dễ dàng biến thành các âm mưu xấu, đòi hỏi cả người kiểm duyệt và các hệ thống tự động để phát hiện và ngăn chặn sự lạm dụng.
Tương tự, gian lận tài chính cũng gia tăng cùng với sự tiến bộ của AI. Trí tuệ nhân tạo tạo sinh thúc đẩy các trò lừa đảo, tạo ra nội dung lừa dối nhà đầu tư và thao túng tâm lý thị trường. Hãy tưởng tượng việc gặp một chatbot, dường như là con người nhưng lại được thiết kế chỉ để lừa dối. Trí tuệ nhân tạo tạo sinh vận hành những bot này, tương tác với người dùng trong các cuộc trò chuyện tưởng chừng như chân thật trong khi khai thác thông tin nhạy cảm. Các mô hình tạo sinh cũng tăng cường các cuộc tấn công kỹ thuật xã hội bằng cách tạo ra các tin nhắn cá nhân hóa nhằm lợi dụng lòng tin, sự cảm thông và tính cấp bách. Nạn nhân rơi vào bẫy yêu cầu tiền bạc, dữ liệu bí mật hoặc thông tin đăng nhập.
Doxxing, hành vi tiết lộ thông tin cá nhân về các cá nhân, là một lĩnh vực khác mà Trí tuệ nhân tạo tạo sinh hỗ trợ tội phạm. Dù là việc bóc trần những nhân vật ẩn danh trực tuyến hay tiết lộ chi tiết cá nhân, AI làm tăng tác động, dẫn đến những hậu quả thực tế như đánh cắp danh tính và quấy rối.
Và còn có các video deepfake, các đoạn âm thanh hoặc hình ảnh giống như thật được tạo ra bởi AI. Những hình ảnh kỹ thuật số này làm mờ ranh giới giữa thực và ảo, đặt ra các rủi ro từ thao túng chính trị đến ám sát nhân cách.
Các Sự Cố Deepfake Đáng Chú Ý với Tác Động Nghiêm Trọng
Việc lạm dụng Trí tuệ nhân tạo tạo sinh đã dẫn đến một loạt các sự cố bất thường, làm nổi bật những rủi ro và thách thức sâu sắc mà công nghệ này đặt ra khi rơi vào tay những kẻ xấu. Công nghệ deepfake, đặc biệt, làm mờ ranh giới giữa thực tế và hư cấu. Kết hợp từ sự sáng tạo của Mạng Đối nghịch Tạo sinh (GANs) và ý đồ ác ý, deepfake hòa trộn các yếu tố thực và giả mạo. GANs bao gồm hai mạng nơ-ron: máy tạo (generator) và máy phân biệt (discriminator). Máy tạo ra nội dung ngày càng chân thực, chẳng hạn như khuôn mặt, trong khi máy phân biệt cố gắng phát hiện các nội dung giả.
Những sự cố đáng chú ý liên quan đến deepfake đã từng xảy ra. Ví dụ, Dessa đã sử dụng một mô hình AI để tạo ra một bản sao giọng nói rất thuyết phục của Joe Rogan, cho thấy khả năng của AI trong việc tạo ra giọng nói giả mạo chân thực. Deepfake cũng đã có tác động lớn đến chính trị, như đã thấy trong nhiều ví dụ khác nhau. Chẳng hạn, một cuộc gọi tự động giả mạo Tổng thống Mỹ Joe Biden đã lừa dối các cử tri ở New Hampshire, trong khi các đoạn ghi âm do AI tạo ra ở Slovakia đã giả mạo một ứng cử viên tự do để tác động đến kết quả bầu cử. Nhiều sự cố tương tự đã được báo cáo ảnh hưởng đến chính trị của nhiều quốc gia.
Các vụ lừa đảo tài chính cũng đã sử dụng deepfake. Một công ty kỹ thuật của Anh tên là Arup đã trở thành nạn nhân của một vụ lừa đảo deepfake trị giá 20 triệu bảng Anh, trong đó một nhân viên tài chính đã bị lừa chuyển tiền trong một cuộc gọi video với những kẻ lừa đảo sử dụng giọng nói và hình ảnh do AI tạo ra để giả mạo các giám đốc điều hành của công ty. Điều này nhấn mạnh tiềm năng của AI trong việc thực hiện gian lận tài chính.
Tội phạm mạng ngày càng khai thác các công cụ Trí tuệ nhân tạo tạo sinh như WormGPT và FraudGPT để nâng cao các cuộc tấn công của họ, tạo ra mối đe dọa lớn đối với an ninh mạng. WormGPT, dựa trên mô hình GPT-J, hỗ trợ các hoạt động xấu mà không có bất kỳ hạn chế đạo đức nào. Các nhà nghiên cứu từ SlashNext đã sử dụng nó để tạo ra một email hóa đơn giả mạo rất thuyết phục. FraudGPT, lưu hành trên các kênh Telegram, được thiết kế cho các cuộc tấn công phức tạp và có thể tạo mã độc, tạo các trang phishing thuyết phục và xác định các lỗ hổng hệ thống. Sự trỗi dậy của các công cụ này làm nổi bật sự phát triển ngày càng tinh vi của các mối đe dọa mạng và sự cần thiết phải tăng cường các biện pháp an ninh.
Hệ Lụy Pháp Lý và Đạo Đức
Các hệ lụy pháp lý và đạo đức của sự lừa đảo do AI điều khiển đặt ra một nhiệm vụ đầy thách thức trong bối cảnh các tiến bộ nhanh chóng của các mô hình tạo sinh. Hiện nay, AI đang hoạt động trong một vùng xám về mặt pháp lý, với các nhà lập pháp đang gặp khó khăn trong việc theo kịp với sự phát triển công nghệ. Các khung pháp lý vững chắc là cần thiết cấp bách để hạn chế việc lạm dụng và bảo vệ công chúng khỏi các trò lừa đảo và các hoạt động gian lận do AI điều khiển.
Hơn nữa, những người tạo ra AI phải chịu trách nhiệm về mặt đạo đức. Tính minh bạch, sự công khai và tuân thủ các nguyên tắc là những khía cạnh thiết yếu của việc phát triển AI có trách nhiệm. Các nhà phát triển phải dự đoán các khả năng lạm dụng tiềm tàng và đề xuất các biện pháp cho các mô hình AI của họ để giảm thiểu rủi ro một cách hiệu quả.
Duy trì sự cân bằng giữa đổi mới và an ninh là quan trọng trong việc giải quyết các thách thức do gian lận do AI điều khiển. Quản lý quá chặt chẽ có thể hạn chế tiến bộ, trong khi sự giám sát lỏng lẻo có thể dẫn đến hỗn loạn. Do đó, các quy định thúc đẩy đổi mới mà không làm tổn hại đến sự an toàn là cần thiết cho sự phát triển bền vững.
Ngoài ra, các mô hình AI nên được thiết kế với tính bảo mật và đạo đức trong tâm trí. Việc tích hợp các tính năng như phát hiện sai lệch, kiểm tra độ bền và đào tạo đối kháng có thể tăng cường khả năng chống lại sự khai thác ác ý. Điều này đặc biệt quan trọng trong bối cảnh các trò lừa đảo do AI điều khiển ngày càng tinh vi, nhấn mạnh nhu cầu về tầm nhìn đạo đức và sự linh hoạt trong quy định để bảo vệ chống lại tiềm năng lừa đảo của các mô hình tạo sinh AI.
Chiến Lược Giảm Thiểu
Chiến lược giảm thiểu để đối phó với việc sử dụng lừa đảo các mô hình tạo sinh do AI điều khiển đòi hỏi một cách tiếp cận đa chiều, bao gồm các biện pháp an toàn được cải thiện và sự hợp tác giữa các bên liên quan. Các tổ chức phải sử dụng các nhân viên đánh giá nội dung do AI tạo ra, tận dụng chuyên môn của họ để xác định các mẫu lạm dụng và tinh chỉnh các mô hình. Các hệ thống tự động được trang bị các thuật toán tiên tiến có thể quét các dấu hiệu cảnh báo liên quan đến các trò lừa đảo, hoạt động ác ý hoặc thông tin sai lệch, hoạt động như các hệ thống cảnh báo sớm chống lại các hành vi gian lận.
Hơn nữa, sự hợp tác giữa các công ty công nghệ, cơ quan thực thi pháp luật và các nhà lập pháp là điều cần thiết trong việc phát hiện và ngăn chặn các hành vi lừa đảo do AI điều khiển. Các công ty công nghệ lớn phải chia sẻ những hiểu biết sâu sắc, các phương pháp hay nhất và thông tin về mối đe dọa, trong khi các cơ quan thực thi pháp luật làm việc chặt chẽ với các chuyên gia AI để đi trước những kẻ tội phạm. Các nhà lập pháp cần hợp tác với các công ty công nghệ, các nhà nghiên cứu và xã hội dân sự để tạo ra các quy định hiệu quả, nhấn mạnh tầm quan trọng của sự hợp tác quốc tế trong việc chống lại các hành vi lừa đảo do AI điều khiển.
Nhìn về tương lai, sự phát triển của Trí tuệ nhân tạo tạo sinh và phòng chống tội phạm được đặc trưng bởi cả thách thức và cơ hội. Khi Trí tuệ nhân tạo tạo sinh tiến hóa, các chiến thuật tội phạm cũng sẽ tiến bộ, với những tiến bộ trong Trí tuệ nhân tạo lượng tử, tính toán biên và các mô hình phi tập trung đang định hình lĩnh vực này. Do đó, giáo dục về phát triển AI đạo đức ngày càng trở nên quan trọng, với việc các trường học và đại học được khuyến khích đưa các khóa học về đạo đức trở thành bắt buộc đối với các chuyên gia AI.
Kết Luận
Trí tuệ nhân tạo tạo sinh mang lại cả lợi ích to lớn và rủi ro đáng kể, làm nổi bật nhu cầu cấp thiết về các khung pháp lý vững chắc và sự phát triển AI có đạo đức. Khi tội phạm mạng khai thác các công cụ tiên tiến, các chiến lược giảm thiểu hiệu quả như giám sát con người, thuật toán phát hiện tiên tiến và hợp tác quốc tế là cần thiết.
Bằng cách cân bằng giữa đổi mới và an ninh, thúc đẩy sự minh bạch và thiết kế các mô hình AI với các biện pháp bảo vệ tích hợp, chúng ta có thể đối phó hiệu quả với mối đe dọa ngày càng tăng của các hành vi lừa đảo do AI điều khiển và đảm bảo một môi trường công nghệ an toàn hơn cho tương lai.