Cập nhật ngày 4 tháng 12 năm 2024
Tác giả: Rishab Mehra, CTO và Đồng sáng lập của Pinnacle
Hãy tưởng tượng điều này: Bạn đang làm việc, tập trung cao độ để hoàn thành một công việc với hạn chót gấp rút, thì nhận được cuộc gọi từ số điện thoại dường như là của mẹ bạn. Giọng nói ở đầu dây bên kia không thể nhầm lẫn – đó chính là giọng của bà, điềm tĩnh và đầy yêu thương, nhưng lại phảng phất chút gấp gáp khác thường. Bà nói rằng mình gặp rắc rối nghiêm trọng khi đang du lịch ở Paris và cần sự giúp đỡ tài chính của bạn ngay lập tức để giải quyết vấn đề. Bạn biết bà đang ở Paris, và những chi tiết bà cung cấp – đến cả tên khách sạn – khiến cuộc gọi trở nên cực kỳ thuyết phục. Không chút do dự, bạn chuyển tiền, chỉ để phát hiện ra sau đó rằng mẹ bạn chưa từng thực hiện cuộc gọi này. Đó là một hệ thống AI tiên tiến đã hoàn hảo giả giọng bà và dựng nên một tình huống chi tiết đến khó tin. Cảm giác ớn lạnh chạy dọc sống lưng khi bạn nhận ra điều vừa xảy ra.
Kịch bản này, vốn chỉ có trong khoa học viễn tưởng, giờ đây đang trở thành hiện thực. Sự xuất hiện của các công nghệ AI, như các mô hình ngôn ngữ lớn (LLMs), đã mang lại những tiến bộ vượt bậc. Tuy nhiên, một mối đe dọa đáng kể cũng xuất hiện: các chiêu lừa đảo dựa trên AI. Tiềm năng cho các vụ lừa đảo tinh vi được hỗ trợ bởi trí tuệ nhân tạo là một mối nguy hoàn toàn mới trong tiến trình phát triển công nghệ. Trong khi các chiêu trò lừa đảo qua điện thoại đã là mối lo ngại từ khi điện thoại được phát minh, thì sự tích hợp rộng rãi của các mô hình ngôn ngữ lớn (LLMs) vào mọi khía cạnh của giao tiếp số đã khiến rủi ro này tăng lên đáng kể. Khi chúng ta đón nhận tiềm năng của AI, điều quan trọng là chúng ta cũng phải củng cố các biện pháp phòng thủ để đối phó với những mối đe dọa ngày càng tinh vi này.
Bối Cảnh Hiện Tại Của Các Cuộc Gọi Lừa Đảo
Trong nhiều năm, tội phạm đã tìm cách lừa gạt những cá nhân cả tin để chuyển tiền hoặc tiết lộ thông tin nhạy cảm. Mặc dù các chiêu trò lừa đảo qua điện thoại đã trở nên phổ biến, nhiều chiêu thức vẫn còn khá đơn giản, chủ yếu dựa vào các nhân viên đọc kịch bản có sẵn. Tuy nhiên, ngay cả với những hạn chế này, các cuộc gọi lừa đảo vẫn là một lĩnh vực tội phạm mang lại lợi nhuận khổng lồ.
Theo Ủy ban Thương mại Liên bang Hoa Kỳ (FTC), chỉ riêng trong năm 2022, người dân Mỹ đã mất hơn 8,8 tỷ USD vì các vụ lừa đảo, trong đó một phần đáng kể là do các cuộc gọi lừa đảo. Điều này có nghĩa là, ngay cả trong hình thức chưa quá tinh vi hiện nay, các chiến thuật này vẫn hiệu quả đối với những người dễ bị tổn thương. Vậy điều gì sẽ xảy ra khi chúng tiến hóa?
Tương Lai Lừa Đảo Với Trí Tuệ Nhân Tạo
Bối cảnh các cuộc gọi lừa đảo đang chuẩn bị cho một sự thay đổi đáng kể với sự xuất hiện của các công nghệ then chốt sau đây:
Mô Hình Ngôn Ngữ Lớn (LLMs)
Các hệ thống AI này có khả năng tạo ra văn bản giống con người và tham gia vào các cuộc hội thoại tự nhiên. Khi được áp dụng vào các chiêu trò lừa đảo, LLMs có thể tạo ra các kịch bản cực kỳ thuyết phục và linh hoạt, khiến nạn nhân tiềm năng khó nhận diện được dấu hiệu lừa đảo hơn.
Tạo Nội Dung Kết Hợp Truy Xuất (RAG)
Công nghệ này cho phép các hệ thống LLM truy cập và sử dụng lượng lớn thông tin theo thời gian thực. Kẻ lừa đảo có thể xây dựng hồ sơ chi tiết về một người dựa trên các thông tin công khai như tài khoản mạng xã hội. Chúng cũng có thể áp dụng các kỹ thuật thao túng tâm lý xã hội đối với bạn bè và gia đình của mục tiêu để thu thập thêm thông tin chi tiết. Điều này có thể cung cấp cho chúng quyền truy cập vào thông tin như danh tính, công việc, hoặc thậm chí các hoạt động gần đây của mục tiêu. Sau đó, chúng có thể sử dụng RAG để cung cấp bối cảnh cho LLMs, khiến cách tiếp cận của chúng trở nên cá nhân hóa và vô cùng thuyết phục.
Tạo Âm Thanh Tổng Hợp
Các nền tảng như Resemble AI và Lyrebird đang dẫn đầu trong việc tạo ra giọng nói do AI tạo ra với độ chân thực cao. Những công nghệ này có khả năng tạo ra âm thanh cá nhân hóa, giống con người, được sử dụng trong nhiều ứng dụng, từ trợ lý ảo đến dịch vụ khách hàng tự động và sản xuất nội dung. Các công ty như ElevenLabs còn tiến xa hơn khi cho phép người dùng tạo ra giọng nói tổng hợp có thể tái tạo gần như chính xác giọng nói của chính họ, mang đến mức độ cá nhân hóa và tương tác mới trong các tương tác kỹ thuật số.
Tạo Video Tổng Hợp
Các công ty như Synthesia đã cho thấy tiềm năng tạo ra nội dung video chân thực với các avatar được tạo bởi AI. Trong những năm tới, công nghệ này có thể cho phép kẻ lừa đảo giả mạo hình ảnh bạn bè hoặc người thân trong gia đình, hoặc tạo ra các nhân vật hoàn toàn hư cấu cho các cuộc gọi video, mang lại mức độ hiện thực chưa từng có vào các chiêu trò lừa đảo.
Đồng Bộ Hóa Cử Động Môi với AI
Các startup như Sync Labs đang phát triển công nghệ đồng bộ hóa cử động môi tiên tiến, có thể khớp hoàn hảo giữa âm thanh được tạo ra với hình ảnh video. Điều này có thể được sử dụng để tạo ra các video deepfake thuyết phục của các nhân vật lịch sử, chính trị gia, người nổi tiếng, và hầu như bất kỳ ai, làm mờ ranh giới giữa thực tế và lừa đảo.
Sự kết hợp của những công nghệ này vẽ nên một viễn cảnh đáng lo ngại. Hãy tưởng tượng một cuộc gọi lừa đảo nơi AI có thể thích nghi cuộc trò chuyện trong thời gian thực, được trang bị thông tin cá nhân của mục tiêu, thậm chí chuyển sang cuộc gọi video với một người dường như thật, với cử động môi khớp hoàn hảo với giọng nói được tạo ra. Tiềm năng cho các chiêu trò lừa đảo là vô cùng lớn.
Nhu Cầu Về Các Biện Pháp Bảo Mật Tăng Cường
Khi các chiêu trò lừa đảo do AI điều khiển ngày càng trở nên tinh vi hơn, các phương pháp xác minh danh tính và tính xác thực cần phải phát triển nhanh chóng để bắt kịp các tiến bộ của AI. Điều này đòi hỏi sự kết hợp giữa các cải tiến về quy định và công nghệ nhằm bảo vệ thế giới trực tuyến.
Cải Thiện Quy Định
- Luật Bảo Mật Dữ Liệu Chặt Chẽ Hơn
Áp dụng các luật bảo mật dữ liệu nghiêm ngặt hơn sẽ hạn chế lượng thông tin cá nhân mà kẻ lừa đảo có thể khai thác. Những luật này có thể bao gồm yêu cầu chặt chẽ hơn về việc thu thập dữ liệu, các giao thức người dùng đồng ý rõ ràng hơn, và các hình phạt nghiêm khắc hơn đối với việc rò rỉ dữ liệu. - Máy Chủ Đám Mây Riêng Cho Các Mô Hình AI Mạnh Mẽ
Quy định có thể yêu cầu các mô hình AI mạnh mẽ nhất phải được lưu trữ trên cơ sở hạ tầng đám mây riêng và an toàn thay vì mở rộng truy cập công khai. Điều này sẽ giới hạn quyền tiếp cận các công nghệ tiên tiến, khiến các đối tượng xấu khó sử dụng chúng để thực hiện lừa đảo hơn. - Hợp Tác Quốc Tế Về Quy Định AI
Với tính chất toàn cầu của công nghệ AI, việc hợp tác quốc tế về các tiêu chuẩn quy định sẽ rất có lợi. Thành lập một cơ quan toàn cầu chịu trách nhiệm tạo ra và thực thi các quy định AI quốc tế có thể giúp đối phó với tội phạm liên quan đến AI xuyên biên giới. - Chiến Dịch Nâng Cao Nhận Thức Công Chúng
Các chính phủ và cơ quan quản lý nên đầu tư vào các chiến dịch nâng cao nhận thức công chúng để giáo dục người dân về những rủi ro tiềm tàng của các vụ lừa đảo do AI gây ra và cách bảo vệ bản thân. Nhận thức là bước quan trọng đầu tiên trong việc giúp cá nhân và tổ chức thực hiện các biện pháp bảo mật cần thiết.
Hiện nay, các quy định về AI vẫn chưa đủ để ngăn chặn các chiêu trò lừa đảo, và thách thức trong việc đưa ra quy định trong tương lai càng trở nên phức tạp bởi tính chất mã nguồn mở của nhiều công nghệ tiên tiến. Điều này cho phép bất kỳ ai cũng có thể truy cập và sửa đổi các công nghệ này cho mục đích riêng của họ. Do đó, bên cạnh các quy định nghiêm ngặt hơn, cần có những tiến bộ trong công nghệ bảo mật để đối phó với các mối đe dọa ngày càng gia tăng.