Tác giả: Gabriella Bussien, Giám đốc Điều hành tại Tổ chức Ngăn Chặn Tội Phạm Tài Chính Công Nghệ Trapets
ngày 17 tháng 12 năm 2024
AI là một con dao hai lưỡi đối với các ngân hàng: trong khi mở ra nhiều khả năng để vận hành hiệu quả hơn, nó cũng có thể gây ra rủi ro từ bên ngoài và bên trong.
Các tội phạm tài chính đang tận dụng công nghệ này để tạo ra video deepfake, giọng nói và tài liệu giả mạo có thể vượt qua sự phát hiện của cả máy móc và con người, hoặc tăng cường các hoạt động lừa đảo qua email. Chỉ riêng tại Mỹ, AI tạo sinh (Generative AI) được dự đoán sẽ thúc đẩy tổn thất do gian lận tăng với tỷ lệ tăng trưởng hàng năm là 32%, đạt 40 tỷ USD vào năm 2027, theo một báo cáo gần đây của Deloitte.
Có lẽ, câu trả lời từ các ngân hàng nên là trang bị cho mình những công cụ tốt hơn nữa, tận dụng AI trong công cuộc phòng chống tội phạm tài chính. Thực tế, các tổ chức tài chính đang bắt đầu triển khai AI trong các nỗ lực chống tội phạm tài chính (AFC) – từ giám sát giao dịch, tạo báo cáo hoạt động đáng ngờ, tự động hóa phát hiện gian lận và nhiều hơn nữa. Điều này có tiềm năng đẩy nhanh quá trình xử lý đồng thời tăng độ chính xác.
Vấn đề nằm ở việc các ngân hàng không cân bằng việc triển khai AI với sự đánh giá từ con người. Nếu thiếu yếu tố con người trong quy trình, việc áp dụng AI có thể ảnh hưởng đến tuân thủ quy định, gây thiên kiến và giảm khả năng thích nghi với các mối đe dọa mới.
Chúng tôi tin vào một cách tiếp cận thận trọng và kết hợp đối với việc áp dụng AI trong lĩnh vực tài chính, một cách tiếp cận vẫn cần đến sự đóng góp từ con người.
Sự khác biệt giữa hệ thống AFC dựa trên quy tắc và hệ thống AFC sử dụng AI
Truyền thống, các hệ thống phòng chống tội phạm tài chính (AFC) – đặc biệt là hệ thống chống rửa tiền (AML) – hoạt động dựa trên các quy tắc cố định do các đội tuân thủ đặt ra để đáp ứng các quy định. Ví dụ, trong trường hợp giám sát giao dịch, các quy tắc này được triển khai để đánh dấu các giao dịch dựa trên các tiêu chí được định sẵn, chẳng hạn như ngưỡng số tiền giao dịch hoặc các yếu tố rủi ro địa lý.
AI mang đến một cách tiếp cận mới để sàng lọc rủi ro tội phạm tài chính. Các mô hình học máy có thể được sử dụng để phát hiện các mẫu hành vi đáng ngờ dựa trên loạt dữ liệu luôn thay đổi. Hệ thống này phân tích các giao dịch, dữ liệu lịch sử, hành vi khách hàng và dữ liệu ngữ cảnh để giám sát mọi hoạt động đáng nghi, đồng thời học hỏi qua thời gian, mang lại khả năng giám sát tội phạm thích ứng và hiệu quả hơn.
Tuy nhiên, trong khi các hệ thống dựa trên quy tắc dễ dự đoán và dễ kiểm toán, các hệ thống dựa trên AI lại đưa vào một yếu tố phức tạp “hộp đen” do quy trình ra quyết định không rõ ràng. Khó truy vết được lý do AI đánh dấu một hành vi nào đó là đáng ngờ bởi có quá nhiều yếu tố liên quan. Điều này có thể khiến AI đưa ra kết luận dựa trên các tiêu chí lỗi thời hoặc cung cấp các thông tin không chính xác, mà điều này lại không dễ dàng phát hiện ngay. Nó cũng có thể gây ra vấn đề đối với việc tuân thủ quy định của các tổ chức tài chính.
Những thách thức pháp lý có thể xảy ra
Các tổ chức tài chính phải tuân thủ các tiêu chuẩn pháp lý nghiêm ngặt, chẳng hạn như Chỉ thị Chống Rửa Tiền của EU (AMLD) và Đạo luật Bảo Mật Ngân Hàng của Mỹ, yêu cầu các quyết định phải rõ ràng và có thể truy vết. Tuy nhiên, các hệ thống AI, đặc biệt là các mô hình học sâu (deep learning), có thể khó hiểu và giải thích được.
Để đảm bảo trách nhiệm giải trình khi áp dụng AI, các ngân hàng cần có kế hoạch cẩn thận, thử nghiệm kỹ lưỡng, xây dựng các khung tuân thủ chuyên biệt và sự giám sát của con người. Con người có thể xác minh các quyết định tự động, chẳng hạn như giải thích lý do đằng sau một giao dịch bị đánh dấu đáng ngờ, giúp nó trở nên dễ hiểu và có thể bảo vệ trước các cơ quan quản lý.
Các tổ chức tài chính cũng đang phải chịu áp lực ngày càng tăng trong việc sử dụng các công cụ AI Có Thể Giải Thích (XAI) để làm cho các quyết định do AI đưa ra trở nên dễ hiểu đối với các cơ quan quản lý và kiểm toán viên. XAI là một quy trình cho phép con người hiểu được kết quả của hệ thống AI và cách thức ra quyết định của nó.
Phán đoán của con người cần thiết để có cái nhìn toàn diện
Việc áp dụng AI không thể thay thế sự thận trọng trong các hệ thống tự động. Các nhà phân tích con người mang lại bối cảnh và sự phán xét mà AI không có, cho phép đưa ra các quyết định tinh tế trong những trường hợp phức tạp hoặc mơ hồ, điều này vẫn rất cần thiết trong các cuộc điều tra AFC.
Một trong những rủi ro của việc phụ thuộc vào AI là khả năng xuất hiện sai sót (ví dụ: báo động sai hoặc bỏ sót) và thiên kiến. AI có thể dễ gặp phải báo động sai nếu các mô hình không được tối ưu hóa hoặc được huấn luyện trên dữ liệu có thành kiến. Dù con người cũng có thể bị thiên kiến, nhưng với AI, rủi ro gia tăng do khó xác định được sự thiên kiến trong hệ thống.
Hơn nữa, các mô hình AI hoạt động dựa trên dữ liệu đầu vào – chúng có thể không nhận ra các mẫu hành vi đáng ngờ mới lạ hoặc hiếm gặp nằm ngoài các xu hướng lịch sử hay dựa trên những hiểu biết thực tế. Việc thay thế hoàn toàn hệ thống dựa trên quy tắc bằng AI có thể để lại những “điểm mù” trong việc giám sát AFC.
Trong các trường hợp liên quan đến thiên kiến, mơ hồ hoặc tình huống mới lạ, AFC cần đến sự đánh giá tinh tường mà AI không thể cung cấp. Đồng thời, nếu loại bỏ con người khỏi quy trình, năng lực của các đội ngũ trong việc hiểu các mẫu hành vi tội phạm tài chính, phát hiện các xu hướng và nhận diện các mô hình mới nổi có thể bị ảnh hưởng nghiêm trọng. Điều này có thể khiến việc duy trì và cập nhật các hệ thống tự động trở nên khó khăn hơn.
Một cách tiếp cận lai: kết hợp hệ thống dựa trên quy tắc và AFC điều khiển bởi AI
Các tổ chức tài chính có thể kết hợp cách tiếp cận dựa trên quy tắc với các công cụ AI để tạo ra một hệ thống đa lớp, tận dụng được thế mạnh của cả hai phương pháp. Một hệ thống lai sẽ giúp việc triển khai AI trở nên chính xác hơn trong dài hạn và linh hoạt hơn trong việc xử lý các mối đe dọa tội phạm tài chính mới mà không làm mất đi tính minh bạch.
Để thực hiện điều này, các tổ chức có thể tích hợp các mô hình AI với phản hồi liên tục từ con người. Việc học thích nghi của các mô hình không chỉ dựa trên mẫu dữ liệu mà còn dựa trên đầu vào từ con người để tinh chỉnh và cân bằng lại.
Không phải hệ thống AI nào cũng giống nhau. Các mô hình AI cần được kiểm tra liên tục để đánh giá độ chính xác, tính công bằng và khả năng tuân thủ, cùng với các bản cập nhật định kỳ dựa trên thay đổi quy định và thông tin mối đe dọa mới do đội ngũ AFC phát hiện.
Các chuyên gia về rủi ro và tuân thủ cần được đào tạo về AI, hoặc cần bổ sung chuyên gia AI vào đội ngũ để đảm bảo rằng việc phát triển và triển khai AI được thực hiện trong những giới hạn nhất định. Đồng thời, cần xây dựng các khung tuân thủ cụ thể cho AI, tạo lộ trình để tuân thủ các quy định trong lĩnh vực còn mới mẻ đối với các chuyên gia tuân thủ.
Là một phần của việc áp dụng AI, điều quan trọng là phải phổ biến kiến thức cho tất cả các bộ phận trong tổ chức về khả năng của các mô hình AI mà họ đang sử dụng, cũng như những hạn chế của chúng (chẳng hạn như thiên kiến tiềm ẩn), nhằm tăng khả năng nhận biết các lỗi có thể xảy ra.
Tổ chức cũng cần đưa ra những cân nhắc chiến lược khác để bảo vệ an ninh và chất lượng dữ liệu. Điều cốt yếu là phải đầu tư vào cơ sở hạ tầng dữ liệu chất lượng cao và an toàn, đồng thời đảm bảo các mô hình AI được đào tạo trên các tập dữ liệu chính xác và đa dạng.
AI vừa là mối đe dọa, vừa là công cụ phòng thủ cho các ngân hàng. Tuy nhiên, họ cần xử lý công nghệ mới đầy mạnh mẽ này một cách đúng đắn để tránh việc tạo ra các vấn đề mới thay vì giải quyết chúng.