Bởi Nicos Vekiarides
Ngày 11 tháng 1 năm 2024
Kể từ ít nhất cuộc bầu cử năm 2016, khi lo ngại về thông tin sai lệch nổi lên trong ý thức công dân, các chuyên gia đã đang kêu gọi cảnh báo về deepfakes. Những ẩn ý của công nghệ này là – và vẫn là – đáng sợ. Việc lan truyền không kiểm soát của phương tiện tổng hợp siêu thực đe dọa mọi người, từ chính trị gia đến người bình thường. Trong một môi trường đang cháy rụi do sự không tin rộng rãi, deepfakes hứa hẹn chỉ làm thêm cháy lửa.
Nhưng như đã biết, nỗi sợ của chúng ta là quá sớm. Sự hiểu biết công nghệ cần thiết để thực sự tạo ra deepfakes, kết hợp với chất lượng thường kém của chúng, có nghĩa là trong ít nhất hai chu kỳ bầu cử tổng thống gần đây nhất, chúng vẫn chỉ là mối lo ngại tối thiểu.
Nhưng tất cả đều sắp thay đổi – thực sự đã đang thay đổi. Trong hai năm qua, công nghệ trí tuệ nhân tạo tạo ra đã bước vào dạng chủ lực, đơn giản hóa quá trình tạo ra deepfakes cho người tiêu dùng thông thường. Những đổi mới tương tự đã tăng đáng kể chất lượng của deepfakes, đến mức, trong một cuộc kiểm tra mù quáng, hầu hết mọi người sẽ không thể phân biệt được một video bị chỉnh sửa từ thứ thực tế.
Đặc biệt trong năm nay, chúng ta đã bắt đầu thấy dấu hiệu về cách công nghệ này có thể ảnh hưởng đến xã hội nếu không có những nỗ lực chống lại nó. Năm ngoái, ví dụ, một bức ảnh do trí tuệ nhân tạo tạo ra về Đức Thánh Cha mặc một chiếc áo lạ mắt đã trở nên truyền bá và được nhiều người coi là chính xác. Mặc dù điều này có vẻ như một trò đùa vô hại ở một cấp độ, nó tiết lộ sức mạnh nguy hiểm của những deepfakes này và khó khăn khi cố ngăn chặn thông tin sai lệch khi nó đã bắt đầu lan truyền. Chúng ta có thể dự kiến sẽ gặp những trường hợp “trò đùa” ít vui hơn và nguy hiểm hơn trong những tháng và năm sắp tới.
Vì lý do này, quan trọng là các tổ chức mọi loại – từ truyền thông đến tài chính đến chính phủ đến các nền tảng truyền thông xã hội – phải đưa ra một tư cách tích cực đối với việc phát hiện deepfake và xác minh tính chân thực của nội dung. Một văn hóa tin cậy thông qua các biện pháp bảo vệ phải được xây dựng ngay bây giờ, trước khi một đợt sóng deepfakes có thể cuốn trôi hiểu biết chung của chúng ta về thực tế.
Hiểu về mối đe dọa từ deepfakes
Trước khi đi sâu vào những gì tổ chức có thể làm để chống lại sự bùng nổ của deepfakes này, đáng chú ý là phải mô tả rõ tại sao các công cụ bảo vệ là cần thiết. Thông thường, những người quan tâm đến deepfakes thường đề cập đến ảnh hưởng tiềm ẩn của chúng đối với chính trị và niềm tin xã hội. Những hậu quả tiềm ẩn này rất quan trọng và không nên bị bỏ qua trong bất kỳ cuộc trò chuyện nào về deepfakes. Nhưng như đã xảy ra, sự gia tăng của công nghệ này có thể mang lại những tác động khôn lường đối với nhiều lĩnh vực của nền kinh tế Hoa Kỳ.
Hãy xem xét bảo hiểm chẳng hạn. Hiện tại, lừa đảo bảo hiểm hàng năm tại Hoa Kỳ đạt đến 308,6 tỷ đô la – con số gần bằng một phần tư toàn bộ ngành công nghiệp. Đồng thời, các hoạt động sau cùng của hầu hết các công ty bảo hiểm ngày càng được tự động hóa, với dự đoán 70% các yêu cầu bồi thường tiêu chuẩn sẽ không cần sự can thiệp của con người vào năm 2025. Điều này có nghĩa là quyết định ngày càng được đưa ra với sự can thiệp của con người ít nhất có thể: tự dịch vụ ở phía trước và tự động hóa được AI hỗ trợ ở phía sau.
Một cách mỉa mai, công nghệ chính đã cho phép sự gia tăng của tự động hóa này – tức là học máy và trí tuệ nhân tạo – đã đảm bảo sự lợi dụng của nó bởi những người chơi xấu. Bây giờ, người thông thường dễ dàng hơn bao giờ hết để làm giả các yêu cầu bồi thường – ví dụ, bằng cách sử dụng các chương trình trí tuệ nhân tạo tạo ra như Dall-E, Midjourney, hoặc Stable Diffusion để làm cho chiếc xe trông hư hại hơn so với thực tế. Đã có ứng dụng dành riêng cho mục đích này, như Dude Your Car!, cho phép người dùng tạo ra những vết va giả mạo trong ảnh của xe họ.
Tình trạng tương tự cũng áp dụng cho các tài liệu chính thức, hiện nay có thể dễ dàng bị thao tác—với hóa đơn, đánh giá bảo hiểm, và thậm chí là chữ ký có thể được điều chỉnh hoặc được sáng tạo toàn bộ. Khả năng này không chỉ là vấn đề đối với các công ty bảo hiểm mà còn là vấn đề trải rộng trên toàn bộ nền kinh tế. Đó là vấn đề đối với các tổ chức tài chính, mà phải xác minh tính chân thực của một loạt các tài liệu. Đó là vấn đề đối với các nhà bán lẻ, có thể nhận được khiếu nại rằng một sản phẩm đến bị lỗi, kèm theo hình ảnh bị chỉnh sửa.
Doanh nghiệp không thể hoạt động với mức độ không chắc chắn như vậy. Một mức độ lừa đảo nào đó có lẽ luôn là không tránh khỏi, nhưng với deepfakes, chúng ta không đang nói về lừa đảo chỉ là ở mức cạnh—chúng ta đang nói về một thảm họa tri thức tiềm ẩn, trong đó doanh nghiệp không có phương tiện rõ ràng để xác định sự thật từ hư cấu, và kết quả có thể là mất tỷ đô la do sự nhầm lẫn này.
Chiến đấu bằng chính lửa: làm thế nào trí tuệ nhân tạo có thể hỗ trợ
Vậy, có thể làm gì để chống lại điều này? Không ngạc nhiên khi câu trả lời nằm trong chính công nghệ giúp tạo ra deepfakes. Nếu chúng ta muốn ngăn chặn nỗi ác mộng này trước khi nó trở nên mạnh mẽ hơn, chúng ta cần chiến đấu bằng chính công nghệ đó. Trí tuệ nhân tạo có thể giúp tạo ra deepfakes – nhưng may mắn là nó cũng có thể giúp xác định chúng tự động và ở quy mô lớn.
Bằng cách sử dụng các công cụ trí tuệ nhân tạo phù hợp, doanh nghiệp có thể tự động xác định xem một bức ảnh, video hoặc tài liệu đã bị thao tác hay chưa. Bằng cách sử dụng nhiều mô hình khác nhau cho việc nhận dạng giả mạo, trí tuệ nhân tạo có thể tự động cho doanh nghiệp biết chính xác liệu một bức ảnh hay video cụ thể có vẻ nghi ngờ hay không. Giống như các công cụ mà doanh nghiệp đã triển khai để tự động hóa các hoạt động hàng ngày, những công cụ này có thể chạy ẩn sau cánh cửa mà không làm phiền đến nhân viên đang bận rộn hoặc làm mất thời gian từ những dự án quan trọng.
Nếu và khi một bức ảnh được xác định có thể đã bị chỉnh sửa, nhân viên có thể được thông báo, và có thể đánh giá vấn đề trực tiếp, được hỗ trợ bởi thông tin do trí tuệ nhân tạo cung cấp. Bằng cách sử dụng phân tích quét sâu, nó có thể giúp doanh nghiệp hiểu vì sao nó tin rằng một bức ảnh có thể đã được chỉnh sửa – chẳng hạn như chỉnh sửa siêu dữ liệu một cách thủ công, sự tồn tại của hình ảnh giống nhau trên web, các không đều trong hình ảnh, v.v.
Tất cả những điều này không phải là để làm mất uy tín cho những tiến bộ đáng kinh ngạc mà chúng ta đã thấy trong công nghệ trí tuệ nhân tạo suốt vài năm qua, mà thực sự có ứng dụng hữu ích và sản xuất trong nhiều ngành. Nhưng sức mạnh – chưa kể đến tính đơn giản – của công nghệ mới nổi này gần như đảm bảo sự lạm dụng của nó bởi những người muốn thao túng tổ chức, cho dù vì lợi ích cá nhân hay để gieo rắc hỗn loạn xã hội.
Tổ chức có thể có được sự kết hợp tốt nhất cả hai thế giới: những lợi ích về năng suất của trí tuệ nhân tạo mà không phải đối mặt với nhược điểm của deepfakes tỏ ra phổ cập. Nhưng để làm được điều đó, đòi hỏi một mức độ cảnh báo mới, đặc biệt là khi đầu ra của trí tuệ nhân tạo ngày càng trở nên thuyết phục, chi tiết và sống động hơn qua từng ngày. Sớm nhất có thể, tổ chức chú ý đến vấn đề này, sớm họ có thể thu hoạch đầy đủ lợi ích của một thế giới tự động hóa.