Tác giả: Liran Hason, CEO và Đồng Sáng Lập của Aporia
Được xuất bản 58 giây trước vào ngày 6 tháng 6 năm 2024
AI, theo thiết kế, có một “tâm trí của riêng nó.” Một nhược điểm của điều này là các mô hình AI sinh tạo thỉnh thoảng sẽ bịa đặt thông tin trong một hiện tượng được gọi là “Ảo Tưởng AI,” một trong những ví dụ sớm nhất của hiện tượng này được chú ý khi một thẩm phán ở New York khiển trách các luật sư vì đã sử dụng một bản tóm tắt pháp lý do ChatGPT viết mà tham chiếu các vụ án không tồn tại. Gần đây, đã có những sự cố về các công cụ tìm kiếm do AI tạo ra khuyên người dùng ăn đá để có lợi cho sức khỏe, hoặc sử dụng keo không độc để giúp pho mát dính vào bánh pizza.
Khi GenAI trở nên ngày càng phổ biến, điều quan trọng là người dùng phải nhận thức rằng ảo tưởng hiện nay là một phần không thể tránh khỏi của các giải pháp GenAI. Được xây dựng trên các mô hình ngôn ngữ lớn (LLM), các giải pháp này thường được cung cấp thông tin từ rất nhiều nguồn khác nhau mà có khả năng chứa ít nhất một số thông tin không chính xác hoặc đã lỗi thời – những câu trả lời bịa đặt này chiếm từ 3% đến 10% các phản hồi do chatbot AI tạo ra đối với các yêu cầu của người dùng. Trong bối cảnh tính chất “hộp đen” của AI – mà trong đó chúng ta, con người, gặp vô cùng khó khăn trong việc kiểm tra chính xác cách mà AI tạo ra kết quả của nó, – những ảo tưởng này có thể gần như không thể truy vết và hiểu được đối với các nhà phát triển.
Dù không thể tránh khỏi hay không, ảo tưởng AI trong trường hợp tốt nhất là gây khó chịu, trong trường hợp tồi tệ nhất là nguy hiểm và không có đạo đức.
Trong nhiều lĩnh vực khác nhau, bao gồm chăm sóc sức khỏe, tài chính và an toàn công cộng, những hệ quả của ảo tưởng có thể từ việc lan truyền thông tin sai lệch và làm tổn hại dữ liệu nhạy cảm đến cả những sự cố đe dọa đến tính mạng. Nếu các ảo tưởng không được kiểm soát, sự an toàn của người dùng và niềm tin của xã hội vào các hệ thống AI đều sẽ bị ảnh hưởng.
Vì vậy, điều quan trọng là những người quản lý công nghệ mạnh mẽ này phải nhận thức và giải quyết các rủi ro của ảo tưởng AI để đảm bảo độ tin cậy của các kết quả do LLM tạo ra.
RAG như một Khởi Điểm Để Giải Quyết Ảo Tưởng
Một phương pháp nổi bật trong việc giảm thiểu ảo tưởng là tạo sinh có bổ sung truy xuất, hay còn gọi là RAG. Giải pháp này cải thiện độ tin cậy của các mô hình ngôn ngữ lớn (LLM) thông qua việc tích hợp các kho thông tin bên ngoài – truy xuất thông tin liên quan từ một cơ sở dữ liệu đáng tin cậy được chọn theo tính chất của truy vấn – để đảm bảo các phản hồi đáng tin cậy hơn đối với các câu hỏi cụ thể.
Một số chuyên gia trong ngành đã đưa ra quan điểm rằng chỉ cần RAG cũng có thể giải quyết được vấn đề ảo tưởng. Tuy nhiên, các cơ sở dữ liệu được tích hợp với RAG vẫn có thể chứa dữ liệu lỗi thời, điều này có thể dẫn đến việc tạo ra thông tin sai hoặc gây hiểu lầm. Trong một số trường hợp, việc tích hợp dữ liệu bên ngoài thông qua RAG có thể thậm chí làm tăng khả năng xảy ra ảo tưởng trong các mô hình ngôn ngữ lớn: Nếu một mô hình AI dựa quá nhiều vào một cơ sở dữ liệu lỗi thời mà nó cho là hoàn toàn cập nhật, mức độ của các ảo tưởng có thể trở nên nghiêm trọng hơn.
Các Rào Chắn AI – Thu Hẹp Khoảng Cách của RAG
Như bạn có thể thấy, RAGs thực sự mang lại hy vọng trong việc giảm thiểu ảo tưởng của AI. Tuy nhiên, các ngành công nghiệp và doanh nghiệp khi sử dụng những giải pháp này cũng phải hiểu rõ những giới hạn vốn có của chúng. Thực tế là khi được sử dụng kết hợp với RAGs, cần có các phương pháp bổ sung để xử lý các ảo tưởng của LLM.
Ví dụ, các doanh nghiệp có thể áp dụng các rào chắn AI thời gian thực để đảm bảo các phản hồi của LLM và giảm thiểu ảo tưởng AI. Các rào chắn hoạt động như một mạng lưới kiểm tra tất cả các đầu ra của LLM để phát hiện nội dung bịa đặt, thô tục hoặc không liên quan trước khi chúng đến tay người dùng. Cách tiếp cận qua phần mềm trung gian chủ động này đảm bảo độ tin cậy và tính phù hợp của việc truy xuất trong các hệ thống RAG, cuối cùng tăng cường sự tin tưởng từ phía người dùng và đảm bảo các tương tác an toàn phù hợp với thương hiệu của công ty.
Ngoài ra, có phương pháp “kỹ thuật yêu cầu” (prompt engineering), yêu cầu kỹ sư phải thay đổi yêu cầu chính ở phía backend. Bằng cách thêm các giới hạn được xác định trước cho các yêu cầu chấp nhận được – nói cách khác, không chỉ theo dõi nơi mà LLM lấy thông tin mà còn cả cách người dùng yêu cầu nó trả lời – các yêu cầu được điều chỉnh có thể hướng dẫn LLM tạo ra các kết quả đáng tin cậy hơn. Nhược điểm chính của phương pháp này là việc kỹ thuật yêu cầu có thể là một nhiệm vụ tốn rất nhiều thời gian đối với các lập trình viên, những người thường đã phải đối mặt với khối lượng công việc và tài nguyên hạn chế.
Phương pháp “tinh chỉnh” (fine tuning) liên quan đến việc đào tạo các LLM trên các bộ dữ liệu chuyên biệt để cải thiện hiệu suất và giảm thiểu rủi ro ảo tưởng. Phương pháp này đào tạo các LLM chuyên dụng cho từng nhiệm vụ để truy xuất từ các miền thông tin cụ thể và đáng tin cậy, cải thiện độ chính xác và độ tin cậy của đầu ra.
Cũng cần xem xét tác động của độ dài đầu vào đối với hiệu suất lý luận của các LLM – thực tế là nhiều người dùng có xu hướng nghĩ rằng càng đưa ra yêu cầu dài và nhiều tham số, kết quả sẽ càng chính xác. Tuy nhiên, một nghiên cứu gần đây đã tiết lộ rằng độ chính xác của đầu ra LLM thực sự giảm khi độ dài đầu vào tăng lên. Do đó, việc tăng số lượng hướng dẫn được chỉ định cho bất kỳ yêu cầu nào không đảm bảo độ tin cậy nhất quán trong việc tạo ra các ứng dụng AI sinh tạo đáng tin cậy.
Hiện tượng này, được gọi là quá tải yêu cầu (prompt overloading), nhấn mạnh những rủi ro vốn có của việc thiết kế yêu cầu quá phức tạp – càng đặt yêu cầu một cách rộng rãi, càng mở ra nhiều cơ hội cho thông tin không chính xác và ảo tưởng khi LLM cố gắng đáp ứng mọi tham số.
Kỹ Thuật Yêu Cầu (Prompt Engineering) yêu cầu cập nhật liên tục và tinh chỉnh, nhưng vẫn gặp khó khăn trong việc ngăn chặn hiệu quả các ảo tưởng hoặc phản hồi vô nghĩa. Trong khi đó, các rào chắn (guardrails) không tạo thêm rủi ro về việc tạo ra các đầu ra bịa đặt, làm cho chúng trở thành một lựa chọn hấp dẫn để bảo vệ AI. Khác với kỹ thuật yêu cầu, các rào chắn cung cấp một giải pháp toàn diện theo thời gian thực, đảm bảo rằng AI sinh tạo chỉ tạo ra các đầu ra nằm trong các ranh giới đã được định trước.
Mặc dù không phải là giải pháp hoàn chỉnh, phản hồi từ người dùng cũng có thể giúp giảm thiểu ảo tưởng với các hành động như bình chọn lên (upvotes) và bình chọn xuống (downvotes), giúp tinh chỉnh các mô hình, cải thiện độ chính xác của đầu ra và giảm thiểu rủi ro ảo tưởng.
Riêng mình, các giải pháp RAG đòi hỏi nhiều thử nghiệm để đạt được kết quả chính xác. Nhưng khi được kết hợp với tinh chỉnh, kỹ thuật yêu cầu và các rào chắn, chúng có thể cung cấp các giải pháp nhắm mục tiêu cụ thể và hiệu quả hơn để giải quyết vấn đề ảo tưởng. Khám phá các chiến lược bổ sung này sẽ tiếp tục cải thiện việc giảm thiểu ảo tưởng trong các LLM, hỗ trợ phát triển các mô hình đáng tin cậy và đáng tin cậy hơn trong nhiều ứng dụng khác nhau.
RAG không phải là Giải Pháp cho Ảo Tưởng AI
Các giải pháp RAG mang lại giá trị to lớn cho các mô hình ngôn ngữ lớn (LLM) bằng cách làm phong phú chúng với kiến thức bên ngoài. Nhưng với nhiều điều vẫn chưa được biết về AI sinh tạo, ảo tưởng vẫn là một thách thức vốn có. Chìa khóa để đối phó với chúng không nằm ở việc cố gắng loại bỏ chúng, mà là giảm thiểu ảnh hưởng của chúng bằng cách kết hợp các rào chắn chiến lược, quy trình kiểm duyệt và các yêu cầu được tinh chỉnh kỹ lưỡng.
Càng có thể tin tưởng những gì mà GenAI nói với chúng ta, chúng ta càng có thể tận dụng tiềm năng mạnh mẽ của nó một cách hiệu quả và hiệu suất hơn.