Khi ChatGPT và các ứng dụng doanh nghiệp dưới sự hỗ trợ của GenAI được áp dụng nhanh chóng, một trong những mối lo ngại phổ biến hoặc các vấn đề thường được đề cập là nhược điểm của GenAI thể hiện liên quan việc Mô hình ngôn ngữ lớn tạo ra kết quả sai lệch hoặc thể hiện những gì thường được gọi là như ảo giác.
Một ví dụ đơn giản về ảo giác là khi GenAI phản hồi lại với sự tự tin hợp lý bằng một câu trả lời không phù hợp lắm với thực tế. Với khả năng tạo ra nội dung đa dạng bằng văn bản, âm nhạc và đa phương tiện, tác động của các phản ứng ảo giác có thể khá rõ ràng tùy thuộc vào nơi áp dụng kết quả GenAI.
Biểu hiện ảo giác này đã thu hút được sự quan tâm đáng kể của người dùng GenAI do những tác động tiêu cực tiềm ẩn của nó. Một ví dụ điển hình là trích dẫn giả trong các vụ kiện pháp lý.
Hai khía cạnh cần quan tâm đến ảo giác quan trọng bao gồm:
- Hiểu nguyên nhân cơ bản về nguyên nhân gây ra những ảo giác
- Làm sao chúng ta có thể an toàn và có các chiến lược hiệu quả để nhận biết, nếu không ngăn chặn chúng 100%
Điều gì khiến LLM bị ảo giác?
Mặc dù việc quy kết các ảo giác là do một hoặc một vài lý do rõ ràng là một thách thức, dưới đây là một số lý do khiến điều đó xảy ra:
Dữ liệu chưa đầy đủ: Điều có thể được gọi là lý do chính, việc thiếu dữ liệu đầy đủ khiến các mô hình phản hồi lại bằng các câu trả lời sai. GenAI chỉ hoạt động tốt khi có tập dữ liệu mà nó được đào tạo và giới hạn này bao gồm phạm vi, chất lượng, khung thời gian, sai lệch và không chính xác. Ví dụ: GPT-4 chỉ được đào tạo với dữ liệu cho đến năm 2021 và mô hình có xu hướng khái quát hóa các câu trả lời từ những gì nó đã học được từ đó. Có lẽ, kịch bản này có thể dễ hiểu hơn trong bối cảnh con người, nơi mà việc khái quát hóa bằng những kiến thức nửa vời là rất phổ biến.
Cách mô hình được huấn luyện: Phương pháp cơ bản được sử dụng để huấn luyện các mô hình là ‘Không giám sát’ hoặc các bộ dữ liệu không được gắn nhãn. Các mô hình có xu hướng chọn các mẫu ngẫu nhiên từ tập dữ liệu văn bản đa dạng được sử dụng để huấn luyện chúng, không giống như các mô hình được giám sát được gắn nhãn và xác minh cẩn thận.
Trong bối cảnh này, điều rất quan trọng là phải biết cách hoạt động của các mô hình GenAI, chủ yếu là các kỹ thuật xác suất chỉ dự đoán mã thông báo hoặc mã thông báo tiếp theo. Nó không sử dụng bất kỳ suy nghĩ hợp lý nào để tạo ra mã thông báo tiếp theo, nó chỉ dự đoán mã thông báo hoặc từ tiếp theo có thể có.
Thiếu phản hồi người dùng: LLM không có vòng phản hồi theo thời gian thực để sửa lỗi hoặc tự động tạo lại. Ngoài ra, kiến trúc mô hình có bối cảnh có độ dài cố định hoặc có một bộ mã thông báo rất hữu hạn tại bất kỳ thời điểm nào.
Chiến lược hiệu quả chống lại ảo giác là gì?
Mặc dù không có cách nào dễ dàng để đảm bảo rằng LLM sẽ không bao giờ gây ảo giác, nhưng bạn có thể áp dụng một số kỹ thuật hiệu quả để giảm thiểu chúng ở mức độ đáng kể.
Cung cấp cơ sở kiến thức cụ thể về miền ứng dụng: Giới hạn nội dung trong một lĩnh vực cụ thể liên quan đến một ngành hoặc một không gian kiến thức. Hầu hết việc triển khai của doanh nghiệp đều theo cách này và có rất ít nhu cầu sao chép hoặc xây dựng thứ gì đó gần hơn với ChatGPT hoặc BARD có thể trả lời các câu hỏi về bất kỳ chủ đề đa dạng nào trên hành tinh. Giữ nó theo tên miền cụ thể cũng giúp chúng tôi giảm nguy cơ bị ảo giác bằng cách tinh chỉnh nội dung một cách cẩn thận.
Việc sử dụng các mô hình RAG: Đây là một kỹ thuật rất phổ biến được sử dụng trong nhiều doanh nghiệp triển khai GenAI. Tại MyGPT, chúng tôi thực hiện việc này cho tất cả các trường hợp sử dụng, bắt đầu với cơ sở kiến thức có nguồn gốc từ các tệp PDF, trang web, điểm chia sẻ hoặc wiki hoặc thậm chí cả tài liệu. Về cơ bản, chúng tôi sẽ cùng bạn tạo ra các CSDL véc tơ chứa nội dung kiến thức được xử lý một cách kỹ lưỡng, chia nhỏ chúng và chuyển nó đến LLM đã chọn để tạo phản hồi.
Ngoài ra, chúng tôi cũng áp dụng phương pháp tiếp cận có trọng số để giúp mô hình chọn ra các chủ đề phù hợp nhất trong quá trình tạo phản hồi.
Ghép nối chúng với con người: Luôn luôn cần phải như vậy. Đây là nguyên tắc cần phải tuân thủ để giúp cho GenAI luôn luôn được nâng cao phản ứng thông qua sự can thiệp của con người nhằm cải thiện năng suất và mang lại hiệu quả. Trong các tình huống mà phản hồi của AI là quan trọng đối với khách hàng hoặc doanh nghiệp, hãy nhờ con người xác thực hoặc nâng cao phản hồi.
Mặc dù có một số cách dễ dàng để giảm thiểu và loại bỏ gần như hoàn toàn ảo giác nếu bạn đang làm việc trong bối cảnh Doanh nghiệp, nhưng phương pháp sâu sắc nhất có thể là cách này (luôn dùng con người để kiểm soát và tăng cường).
Không giống như đặc điểm khiêm tốn mà con người mong muốn nhiều, các mô hình GenAI không được xây dựng để nói ‘Tôi không biết’. Đôi khi bạn cảm thấy mọi chuyện chỉ đơn giản như vậy. Thay vào đó, chúng tạo ra phản hồi có khả năng xảy ra cao nhất dựa trên dữ liệu huấn luyện, ngay cả khi có khả năng sai về mặt thực tế.
Tóm lại, cơ hội với GenAI là có thật. Và, dựa trên cách GenAI đang thể hiện sự hiện diện của mình trong các lĩnh vực khác nhau, điều quan trọng hơn là chúng ta phải hiểu những nhược điểm có thể xảy ra.
Biết rằng các mô hình GenAI có thể gây ảo giác, cố gắng hiểu lý do gây ảo giác và một số cách hợp lý để giảm thiểu những điều đó là chìa khóa để đạt được thành công. Biết các giới hạn và có đủ quy định tiêu chuẩn bảo vệ là điều tối quan trọng để cải thiện độ tin cậy và độ tin cậy của kết quả mà GenAI tạo ra.