Dành đủ thời gian với ChatGPT và các chatbot trí tuệ nhân tạo khác, bạn sẽ nhanh chóng nhận thấy rằng chúng có thể đưa ra những thông tin sai sự thật.
Được mô tả như là sự ảo giác (hanucillation), việc tạo ra thông tin sai lệch hoặc chỉ đơn giản là việc bịa ra những điều không có thật, đây hiện đã trở thành một vấn đề đối với mọi doanh nghiệp, tổ chức và học sinh trung học đang cố gắng sử dụng hệ thống trí tuệ nhân tạo tạo ra tài liệu và hoàn thành công việc. Một số người đang sử dụng nó trong các nhiệm vụ có tiềm năng mang lại hậu quả quan trọng, từ tâm thần trị liệu đến việc nghiên cứu và viết các bản tóm tắt pháp lý.
“Tôi không nghĩ rằng có bất kỳ mô hình nào hiện nay mà không gặp vấn đề về ảo giác,” Daniela Amodei, đồng sáng lập và chủ tịch của Anthropic, nhà sản xuất chatbot Claude 2, nói.
“Các mô hình này thực sự chỉ được thiết kế để dự đoán từ tiếp theo,” Amodei nói. “Vì vậy, sẽ có một tỷ lệ mà mô hình thực hiện điều đó một cách không chính xác.”
Anthropic, OpenAI – nhà sản xuất ChatGPT và các nhà phát triển chính khác của các hệ thống trí tuệ nhân tạo được biết đến với tên gọi là các mô hình ngôn ngữ lớn – cho biết họ đang nỗ lực để làm cho chúng trở nên chân thật hơn.
Thời gian cần thiết cho việc này – và liệu chúng có bao giờ đủ tốt để, ví dụ, an toàn cung cấp lời khuyên y tế – vẫn còn chưa rõ.
“Vấn đề này không thể khắc phục,” Emily Bender, một giáo sư ngôn ngữ học và giám đốc Phòng thí nghiệm Ngôn ngữ học Tính toán tại Đại học Washington, nói. “Nó nằm trong sự không phù hợp giữa công nghệ và các trường hợp sử dụng được đề xuất.”
Có rất nhiều điều phụ thuộc vào tính đáng tin cậy của công nghệ trí tuệ nhân tạo sáng tạo. Viện McKinsey toàn cầu dự đoán rằng nó sẽ đóng góp tương đương từ 2,6 ngàn tỷ đến 4,4 ngàn tỷ đô la vào nền kinh tế toàn cầu. Các chatbot chỉ là một phần của cơn sốt đó, còn bao gồm cả công nghệ có khả năng tạo ra hình ảnh, video, âm nhạc và mã máy tính mới. Gần như tất cả các công cụ đều bao gồm một thành phần ngôn ngữ.
Google đã đang giới thiệu một sản phẩm trí tuệ nhân tạo viết tin tức cho các tổ chức tin tức, trong đó tính chính xác là điều quan trọng nhất. Tổng hợp AP cũng đang khám phá việc sử dụng công nghệ này trong khuôn khổ một sự đối tác với OpenAI, mà OpenAI đang trả tiền để sử dụng một phần lưu trữ văn bản của AP để cải thiện hệ thống trí tuệ nhân tạo của mình.
Phối hợp với các viện quản lý khách sạn ở Ấn Độ, nhà khoa học máy tính Ganesh Bagler đã nỗ lực trong nhiều năm để đưa các hệ thống trí tuệ nhân tạo, bao gồm một phiên bản tiền thân của ChatGPT, để sáng tạo ra các công thức món ăn cho ẩm thực Nam Á, như phiên bản mới của món biryani dựa trên gạo. Một thành phần “ảo giác” duy nhất có thể là sự khác biệt giữa một bữa ăn ngon và một bữa ăn không thể ăn được.
Khi Sam Altman, CEO của OpenAI, thăm Ấn Độ vào tháng 6, giáo sư tại Viện Công nghệ Thông tin Indraprastha Delhi đã đặt ra một số câu hỏi thẳng thừng.
“Tôi đoán những hiện tượng ảo trong ChatGPT vẫn chấp nhận được, nhưng khi một công thức món ăn bị ảo giác, điều đó trở thành một vấn đề nghiêm trọng,” Bagler nói, đứng dậy trong một phòng hội trường đông đúc để đặt câu hỏi cho Altman trong chặng dừng New Delhi của chuyến thăm thế giới của CEO công nghệ Mỹ.
“Ý kiến của bạn là gì?” Bagler cuối cùng đã hỏi.
Altman thể hiện sự lạc quan, dù không phải là cam kết tuyệt đối.
“Tôi nghĩ chúng ta sẽ đưa vấn đề về hiện tượng ảo vào một vị trí tốt hơn rất nhiều,” Altman nói. “Tôi nghĩ chúng ta sẽ cần một năm và một nửa, hai năm. Gần như vậy. Nhưng tại thời điểm đó, chúng ta sẽ không còn nói về những vấn đề như này nữa. Có sự cân bằng giữa sự sáng tạo và độ chính xác hoàn hảo, và mô hình sẽ cần phải học khi bạn muốn cái này hoặc cái khác.”
Nhưng đối với một số chuyên gia đã nghiên cứu công nghệ này, như nhà ngôn ngữ học của Đại học Washington, Bender, những cải tiến này sẽ không đủ.
Bender mô tả một mô hình ngôn ngữ như một hệ thống để “mô phỏng khả năng xảy ra của các chuỗi khác nhau của các dạng từ,” dựa trên một số dữ liệu viết mà nó đã được đào tạo.
Đây là cách mà các công cụ kiểm tra chính tả có thể phát hiện khi bạn đã gõ sai từ. Nó cũng giúp cung cấp sức mạnh cho các dịch vụ dịch và chuyển văn bản tự động, “làm mịn đầu ra để nó trông giống văn bản tiêu chuẩn trong ngôn ngữ đích,” Bender nói. Rất nhiều người phụ thuộc vào một phiên bản của công nghệ này mỗi khi họ sử dụng tính năng “tự động hoàn thành” khi soạn tin nhắn hoặc email.
Những dòng chatbot mới nhất như ChatGPT, Claude 2 hoặc Bard của Google cố gắng đưa điều đó lên một tầm cao mới, bằng cách tạo ra những đoạn văn hoàn toàn mới, nhưng Bender nói rằng chúng vẫn chỉ đơn giản là lặp đi lặp lại việc chọn từ tiếp theo có khả năng cao nhất trong một chuỗi.
Khi được sử dụng để tạo văn bản, mô hình ngôn ngữ “được thiết kế để bịa ra những điều. Đó là tất cả những gì chúng làm,” Bender nói. Chúng giỏi trong việc mô phỏng các dạng văn viết, như hợp đồng pháp lý, kịch bản truyền hình hoặc thơ sonet.
“Tuy nhiên, vì họ luôn luôn chỉ bịa ra những điều, khi văn bản mà họ tạo ra có thể được hiểu như một cái gì đó chúng ta coi là đúng, thì điều đó là ngẫu nhiên,” Bender nói. “Ngay cả khi chúng có thể được điều chỉnh để đúng nhiều hơn trong thời gian, họ vẫn sẽ có các chế độ thất bại – và có lẽ các sự cố sẽ xảy ra ở những trường hợp mà việc người đọc văn bản nhận biết là khó khăn hơn, vì chúng thậm chí còn tối mờ.”
Những lỗi này không phải là một vấn đề lớn đối với các công ty tiếp thị đã đang tìm đến Jasper AI để nhờ giúp đỡ viết các pitch, theo lời của Chủ tịch công ty, Shane Orlick.
“Các hiện tượng ảo thực sự là một phần thưởng bổ sung,” Orlick nói. “Chúng tôi luôn nhận được phản hồi từ khách hàng kể về cách nó sáng tạo ra các ý tưởng – cách mà Jasper tạo ra các góc nhìn về câu chuyện hoặc góc nhìn mà họ sẽ không bao giờ nghĩ tới bằng chính mình.”
Công ty khởi nghiệp đó đặt trụ sở tại Texas hợp tác với các đối tác như OpenAI, Anthropic, Google hoặc Meta – công ty mẹ của Facebook, để cung cấp cho khách hàng của mình một loạt các mô hình ngôn ngữ trí tuệ nhân tạo phù hợp với nhu cầu của họ. Đối với những người quan tâm đến tính chính xác, công ty có thể cung cấp mô hình của Anthropic, trong khi những người quan tâm đến bảo mật của dữ liệu nguồn riêng của họ có thể được cung cấp một mô hình khác, Orlick nói.
Orlick nói rằng anh biết rằng việc sửa lỗi ảo giác sẽ không dễ dàng. Anh đặt hy vọng vào các công ty như Google, mà theo anh phải có một “tiêu chuẩn rất cao về nội dung sự thật” cho công cụ tìm kiếm của mình, để đổ nhiều năng lượng và tài nguyên vào việc tìm ra các giải pháp.
“Tôi nghĩ họ phải sửa vấn đề này,” Orlick nói. “Họ phải giải quyết vấn đề này. Vì vậy, tôi không biết liệu nó có bao giờ hoàn hảo, nhưng có thể nó sẽ tiếp tục được cải thiện theo thời gian.”
Những người lạc quan về công nghệ, bao gồm cả đồng sáng lập Microsoft, Bill Gates, đã dự đoán một tương lai tươi sáng.
“Tôi lạc quan rằng, theo thời gian, các mô hình trí tuệ nhân tạo có thể được dạy để phân biệt sự thật và hư cấu,” Gates nói trong một bài viết blog vào tháng 7, trình bày ý kiến của mình về các rủi ro xã hội của trí tuệ nhân tạo.
Ông đã trích dẫn một bài báo từ OpenAI năm 2022 làm ví dụ về “công việc hứa hẹn ở phía trước này”.
Nhưng thậm chí Altman, khi ông tiếp thị các sản phẩm cho nhiều mục đích sử dụng khác nhau, cũng không hy vọng các mô hình này sẽ trung thực khi ông tìm thông tin cho bản thân.
“Tôi có lẽ tin vào những câu trả lời từ ChatGPT ít nhất so với bất kỳ ai trên trái đất,” Altman nói với đám đông tại trường đại học của Bagler, và mọi người cười.