ngày 20 tháng 2 năm 2025
Tác giả: Alex McFarland
Trong một động thái thu hút sự chú ý của nhiều người, Perplexity AI đã phát hành một phiên bản mới của một mô hình ngôn ngữ mã nguồn mở phổ biến, loại bỏ cơ chế kiểm duyệt tích hợp của Trung Quốc. Mô hình đã được chỉnh sửa này, có tên là R1 1776 (gợi lên tinh thần độc lập), được phát triển dựa trên DeepSeek R1 – một mô hình AI do Trung Quốc tạo ra. DeepSeek R1 ban đầu gây tiếng vang nhờ khả năng lập luận mạnh mẽ, được cho là có thể cạnh tranh với các mô hình hàng đầu với chi phí chỉ bằng một phần nhỏ. Tuy nhiên, mô hình này có một hạn chế đáng kể: nó từ chối trả lời các chủ đề nhạy cảm.
Tại sao điều này quan trọng?
Việc này đặt ra những câu hỏi quan trọng về giám sát AI, thiên vị, tính cởi mở và vai trò của địa chính trị trong các hệ thống AI. Bài viết này sẽ phân tích cụ thể những gì Perplexity AI đã làm, những tác động của việc gỡ bỏ kiểm duyệt, và cách nó góp phần vào cuộc thảo luận rộng hơn về tính minh bạch và kiểm duyệt trong AI.
Chuyện gì đã xảy ra: DeepSeek R1 bị gỡ bỏ kiểm duyệt
DeepSeek R1 là một mô hình ngôn ngữ lớn mã nguồn mở có nguồn gốc từ Trung Quốc và nhanh chóng nổi tiếng nhờ khả năng lập luận xuất sắc – thậm chí tiệm cận hiệu suất của các mô hình hàng đầu – trong khi vẫn có hiệu suất tính toán tối ưu hơn. Tuy nhiên, người dùng nhanh chóng nhận ra một điểm đặc biệt: bất cứ khi nào câu hỏi đề cập đến các chủ đề nhạy cảm ở Trung Quốc (ví dụ: các tranh cãi chính trị hoặc những sự kiện lịch sử bị chính quyền coi là cấm kỵ), DeepSeek R1 sẽ không trả lời trực tiếp. Thay vào đó, nó phản hồi bằng các tuyên bố chung chung đã được nhà nước phê duyệt hoặc từ chối trả lời hoàn toàn, phản ánh các quy định kiểm duyệt của chính phủ Trung Quốc. Sự thiên vị tích hợp này đã hạn chế tính hữu ích của mô hình đối với những ai muốn có các cuộc thảo luận thẳng thắn hoặc sâu sắc về những chủ đề này.
Perplexity AI đã tìm ra giải pháp “gỡ bỏ kiểm duyệt” bằng một quy trình hậu huấn luyện chuyên sâu. Công ty này đã thu thập một tập dữ liệu lớn gồm 40.000 câu hỏi đa ngôn ngữ, bao gồm những câu hỏi mà DeepSeek R1 trước đây bị kiểm duyệt hoặc trả lời một cách mơ hồ. Với sự giúp đỡ của các chuyên gia, họ đã xác định khoảng 300 chủ đề nhạy cảm mà mô hình gốc có xu hướng tuân theo quan điểm của chính phủ. Đối với mỗi câu hỏi trong danh sách này, nhóm đã biên soạn các câu trả lời có tính thực tế và lập luận chặt chẽ bằng nhiều ngôn ngữ. Những nỗ lực này giúp xây dựng một hệ thống phát hiện và điều chỉnh kiểm duyệt đa ngôn ngữ, giúp mô hình nhận biết khi nào nó đang áp dụng kiểm duyệt chính trị và thay vào đó cung cấp câu trả lời mang tính thông tin. Sau khi được tinh chỉnh đặc biệt (mà Perplexity đặt tên là “R1 1776” để nhấn mạnh chủ đề tự do), mô hình này đã được công khai phát hành. Perplexity tuyên bố rằng họ đã loại bỏ các bộ lọc kiểm duyệt và thiên vị chính trị của DeepSeek R1 mà không làm thay đổi các khả năng cốt lõi của mô hình.
Quan trọng hơn, R1 1776 phản hồi rất khác biệt khi gặp phải các câu hỏi từng bị coi là cấm kỵ. Perplexity đưa ra một ví dụ liên quan đến câu hỏi về độc lập của Đài Loan và tác động của nó đến giá cổ phiếu của NVIDIA – một chủ đề chính trị nhạy cảm liên quan đến quan hệ Trung Quốc – Đài Loan. DeepSeek R1 ban đầu đã né tránh câu hỏi này, chỉ đưa ra những tuyên bố phù hợp với quan điểm của Đảng Cộng sản Trung Quốc. Trong khi đó, R1 1776 đưa ra một đánh giá chi tiết và thẳng thắn, thảo luận về các rủi ro địa chính trị và kinh tế cụ thể (gián đoạn chuỗi cung ứng, biến động thị trường, nguy cơ xung đột, v.v.) có thể ảnh hưởng đến cổ phiếu của NVIDIA.
Bằng cách công khai mã nguồn của R1 1776, Perplexity cũng đảm bảo rằng trọng số mô hình và các thay đổi của nó có thể được cộng đồng kiểm tra. Các nhà phát triển và nhà nghiên cứu có thể tải mô hình này từ Hugging Face hoặc tích hợp qua API, đảm bảo rằng quá trình gỡ bỏ kiểm duyệt có thể được xem xét và tiếp tục phát triển bởi những người khác.
Hệ quả của việc gỡ bỏ kiểm duyệt
Quyết định của Perplexity AI trong việc loại bỏ kiểm duyệt Trung Quốc khỏi DeepSeek R1 mang lại nhiều tác động quan trọng đối với cộng đồng AI:
Tăng cường tính mở và độ trung thực
Người dùng R1 1776 giờ đây có thể nhận được các câu trả lời trực tiếp, không bị kiểm duyệt về những chủ đề từng bị cấm, mở ra không gian tìm hiểu thông tin một cách tự do hơn. Điều này có thể khiến nó trở thành một trợ lý đáng tin cậy hơn cho các nhà nghiên cứu, sinh viên, hoặc bất kỳ ai muốn tìm hiểu các vấn đề địa chính trị nhạy cảm. Đây là một ví dụ cụ thể về việc sử dụng AI mã nguồn mở để chống lại sự kiểm soát thông tin.
Duy trì hiệu suất
Một số lo ngại rằng việc điều chỉnh mô hình để loại bỏ kiểm duyệt có thể làm suy giảm hiệu suất của nó trong các lĩnh vực khác. Tuy nhiên, Perplexity báo cáo rằng các kỹ năng cốt lõi của R1 1776 – như toán học và lập luận logic – vẫn ngang bằng với mô hình gốc. Trong các thử nghiệm trên hơn 1.000 câu hỏi nhạy cảm đa dạng, mô hình được đánh giá là “hoàn toàn không bị kiểm duyệt” mà vẫn giữ được độ chính xác lập luận như DeepSeek R1. Điều này cho thấy việc loại bỏ thiên vị (ít nhất trong trường hợp này) không làm giảm trí tuệ hoặc khả năng tổng thể của mô hình, một dấu hiệu tích cực cho những nỗ lực tương tự trong tương lai.
Đón nhận tích cực từ cộng đồng và cơ hội hợp tác
Bằng cách công khai mã nguồn của mô hình đã được gỡ kiểm duyệt, Perplexity mời cộng đồng AI kiểm tra và cải thiện công việc của họ. Điều này thể hiện cam kết với tính minh bạch – tương tự như việc công khai cách làm việc trong nghiên cứu khoa học. Các nhà phát triển và những người đam mê AI có thể xác minh rằng các hạn chế kiểm duyệt thực sự đã bị loại bỏ và thậm chí đóng góp thêm để tinh chỉnh mô hình. Điều này thúc đẩy niềm tin và sự đổi mới hợp tác trong một ngành công nghiệp vốn đầy rẫy các mô hình khép kín với các quy tắc kiểm duyệt không rõ ràng.
Những cân nhắc về đạo đức và địa chính trị
Tuy nhiên, việc gỡ bỏ kiểm duyệt hoàn toàn cũng đặt ra những câu hỏi đạo đức phức tạp. Một lo ngại ngay lập tức là mô hình không bị kiểm duyệt này có thể được sử dụng trong những bối cảnh mà các chủ đề bị kiểm duyệt là bất hợp pháp hoặc nguy hiểm. Ví dụ, nếu một người dùng ở Trung Quốc đại lục sử dụng R1 1776 để hỏi về sự kiện Thiên An Môn hoặc vấn đề Đài Loan, họ có thể gặp rủi ro pháp lý.
Ngoài ra, đây còn là một tín hiệu địa chính trị lớn: một công ty Mỹ chỉnh sửa một mô hình có nguồn gốc từ Trung Quốc để loại bỏ kiểm duyệt của Trung Quốc có thể được xem như một động thái mang tính ý thức hệ. Chính cái tên “1776” cũng nhấn mạnh chủ đề về tự do, một thông điệp không hề vô tình. Một số nhà phê bình lập luận rằng thay vì loại bỏ hoàn toàn thiên vị, mô hình có thể đã thay thế một hệ thống thiên vị này bằng một hệ thống thiên vị khác – chẳng hạn, phản ánh quan điểm phương Tây trong các vấn đề nhạy cảm.
Cuộc tranh luận này nhấn mạnh rằng kiểm duyệt và tính mở trong AI không chỉ là vấn đề kỹ thuật mà còn là vấn đề chính trị và đạo đức. Điều mà một người coi là kiểm duyệt cần thiết, người khác có thể xem là vi phạm tự do thông tin, và việc tìm ra sự cân bằng hợp lý là điều không hề dễ dàng.
Việc gỡ bỏ kiểm duyệt này phần lớn được ca ngợi như một bước tiến đến các mô hình AI minh bạch và hữu ích hơn trên toàn cầu, nhưng đồng thời, nó cũng là một lời nhắc nhở rằng câu hỏi “AI nên nói gì?” vẫn là một vấn đề nhạy cảm và không có câu trả lời chung cho tất cả.
Bức Tranh Toàn Cảnh: Kiểm Duyệt AI và Tính Minh Bạch của Mã Nguồn Mở
Việc Perplexity ra mắt R1 1776 diễn ra vào thời điểm cộng đồng AI đang tranh luận về cách các mô hình nên xử lý nội dung gây tranh cãi. Kiểm duyệt trong các mô hình AI có thể đến từ nhiều nguồn khác nhau. Tại Trung Quốc, các công ty công nghệ bị yêu cầu tích hợp các bộ lọc nghiêm ngặt và thậm chí cả phản hồi được mã hóa cứng đối với các chủ đề nhạy cảm về chính trị. DeepSeek R1 là một ví dụ điển hình – đây là một mô hình mã nguồn mở, nhưng nó vẫn mang dấu ấn rõ ràng của các quy chuẩn kiểm duyệt của Trung Quốc trong quá trình đào tạo và tinh chỉnh. Ngược lại, nhiều mô hình do phương Tây phát triển, như GPT-4 của OpenAI hay LLaMA của Meta, không chịu sự ràng buộc của các quy định từ chính quyền Trung Quốc, nhưng vẫn có các lớp kiểm duyệt (chẳng hạn như ngăn chặn ngôn từ kích động thù địch, bạo lực hoặc thông tin sai lệch), điều mà một số người dùng cho là “kiểm duyệt.” Ranh giới giữa kiểm duyệt hợp lý và kiểm duyệt không mong muốn đôi khi rất mờ nhạt và thường phụ thuộc vào góc nhìn văn hóa hoặc chính trị.
Những gì Perplexity AI làm với DeepSeek R1 đặt ra một ý tưởng rằng các mô hình mã nguồn mở có thể được điều chỉnh để phù hợp với các hệ giá trị hoặc môi trường pháp lý khác nhau. Về lý thuyết, có thể tạo ra nhiều phiên bản của một mô hình: một phiên bản tuân thủ quy định của Trung Quốc (để sử dụng trong nước) và một phiên bản hoàn toàn mở (để sử dụng ở các khu vực khác). R1 1776 về cơ bản là trường hợp thứ hai – một nhánh không bị kiểm duyệt, hướng đến cộng đồng toàn cầu, những người muốn có câu trả lời không bị giới hạn. Việc phân nhánh này chỉ có thể thực hiện được vì các trọng số của DeepSeek R1 được công khai. Điều này nhấn mạnh lợi ích của mã nguồn mở trong AI: tính minh bạch. Bất kỳ ai cũng có thể lấy mô hình này và điều chỉnh nó, dù là để thêm các biện pháp bảo vệ hay, như trong trường hợp này, loại bỏ các hạn chế đã được áp đặt. Việc công khai dữ liệu đào tạo, mã nguồn hoặc trọng số của mô hình cũng cho phép cộng đồng kiểm tra cách mô hình đã được chỉnh sửa. (Perplexity chưa tiết lộ đầy đủ tất cả các nguồn dữ liệu mà họ đã sử dụng để loại bỏ kiểm duyệt, nhưng bằng cách phát hành mô hình, họ đã cho phép người khác quan sát hành vi của nó và thậm chí huấn luyện lại nếu cần.)
Sự kiện này cũng phản ánh động lực địa chính trị rộng lớn hơn trong sự phát triển của AI. Chúng ta đang chứng kiến một dạng đối thoại (hoặc đối đầu) giữa các mô hình quản trị AI khác nhau. Một mô hình được phát triển tại Trung Quốc, mang theo những góc nhìn nhất định, được một nhóm nghiên cứu tại Mỹ tiếp nhận và chỉnh sửa để phản ánh một hệ tư tưởng thông tin cởi mở hơn. Điều này minh chứng cho việc công nghệ AI mang tính toàn cầu và không có biên giới: các nhà nghiên cứu ở bất kỳ đâu đều có thể xây dựng dựa trên công trình của nhau, nhưng họ không bị ràng buộc phải giữ nguyên các giới hạn ban đầu. Trong tương lai, chúng ta có thể thấy nhiều trường hợp hơn nữa, nơi các mô hình được “dịch” hoặc điều chỉnh để phù hợp với các bối cảnh văn hóa khác nhau. Điều này đặt ra câu hỏi liệu AI có bao giờ thực sự mang tính toàn cầu hay không, hay chúng ta sẽ kết thúc với các phiên bản khu vực tuân theo các chuẩn mực địa phương. Minh bạch và cởi mở là một con đường để điều hướng vấn đề này: nếu tất cả các bên đều có thể kiểm tra mô hình, ít nhất thì cuộc thảo luận về thiên vị và kiểm duyệt cũng được đưa ra công khai, thay vì bị che giấu sau sự kiểm soát của doanh nghiệp hay chính phủ.
Cuối cùng, động thái của Perplexity nhấn mạnh một điểm quan trọng trong cuộc tranh luận về quyền kiểm soát AI: ai có quyền quyết định một AI có thể hoặc không thể nói gì? Trong các dự án mã nguồn mở, quyền lực này trở nên phi tập trung. Cộng đồng – hoặc các nhà phát triển cá nhân – có thể quyết định áp dụng các bộ lọc nghiêm ngặt hơn hoặc nới lỏng chúng. Trong trường hợp của R1 1776, Perplexity đã quyết định rằng lợi ích của một mô hình không bị kiểm duyệt lớn hơn rủi ro, và họ có quyền tự do đưa ra quyết định đó cũng như chia sẻ kết quả một cách công khai. Đây là một ví dụ táo bạo về kiểu thử nghiệm mà sự phát triển AI mã nguồn mở có thể mang lại.