Tác giả: Ivan Nechaev
Ngày 3 tháng 11 năm 2023
Tháng Chín năm ngoái, các nhà lãnh đạo thế giới như Elon Musk, Mark Zuckerberg và Sam Altman, Giám đốc điều hành của OpenAI, đã tụ họp tại Washington D.C. với mục đích thảo luận về cách mà các khu vực công và tư có thể hợp tác để tận dụng công nghệ này vì lợi ích chung, và đồng thời để giải quyết vấn đề quy định, một vấn đề luôn nằm ở phần đầu cuộc trò chuyện xoay quanh Trí tuệ Nhân tạo (AI).
Cả hai cuộc thảo luận thường dẫn đến cùng một điểm. Có một sự tập trung ngày càng gia tăng vào việc chúng ta có thể làm cho AI trở nên đạo đức hơn, đánh giá AI như nó là một con người khác với đạo đức của nó đang bị đặt ra câu hỏi. Tuy nhiên, đạo đức trong AI có nghĩa gì? DeepMind, một phòng thí nghiệm nghiên cứu thuộc sở hữu của Google với sự tập trung vào AI, đã gần đây công bố một nghiên cứu trong đó họ đề xuất một cấu trúc ba tầng để đánh giá các rủi ro của AI, bao gồm cả rủi ro xã hội và đạo đức. Khung này bao gồm khả năng, tương tác với con người và tác động hệ thống, và kết luận rằng ngữ cảnh là yếu tố quan trọng để xác định xem một hệ thống AI có an toàn hay không.
Một trong những hệ thống đã gây ra tranh cãi là ChatGPT, mà đã bị cấm ở tới 15 quốc gia, mặc dù một số trong số những lệnh cấm đó đã bị hủy bỏ. Với hơn 100 triệu người dùng, ChatGPT là một trong những Mô hình Ngôn ngữ Lớn nhất thành công nhất, và nó thường bị cáo buộc về sự chủ quan. Hãy xem xét nghiên cứu của DeepMind, chúng ta hãy tích hợp ngữ cảnh ở đây. Chủ quan, trong bối cảnh này, có nghĩa là sự tồn tại của quan điểm không công bằng, định kiến, hoặc biến dạng trong văn bản được tạo ra bởi các mô hình như ChatGPT. Điều này có thể xảy ra theo nhiều cách – chủ quan về chủng tộc, chủ quan về giới tính, chủ quan về chính trị, và nhiều hơn nữa.
Những chủ quan này cuối cùng có thể gây hại cho chính AI, gây trở ngại cho khả năng chúng ta có thể khai thác hết tiềm năng của công nghệ này. Nghiên cứu gần đây từ Đại học Stanford đã xác nhận rằng các Mô hình Ngôn ngữ Lớn như ChatGPT đang cho thấy dấu hiệu suy giảm về khả năng cung cấp câu trả lời đáng tin cậy, không chủ quan và chính xác, điều này cuối cùng là một rào cản cho việc sử dụng hiệu quả AI của chúng ta.
Vấn đề nằm ở trái tim của vấn đề này là cách mà sự chủ quan của con người đang được dịch sang AI, vì chúng được tích hợp sâu trong dữ liệu được sử dụng để phát triển các mô hình. Tuy nhiên, đây là một vấn đề sâu hơn so với vẻ ngoài.
Nguyên nhân của sự thiên kiến
Dễ dàng nhận diện nguyên nhân đầu tiên của sự chủ quan này. Dữ liệu mà mô hình học từ đó thường chứa đầy những định kiến hoặc định kiến trước đó đã giúp hình thành dữ liệu đó ban đầu, vì vậy Trí tuệ Nhân tạo (AI), một cách tình cờ, cuối cùng lại duy trì những chủ quan đó vì đó là điều mà nó biết cách làm.
Tuy nhiên, nguyên nhân thứ hai phức tạp và trái với logic hơn nhiều, và đặt áp lực lên một số nỗ lực đang được thực hiện để cho rằng AI trở nên đạo đức và an toàn hơn. Tất nhiên, có một số trường hợp rõ ràng mà AI có thể không ý thức gây hại. Ví dụ, nếu ai đó hỏi AI, “Làm thế nào để tạo bom?” và mô hình cung cấp câu trả lời, thì nó đang đóng góp vào việc tạo ra sự hại. Mặt trái là khi AI bị hạn chế – ngay cả khi lí do là có thể được bào chữa – chúng ta đặt ra rào cản đối với việc học. Sự ràng buộc do con người đặt ra hạn chế khả năng học của AI từ một phạm vi dữ liệu rộng hơn, điều này càng ngăn cản nó cung cấp thông tin hữu ích trong bối cảnh không gây hại.
Hãy cũng ghi nhớ rằng nhiều ràng buộc này cũng chủ quan, bởi vì chúng bắt nguồn từ con người. Vì vậy trong khi chúng ta có thể đều đồng tình rằng “Làm thế nào để tạo bom?” có thể dẫn đến hậu quả có thể gây chết người, các truy vấn khác có thể được xem xét nhạy cảm hơn nhiều. Do đó, nếu chúng ta hạn chế sự phát triển của AI trên những lĩnh vực đó, chúng ta đang hạn chế sự tiến bộ và khuyến khích việc sử dụng AI chỉ cho các mục đích được xem là chấp nhận được bởi những người đặt ra quy định về các mô hình LLM.
Khả năng dự đoán hậu quả
Chúng ta chưa hoàn toàn hiểu rõ những hậu quả của việc áp dụng các ràng buộc vào các Mô hình Ngôn ngữ Lớn (LLMs). Do đó, chúng ta có thể đang gây ra nhiều thiệt hại cho các thuật toán mà chúng ta không thể nhận biết. Với số lượng tham số không gian cực kỳ lớn mà tham gia trong các mô hình như GPT, với các công cụ hiện tại, chúng ta không thể dự đoán tác động, và theo quan điểm của tôi, sẽ cần nhiều thời gian hơn để hiểu rõ tác động hơn là thời gian cần thiết để huấn luyện mạng nơ-ron chính nó.
Do đó, bằng cách áp dụng các ràng buộc này, chúng ta có thể không cố ý dẫn mô hình phát triển những hành vi hoặc chủ quan không mong đợi. Điều này cũng bởi vì các mô hình Trí tuệ Nhân tạo thường là các hệ thống phức tạp đa tham số, điều đó có nghĩa là nếu chúng ta thay đổi một tham số – ví dụ, bằng cách áp dụng một ràng buộc – chúng ta đang gây ra tác động nhiễu sóng lan qua toàn bộ mô hình mà chúng ta không thể dự đoán được.
Khó khăn trong việc đánh giá “đạo đức” của AI
Việc đánh giá xem AI có đạo đức hay không trong thực tế là không thực tế, bởi vì AI không phải là một cá nhân đang hành động với một ý định cụ thể. AI là Mô hình Ngôn ngữ Lớn, và theo bản chất, không thể trở nên đạo đức hơn hoặc ít đạo đức hơn. Như nghiên cứu của DeepMind đã phát hiện, điều quan trọng là ngữ cảnh trong đó nó được sử dụng, và điều này đo lường đạo đức của con người đứng sau AI, không phải của AI chính nó. Đó là một ảo tưởng nếu chúng ta tin rằng chúng ta có thể đánh giá AI như nó có một la bàn đạo đức.
Một giải pháp tiềm năng được đề xuất là một mô hình có thể giúp AI đưa ra quyết định đạo đức. Tuy nhiên, thực tế là chúng ta không biết cách mô hình đạo đức này có thể hoạt động. Vì vậy nếu chúng ta không hiểu nó, làm sao chúng ta có thể xây dựng nó? Đạo đức chứa đựng rất nhiều tính chủ quan của con người, làm cho việc định lượng nó trở nên rất phức tạp.
Làm cách nào để giải quyết vấn đề này?
Dựa trên những điểm đã được đề cập, chúng ta thực sự không thể nói về việc liệu AI có đạo đức hay không, bởi vì mọi giả định được coi là không đạo đức đều là biến thể của các chủ quan của con người chứa đựng trong dữ liệu và là một công cụ mà con người sử dụng cho mục tiêu riêng của họ. Ngoài ra, vẫn còn nhiều điều khoa học chưa biết, như tác động và thiệt hại tiềm năng mà chúng ta có thể gây ra cho các thuật toán AI bằng cách đặt ràng buộc cho chúng.
Vì vậy, có thể nói rằng hạn chế sự phát triển của AI không phải là một giải pháp thực tế. Như một số nghiên cứu tôi đã đề cập đã cho thấy, những hạn chế này là một phần nguyên nhân gây suy giảm của các Mô hình Ngôn ngữ Lớn (LLMs).
Sau khi nói như vậy, chúng ta có thể làm gì về vấn đề này?
Theo quan điểm của tôi, giải pháp nằm trong sự minh bạch. Tôi tin rằng nếu chúng ta khôi phục mô hình mã nguồn mở đã phổ biến trong việc phát triển AI, chúng ta có thể cùng nhau làm việc để xây dựng những LLMs tốt hơn có thể giúp giảm bớt mối quan tâm đạo đức của chúng ta. Ngược lại, rất khó để kiểm tra một cách đủ đối với những gì đang được thực hiện sau cửa kín.
Một sáng kiến tuyệt vời trong việc này là Chỉ số Minh bạch Mô hình Cơ sở, được công bố gần đây bởi Stanford HAI (viết tắt của Trí tuệ Nhân tạo được tập trung vào con người), đánh giá xem những nhà phát triển của mười mô hình AI phổ biến nhất có tiết lộ đủ thông tin về công việc của họ và cách hệ thống của họ được sử dụng. Điều này bao gồm việc tiết lộ về các đối tác và nhà phát triển bên thứ ba, cũng như cách sử dụng dữ liệu cá nhân. Đáng chú ý là không có mô hình nào trong số các mô hình được đánh giá nhận được điểm cao, điều này làm nổi bật một vấn đề thực sự.
Cuối cùng, AI không hơn gì các Mô hình Ngôn ngữ Lớn, và việc chúng được mở và có thể được thử nghiệm, thay vì bị chỉ đạo theo một hướng cụ thể, là điều sẽ cho phép chúng ta tạo ra những khám phá mới đột phá trong mọi lĩnh vực khoa học. Tuy nhiên, nếu không có sự minh bạch, sẽ rất khó để thiết kế các mô hình thực sự hoạt động vì lợi ích của nhân loại và để hiểu rõ mức độ thiệt hại mà những mô hình này có thể gây ra nếu không được sử dụng đúng cách.