OpenAI, một trong những người chơi hàng đầu trong lĩnh vực Trí tuệ Nhân tạo, vừa công bố việc thành lập một đội ngũ chuyên biệt để quản lý các rủi ro liên quan đến Trí tuệ Nhân tạo Siêu vượt trí thông minh. Bước tiến này đến vào thời điểm mà các chính phủ trên khắp thế giới đang xem xét cách điều chỉnh các công nghệ Trí tuệ Nhân tạo mới nổi.
Hiểu về Trí tuệ Nhân tạo Siêu việt
Trí tuệ Nhân tạo Siêu vượt đề cập đến những mô hình Trí tuệ Nhân tạo giả định vượt qua những con người tài năng và thông minh nhất ở nhiều lĩnh vực chuyên môn, không chỉ một lĩnh vực đơn như một số mô hình thế hệ trước. OpenAI dự đoán rằng một mô hình như vậy có thể xuất hiện trước khi kết thúc thập kỷ này. Tổ chức này tin rằng siêu trí tuệ có thể là công nghệ có tác động mạnh mẽ nhất mà nhân loại đã từng phát minh, có khả năng giúp chúng ta giải quyết nhiều vấn đề cấp bách nhất trên thế giới. Tuy nhiên, sức mạnh to lớn của siêu trí tuệ cũng có thể mang lại những rủi ro đáng kể, bao gồm khả năng làm suy yếu quyền lực của nhân loại hoặc thậm chí dẫn đến tuyệt chủng của loài người.
Đội ‘Super-alignment’ của OpenAI
Để giải quyết những lo ngại này, OpenAI đã thành lập một đội ‘Superalignment’ mới, do Giám đốc Khoa học của OpenAI, Ilya Sutskever, và Jan Leike, người đứng đầu phòng nghiên cứu về sự phù hợp của tổ chức, đồng lãnh đạo. Đội ngũ này sẽ có truy cập đến 20% sức mạnh tính toán mà OpenAI đã bảo đảm được hiện nay. Mục tiêu của họ là phát triển một nghiên cứu viên về sự phù hợp tự động, một hệ thống có thể giúp OpenAI đảm bảo rằng Trí tuệ Nhân tạo Siêu vượt là an toàn và phù hợp với giá trị của con người.
Mặc dù OpenAI thừa nhận đây là một mục tiêu cực kỳ tham vọng và không đảm bảo thành công, tổ chức này vẫn duy trì tinh thần lạc quan. Những thử nghiệm sơ bộ đã cho thấy triển vọng, và các chỉ số tiến triển ngày càng hữu ích. Hơn nữa, các mô hình hiện tại có thể được sử dụng để nghiên cứu thực nghiệm nhiều trong những vấn đề này.
Sự Cần Thiết của Quy Định
Việc thành lập đội ngũ Superalignment đến vào lúc các chính phủ trên khắp thế giới đang xem xét cách điều chỉnh ngành công nghiệp Trí tuệ Nhân tạo mới nổi. Giám đốc điều hành của OpenAI, Sam Altman, đã gặp ít nhất 100 nghị sĩ liên bang trong những tháng gần đây. Altman đã công khai tuyên bố rằng quy định về Trí tuệ Nhân tạo là “cần thiết” và rằng OpenAI “nhiệt tình” hợp tác với các nhà làm chính sách.
Tuy nhiên, quan điểm này cần được tiếp cận với một chút hoài nghi. Bằng việc tập trung sự chú ý của công chúng vào những rủi ro giả định có thể không bao giờ xảy ra, các tổ chức như OpenAI có thể tiềm ẩn nguy cơ chuyển gánh nặng của việc quy định sang tương lai, thay vì giải quyết các vấn đề cấp bách liên quan đến Trí tuệ Nhân tạo và lao động, thông tin sai lệch và bản quyền mà các nhà làm chính sách cần phải giải quyết ngay bây giờ.
Sáng kiến của OpenAI trong việc thành lập đội ngũ chuyên biệt để quản lý các rủi ro của Trí tuệ Nhân tạo Siêu vượt là một bước tiến quan trọng theo hướng đúng đắn. Điều này nhấn mạnh sự quan trọng của các biện pháp tích cực trong việc đối phó với những thách thức tiềm ẩn từ Trí tuệ Nhân tạo tiên tiến. Khi chúng ta tiếp tục điều hướng qua những phức tạp trong phát triển và quy định của Trí tuệ Nhân tạo, những sáng kiến như thế này nhắc nhở về sự cần thiết của một cách tiếp cận cân đối, một cách tiếp cận kết hợp tiềm năng của Trí tuệ Nhân tạo và đồng thời bảo vệ khỏi những rủi ro của nó.