Tác giả: Alexei Zhukov, Phó Chủ Tịch, Giải Pháp Công Nghệ tại EPAM Systems, Inc
ngày vào ngày 8 tháng 8 năm 2024
Hầu hết các tổ chức ngày nay đều muốn tận dụng các mô hình ngôn ngữ lớn (LLMs) và triển khai các bản thử nghiệm cũng như các tác nhân trí tuệ nhân tạo (AI) để tối ưu hóa chi phí trong quy trình kinh doanh của họ và mang đến những trải nghiệm người dùng mới mẻ và sáng tạo. Tuy nhiên, phần lớn các triển khai này đều là ‘một lần duy nhất’. Kết quả là, các doanh nghiệp gặp khó khăn trong việc đạt được lợi tức đầu tư (ROI) trong nhiều trường hợp sử dụng như vậy.
Trí tuệ nhân tạo sinh tạo (GenAI) hứa hẹn sẽ vượt qua phần mềm như trợ lý (co-pilot). Thay vì chỉ cung cấp hướng dẫn và hỗ trợ cho một chuyên gia (SME), những giải pháp này có thể trở thành các tác nhân SME, thực hiện các hành động một cách tự động. Để các giải pháp GenAI đạt được điều này, các tổ chức phải cung cấp cho chúng kiến thức và trí nhớ bổ sung, khả năng lập kế hoạch và điều chỉnh kế hoạch, cũng như khả năng hợp tác với các tác nhân khác để thực hiện các hành động.
Mặc dù các mô hình đơn lẻ phù hợp trong một số tình huống, đóng vai trò như trợ lý, nhưng kiến trúc tác nhân mở ra cơ hội cho LLMs trở thành các thành phần hoạt động của tự động hóa quy trình kinh doanh. Do đó, các doanh nghiệp nên cân nhắc việc tận dụng các hệ thống đa tác nhân dựa trên LLM (LLM-MA) để tinh gọn quy trình kinh doanh phức tạp và cải thiện ROI.
Hệ Thống LLM-MA Là Gì?
Vậy, hệ thống LLM-MA là gì? Ngắn gọn, mô hình mới này trong công nghệ AI mô tả một hệ sinh thái các tác nhân AI, không phải các thực thể riêng lẻ, làm việc cùng nhau một cách chặt chẽ để giải quyết các thách thức phức tạp.
Các quyết định nên được thực hiện trong nhiều bối cảnh khác nhau, cũng như việc ra quyết định đáng tin cậy giữa con người yêu cầu có chuyên môn. Các hệ thống LLM-MA xây dựng ‘trí tuệ tập thể’ giống như một nhóm con người thông qua nhiều tác nhân chuyên môn tương tác với nhau để đạt được một mục tiêu chung. Nói cách khác, theo cách mà một doanh nghiệp tập hợp các chuyên gia từ các lĩnh vực khác nhau để giải quyết một vấn đề, các hệ thống LLM-MA cũng hoạt động như vậy.
Những yêu cầu của doanh nghiệp là quá lớn đối với một LLM đơn lẻ. Tuy nhiên, bằng cách phân phối khả năng giữa các tác nhân chuyên môn với các kỹ năng và kiến thức độc đáo thay vì để một LLM gánh vác tất cả, các tác nhân này có thể hoàn thành các nhiệm vụ một cách hiệu quả và hiệu suất hơn. Các LLM đa tác nhân thậm chí có thể ‘kiểm tra’ công việc của nhau thông qua xác minh chéo, giảm thiểu ‘ảo tưởng’ để đạt được năng suất và độ chính xác tối đa.
Cụ thể, các hệ thống LLM-MA sử dụng phương pháp chia để trị để có được sự kiểm soát tinh vi hơn đối với các khía cạnh khác của các hệ thống AI mạnh mẽ – đáng chú ý là điều chỉnh tốt hơn cho các tập dữ liệu cụ thể, chọn phương pháp (bao gồm cả AI trước biến thể) cho giải thích tốt hơn, quản trị, bảo mật và độ tin cậy, cũng như sử dụng các công cụ không phải AI như một phần của giải pháp phức tạp. Trong phương pháp chia để trị này, các tác nhân thực hiện các hành động và nhận phản hồi từ các tác nhân và dữ liệu khác, cho phép áp dụng chiến lược thực thi theo thời gian.
Cơ Hội và Trường Hợp Sử Dụng của Hệ Thống LLM-MA
Các hệ thống LLM-MA có thể tự động hóa hiệu quả các quy trình kinh doanh bằng cách tìm kiếm qua các tài liệu có cấu trúc và không có cấu trúc, tạo mã để truy vấn các mô hình dữ liệu và thực hiện các công việc tạo nội dung khác. Các công ty có thể sử dụng hệ thống LLM-MA cho nhiều trường hợp sử dụng khác nhau, bao gồm phát triển phần mềm, mô phỏng phần cứng, phát triển trò chơi (cụ thể là phát triển thế giới), khám phá khoa học và dược phẩm, quy trình quản lý vốn, kinh tế tài chính và giao dịch, v.v.
Một ứng dụng đáng chú ý của các hệ thống LLM-MA là tự động hóa trung tâm cuộc gọi/dịch vụ. Trong ví dụ này, sự kết hợp của các mô hình và các tác nhân lập trình khác sử dụng các quy trình và quy trình đã được xác định trước có thể tự động hóa các tương tác của người dùng cuối và thực hiện phân loại yêu cầu qua văn bản, giọng nói hoặc video. Hơn nữa, các hệ thống này có thể điều hướng con đường giải quyết tối ưu nhất bằng cách tận dụng kiến thức quy trình và SME cùng với dữ liệu cá nhân hóa và kích hoạt các tác nhân loại Retrieval Augmented Generation (RAG) và không phải LLM.
Trong ngắn hạn, hệ thống này sẽ không được tự động hoàn toàn – sẽ có sai sót xảy ra và sẽ cần có sự tham gia của con người. AI chưa sẵn sàng để tái tạo các trải nghiệm giống như con người do sự phức tạp trong việc kiểm tra cuộc trò chuyện tự do chống lại, ví dụ, các mối quan tâm về AI có trách nhiệm. Tuy nhiên, AI có thể được đào tạo trên hàng ngàn phiếu hỗ trợ lịch sử và vòng phản hồi để tự động hóa các phần quan trọng của hoạt động trung tâm cuộc gọi/dịch vụ, nâng cao hiệu quả, giảm thời gian giải quyết phiếu và tăng cường sự hài lòng của khách hàng.
Một ứng dụng mạnh mẽ khác của các LLM đa tác nhân là tạo ra các giao diện hợp tác giữa con người và AI cho các cuộc trò chuyện thời gian thực, giải quyết các nhiệm vụ trước đây không thể thực hiện được. Trí tuệ bầy đàn trò chuyện (CSI), ví dụ, là một phương pháp cho phép hàng ngàn người tham gia các cuộc trò chuyện thời gian thực. Cụ thể, CSI cho phép các nhóm nhỏ đối thoại với nhau trong khi đồng thời các nhóm tác nhân khác tóm tắt các chủ đề cuộc trò chuyện. Sau đó, nó thúc đẩy sự truyền bá nội dung trên cơ thể người lớn hơn, tạo điều kiện cho sự phối hợp của con người ở một quy mô chưa từng có.
An Ninh, AI Có Trách Nhiệm và Những Thách Thức Khác của Các Hệ Thống LLM-MA
Mặc dù các hệ thống LLM-MA mang đến nhiều cơ hội hấp dẫn, một số thách thức xuất hiện khi số lượng tác nhân và quy mô các không gian hành động của chúng gia tăng. Ví dụ, các doanh nghiệp sẽ cần giải quyết vấn đề về những “ảo tưởng” cơ bản, điều này sẽ yêu cầu có sự tham gia của con người – một bên được chỉ định phải chịu trách nhiệm cho các hệ thống tác nhân, đặc biệt là những hệ thống có ảnh hưởng quan trọng, như phát hiện thuốc tự động.
Sẽ có những vấn đề về thiên lệch dữ liệu, điều này có thể phát triển thành thiên lệch trong tương tác. Tương tự, các hệ thống LLM-MA trong tương lai chạy hàng trăm tác nhân sẽ yêu cầu các kiến trúc phức tạp hơn trong khi phải cân nhắc các điểm yếu của LLM khác, dữ liệu và các hoạt động học máy.
Hơn nữa, các tổ chức phải giải quyết các mối quan tâm về an ninh và thúc đẩy các thực hành AI có trách nhiệm (RAI). Số lượng LLM và tác nhân gia tăng sẽ làm tăng diện tấn công cho tất cả các mối đe dọa AI. Các công ty phải phân chia các phần khác nhau của hệ thống LLM-MA thành các tác nhân chuyên môn để kiểm soát tốt hơn các rủi ro truyền thống của LLM, bao gồm các yếu tố an ninh và RAI.
Hơn nữa, khi các giải pháp trở nên phức tạp hơn, các khung quản trị AI cũng phải theo kịp để đảm bảo rằng các sản phẩm AI là đáng tin cậy (tức là, vững chắc, có trách nhiệm, được giám sát và có thể giải thích), cư trú (tức là, an toàn, bảo mật, riêng tư và hiệu quả) và có trách nhiệm (tức là, công bằng, đạo đức, bao trùm, bền vững và có mục đích). Sự gia tăng độ phức tạp cũng sẽ dẫn đến các quy định chặt chẽ hơn, làm cho việc an ninh và RAI trở thành một phần quan trọng của mỗi trường hợp kinh doanh và thiết kế giải pháp ngay từ đầu, cũng như các bản cập nhật chính sách liên tục, đào tạo và giáo dục doanh nghiệp và các chiến lược TEVV (kiểm tra, đánh giá, xác minh và chứng nhận).
Khai Thác Giá Trị Đầy Đủ Từ Hệ Thống LLM-MA: Cân Nhắc Về Dữ Liệu
Để các doanh nghiệp khai thác giá trị đầy đủ từ hệ thống LLM-MA, họ phải nhận thức rằng các LLM, tự chúng, chỉ có kiến thức chung về lĩnh vực. Tuy nhiên, các LLM có thể trở thành các sản phẩm AI tạo giá trị khi chúng dựa vào kiến thức lĩnh vực của doanh nghiệp, thường bao gồm các tài sản dữ liệu phân biệt, tài liệu doanh nghiệp, kiến thức SME và thông tin thu thập từ các nguồn dữ liệu công cộng.
Các doanh nghiệp phải chuyển từ việc tập trung vào dữ liệu, nơi dữ liệu hỗ trợ báo cáo, sang tập trung vào AI, nơi các nguồn dữ liệu kết hợp để trao quyền cho AI trở thành một tác nhân trong hệ sinh thái doanh nghiệp. Do đó, khả năng của các công ty trong việc xây dựng và quản lý các tài sản dữ liệu chất lượng cao phải mở rộng đến các loại dữ liệu mới này. Tương tự, các tổ chức cần hiện đại hóa cách tiếp cận tiêu thụ dữ liệu và thông tin của mình, thay đổi mô hình hoạt động và giới thiệu các quy định kết hợp dữ liệu, AI và RAI.
Từ góc độ công cụ, GenAI có thể cung cấp thêm sự trợ giúp liên quan đến dữ liệu. Cụ thể, các công cụ GenAI có thể tạo ra các từ điển, tạo siêu dữ liệu, trích xuất các tín hiệu dữ liệu, hiểu các sơ đồ dữ liệu phức tạp, tự động hóa việc di chuyển dữ liệu và thực hiện chuyển đổi dữ liệu. GenAI cũng có thể được sử dụng để nâng cao chất lượng dữ liệu và đóng vai trò là các chuyên gia quản trị cũng như các trợ lý hoặc tác nhân bán tự động. Hiện nay, nhiều tổ chức đã sử dụng GenAI để giúp dân chủ hóa dữ liệu, như thấy trong các khả năng ‘nói chuyện với dữ liệu của bạn’.
Chấp Nhận Liên Tục Thay Đổi Trong Thời Đại AI
Một LLM không tự nó mang lại giá trị hoặc đạt được ROI tích cực mà là một phần của các ứng dụng tập trung vào kết quả kinh doanh. Thách thức là, khác với quá khứ, khi các khả năng công nghệ của LLM có phần được biết đến, ngày nay, các khả năng mới xuất hiện hàng tuần và đôi khi hàng ngày, hỗ trợ các cơ hội kinh doanh mới. Thêm vào đó là một môi trường quy định và tuân thủ đang thay đổi không ngừng, làm cho khả năng thích ứng nhanh chóng trở nên quan trọng đối với sự thành công.
Sự linh hoạt cần thiết để tận dụng những cơ hội mới này yêu cầu các doanh nghiệp phải thay đổi tư duy từ cách làm việc theo kiểu silo sang hợp tác, thúc đẩy mức độ thích ứng cao nhất trên công nghệ, quy trình và con người trong khi thực hiện quản lý dữ liệu vững chắc và đổi mới có trách nhiệm. Cuối cùng, các công ty chấp nhận những mô hình mới này sẽ dẫn đầu làn sóng chuyển đổi kỹ thuật số tiếp theo.