Tác giả: Kathy Baxter và Yoav Schlesinger
Ngày 06 tháng 06 năm 2023
Tóm tắt: Trí tuệ nhân tạo tạo ra (AI) dựa trên khả năng tạo ra thông tin đã trở nên phổ biến, nhưng việc sử dụng trong doanh nghiệp đến một mức độ nào đó mang theo những rủi ro về đạo đức. Các tổ chức cần ưu tiên việc sử dụng trí tuệ nhân tạo tạo sinh có trách nhiệm bằng cách đảm bảo chính xác, an toàn, trung thực, hỗ trợ và bền vững. Các tổ chức cần chú ý đến những tác động đạo đức và thực hiện các biện pháp cần thiết để giảm thiểu rủi ro. Cụ thể, họ cần: sử dụng dữ liệu của chính họ, duy trì dữ liệu mới và được gán nhãn đầy đủ, đảm bảo nhân sự tham gia trong quá trình hoạt động, kiểm tra và kiểm tra lại, và thu thập phản hồi theo thời gian.
Các nhà lãnh đạo doanh nghiệp, học giả, nhà hoạch định chính trị và vô số người khác đang tìm cách tận dụng công nghệ trí tuệ nhân tạo tạo ra, có tiềm năng biến đổi cách chúng ta học hỏi, làm việc và nhiều lĩnh vực khác. Trong lĩnh vực kinh doanh, trí tuệ nhân tạo tạo ra có khả năng thay đổi cách các công ty tương tác với khách hàng và thúc đẩy sự phát triển kinh doanh. Nghiên cứu mới cho thấy 67% những nhà lãnh đạo công nghệ thông tin cấp cao đang ưu tiên sử dụng trí tuệ nhân tạo tạo ra cho doanh nghiệp của họ trong vòng 18 tháng tới, với một phần ba (33%) xác định nó là một ưu tiên hàng đầu. Các công ty đang khám phá cách nó có thể ảnh hưởng đến mọi phần trong doanh nghiệp, bao gồm bán hàng, dịch vụ khách hàng, tiếp thị, thương mại, công nghệ thông tin, pháp lý, nhân sự và các lĩnh vực khác.
Tuy nhiên, các nhà lãnh đạo công nghệ thông tin cấp cao cần một cách đáng tin cậy và bảo mật dữ liệu để nhân viên của họ có thể sử dụng những công nghệ này. Bảy mươi chín phần trăm (79%) những nhà lãnh đạo công nghệ thông tin cấp cao báo cáo rằng họ lo ngại rằng những công nghệ này mang theo tiềm năng về rủi ro về an ninh, và 73% khác lo ngại về kết quả có sự thiên vị. Nói chung, các tổ chức cần nhận thức về sự cần thiết để đảm bảo sử dụng đạo đức, minh bạch và có trách nhiệm của những công nghệ này.
Một doanh nghiệp sử dụng công nghệ trí tuệ nhân tạo tạo ra trong môi trường doanh nghiệp khác biệt hoàn toàn so với người tiêu dùng sử dụng nó cho mục đích sử dụng cá nhân và riêng tư. Các doanh nghiệp cần tuân theo các quy định phù hợp với ngành công nghiệp của họ (ví dụ: lĩnh vực chăm sóc sức khỏe), và có một vùng đất mìn với các tác động pháp lý, tài chính và đạo đức nếu nội dung được tạo ra không chính xác, không truy cập được hoặc gây thất vọng. Ví dụ, rủi ro gây hại khi một trợ lý ảo trí tuệ nhân tạo tạo ra cung cấp các bước chỉ dẫn không chính xác cho việc nấu một món ăn thấp hơn nhiều so với khi nó cung cấp hướng dẫn cho một công nhân dịch vụ tại hiện trường để sửa chữa một máy móc nặng. Nếu không thiết kế và triển khai với hướng dẫn đạo đức rõ ràng, trí tuệ nhân tạo tạo ra có thể gây ra những hậu quả không mong muốn và có thể gây hại thực sự.
Các tổ chức cần một khung làm việc rõ ràng và có thể thực hiện được về cách sử dụng trí tuệ nhân tạo tạo sinh và để điều chỉnh các mục tiêu của họ về trí tuệ nhân tạo tạo sinh với “công việc cần làm” của họ, bao gồm cách trí tuệ nhân tạo tạo sinh sẽ ảnh hưởng đến công việc bán hàng, tiếp thị, thương mại, dịch vụ và công nghệ thông tin.
Năm 2019, chúng tôi đã công bố các nguyên tắc AI đáng tin cậy của chúng tôi (minh bạch, công bằng, có trách nhiệm, có trách nhiệm và đáng tin cậy), nhằm hướng dẫn việc phát triển các công cụ AI đạo đức. Những nguyên tắc này có thể áp dụng cho bất kỳ tổ chức nào đầu tư vào lĩnh vực AI. Nhưng những nguyên tắc này chỉ đi xa đến mức nào đó nếu tổ chức thiếu một thực hành AI đạo đức để biến chúng thành hoạt động trong việc phát triển và áp dụng công nghệ AI. Một thực hành AI đạo đức trưởng thành biến nguyên tắc hoặc giá trị của nó thành hiện thực thông qua việc phát triển và triển khai sản phẩm có trách nhiệm – kết hợp các lĩnh vực như quản lý sản phẩm, khoa học dữ liệu, kỹ thuật, quyền riêng tư, pháp lý, nghiên cứu người dùng, thiết kế và khả năng tiếp cận – để giảm thiểu các hậu quả tiềm năng và tối đa hóa các lợi ích xã hội của trí tuệ nhân tạo. Có các mô hình cho việc tổ chức có thể bắt đầu, trưởng thành và mở rộng các thực hành này, cung cấp các kế hoạch chi tiết về cách xây dựng cơ sở hạ tầng cho việc phát triển AI đạo đức.
Tuy nhiên, với sự xuất hiện phổ biến – và sự truy cập – của trí tuệ nhân tạo tạo ra, chúng tôi nhận ra rằng các tổ chức cần các hướng dẫn cụ thể liên quan đến những rủi ro cụ thể mà công nghệ này mang lại. Những hướng dẫn này không thay thế nguyên tắc của chúng tôi, mà thay vào đó hoạt động như một ngôi sao phương Bắc cho việc chúng có thể được triển khai và thực hiện trong thực tế khi các doanh nghiệp phát triển sản phẩm và dịch vụ sử dụng công nghệ mới này.
Hướng dẫn phát triển trí tuệ nhân tạo có đạo đức
Bộ hướng dẫn mới của chúng tôi có thể giúp các tổ chức đánh giá các rủi ro và xem xét khiêm tốn của trí tuệ nhân tạo tạo sinh khi những công cụ này được sử dụng rộng rãi. Chúng bao gồm năm lĩnh vực tập trung.
Độ chính xác
Các tổ chức cần có khả năng huấn luyện các mô hình trí tuệ nhân tạo trên dữ liệu của họ để đưa ra kết quả có thể xác minh, cân nhắc giữa độ chính xác, độ chính xác và độ phục hồi (khả năng của mô hình xác định đúng các trường hợp tích cực trong một tập dữ liệu cụ thể). Quan trọng là phải truyền thông khi có sự không chắc chắn liên quan đến các phản ứng của trí tuệ nhân tạo tạo ra và cho phép người dùng xác nhận chúng. Điều này có thể được thực hiện bằng cách trích dẫn các nguồn mà mô hình lấy thông tin từ đó để tạo nội dung, giải thích tại sao trí tuệ nhân tạo đã đưa ra phản ứng đó, làm nổi bật sự không chắc chắn và tạo ra các bức rào bảo vệ ngăn chặn một số nhiệm vụ khỏi việc tự động hoàn toàn.
An toàn
Luôn luôn cố gắng giảm thiểu sự thiên vị, tính độc hại và các đầu ra có hại bằng cách tiến hành các đánh giá về sự thiên vị, tính giải thích và tính mạnh mẽ luôn là ưu tiên trong lĩnh vực trí tuệ nhân tạo. Các tổ chức phải bảo vệ sự riêng tư của mọi thông tin cá nhân có thể xác định được trong dữ liệu được sử dụng để đào tạo để ngăn ngừa hậu quả có thể xảy ra. Hơn nữa, các đánh giá về bảo mật có thể giúp tổ chức xác định các lỗ hổng có thể bị kẻ xấu lợi dụng (ví dụ: cuộc tấn công chèn tên lệnh “làm bất cứ điều gì ngay bây giờ” đã được sử dụng để bỏ qua các rào cản bảo vệ của ChatGPT).
Trung thực
Khi thu thập dữ liệu để đào tạo và đánh giá các mô hình của chúng tôi, tôn trọng nguồn gốc dữ liệu và đảm bảo có sự đồng ý để sử dụng dữ liệu đó. Điều này có thể được thực hiện bằng cách tận dụng dữ liệu nguồn mở và dữ liệu do người dùng cung cấp. Và khi tự động cung cấp các đầu ra, điều cần thiết là phải minh bạch rằng một trí tuệ nhân tạo đã tạo ra nội dung. Điều này có thể được thực hiện thông qua việc đặt dấu thương hiệu trên nội dung hoặc thông qua tin nhắn trong ứng dụng.
Hỗ trợ
Mặc dù có một số trường hợp nơi việc tự động hóa quy trình là tốt nhất, trí tuệ nhân tạo thường nên đóng vai trò hỗ trợ. Hiện nay, trí tuệ nhân tạo tạo ra là một trợ thủ xuất sắc. Trong các ngành nghề mà việc xây dựng niềm tin là một ưu tiên hàng đầu, như tài chính hoặc chăm sóc sức khỏe, quan trọng là con người phải tham gia vào quá trình ra quyết định – với sự hỗ trợ của những thông tin dựa trên dữ liệu mà một mô hình trí tuệ nhân tạo có thể cung cấp – để xây dựng niềm tin và duy trì tính minh bạch. Ngoài ra, đảm bảo các đầu ra của mô hình có thể tiếp cận cho tất cả mọi người (ví dụ: tạo văn bản ALT để đi kèm với hình ảnh, đầu ra văn bản có thể tiếp cận bằng máy đọc màn hình). Và tất nhiên, cần phải đối xử với người đóng góp nội dung, người tạo ra và người đánh dấu dữ liệu một cách tôn trọng (ví dụ: trả lương công bằng, đồng thuận để sử dụng công việc của họ).
Bền vững
Các mô hình ngôn ngữ được mô tả là “lớn” dựa trên số lượng tham số mà chúng sử dụng. Một số trong những mô hình ngôn ngữ lớn này (Large Language Models – LLMs) có hàng trăm tỷ tham số và tiêu tốn rất nhiều năng lượng và nước để đào tạo chúng. Ví dụ, GPT-3 đã tiêu tốn 1,287 gigawatt-giờ, tương đương với lượng điện cung cấp cho 120 ngôi nhà tại Hoa Kỳ trong một năm, và 700,000 lít nước sạch.
Khi xem xét các mô hình trí tuệ nhân tạo, kích thước lớn không luôn đồng nghĩa với tốt hơn. Trong quá trình phát triển các mô hình của riêng chúng tôi, chúng tôi sẽ cố gắng làm giảm kích thước của mô hình trong khi tối đa hóa độ chính xác bằng cách đào tạo trên lượng dữ liệu CRM chất lượng lớn. Điều này sẽ giúp giảm thiểu dấu chân carbon bởi vì cần ít tính toán hơn, điều này đồng nghĩa với ít tiêu thụ năng lượng từ các trung tâm dữ liệu và lượng khí thải carbon thấp hơn.
Tích hợp trí tuệ nhân tạo tạo sinh vào doanh nghiệp
Hầu hết các tổ chức sẽ tích hợp các công cụ trí tuệ nhân tạo tạo sinh thay vì xây dựng riêng của họ. Dưới đây là một số lời khuyên cụ thể để tích hợp một cách an toàn trí tuệ nhân tạo tạo ra vào các ứng dụng doanh nghiệp để thúc đẩy kết quả kinh doanh:
Sử dụng dữ liệu bên thứ nhất hoặc dữ liệu tự nguyện
Các công ty nên đào tạo các công cụ trí tuệ nhân tạo tạo ra bằng cách sử dụng dữ liệu bên thứ nhất hoặc dữ liệu tự nguyện – đó là dữ liệu mà khách hàng chia sẻ một cách tự nguyện – và dữ liệu bên thứ nhất, mà họ thu thập trực tiếp. Sự xuất xứ mạnh mẽ của dữ liệu là yếu tố quan trọng để đảm bảo các mô hình đúng, sáng tạo và đáng tin cậy. Dựa vào dữ liệu từ bên thứ ba, hoặc thông tin thu được từ các nguồn bên ngoài, để đào tạo các công cụ trí tuệ nhân tạo tạo ra sẽ làm khó khăn trong việc đảm bảo rằng đầu ra là chính xác.
Ví dụ, các công ty dữ liệu có thể có dữ liệu cũ, kết hợp dữ liệu từ các thiết bị hoặc tài khoản không thuộc về cùng một người một cách không chính xác, và/hoặc đưa ra các kết luận không chính xác dựa trên dữ liệu. Điều này cũng áp dụng cho khách hàng của chúng tôi khi chúng tôi đặt mô hình trên dữ liệu của họ. Ví dụ, trong Marketing Cloud, nếu dữ liệu trong CRM của một khách hàng đến từ các công ty môi giới dữ liệu, thì việc cá nhân hóa có thể sai lệch.
Duy trì dữ liệu mới và được gắn nhãn một cách cẩn thận
Trí tuệ nhân tạo chỉ tốt như dữ liệu nó được đào tạo. Các mô hình tạo ra phản hồi cho các câu hỏi hỗ trợ khách hàng sẽ tạo ra kết quả không chính xác hoặc lỗi thời nếu nội dung mà nó được xây dựng trên đó cũ, không đầy đủ và không chính xác. Điều này có thể dẫn đến hiện tượng “ảo giác”, trong đó mô hình tự tin khẳng định một thông tin sai là thật. Dữ liệu đào tạo chứa thiên vị sẽ dẫn đến việc tạo ra các công cụ trí tuệ nhân tạo tự lan truyền sự thiên vị.
Các công ty phải xem xét tất cả các bộ dữ liệu và tài liệu sẽ được sử dụng để đào tạo các mô hình và loại bỏ các yếu tố thiên vị, độc hại và sai lệch. Quá trình tạo ra dữ liệu đúng và chính xác là quan trọng cho các nguyên tắc về an toàn và độ chính xác.
Đảm bảo có sự tham gia của con người
Chỉ vì một điều gì đó có thể được tự động hóa không có nghĩa là nó nên được tự động hóa. Các công cụ trí tuệ nhân tạo tạo sinh không phải lúc nào cũng có khả năng hiểu được ngữ cảnh cảm xúc hoặc kinh doanh, hoặc biết khi chúng sai hoặc gây hại.
Con người cần tham gia để xem xét đầu ra để đảm bảo tính chính xác, phát hiện thiên vị và đảm bảo rằng các mô hình hoạt động như dự kiến. Rộng hơn, trí tuệ nhân tạo tạo sinh nên được xem xét như một cách để tăng cường khả năng của con người và bổ trợ cộng đồng, chứ không phải thay thế hoặc đánh đuổi họ.
Các công ty đóng một vai trò quan trọng trong việc áp dụng trí tuệ nhân tạo tạo sinh một cách có trách nhiệm và tích hợp các công cụ này một cách tạo ra những trải nghiệm làm việc của nhân viên và khách hàng của họ trở nên tốt hơn, chứ không phải tệ đi. Điều này quay trở lại với việc đảm bảo việc sử dụng trí tuệ nhân tạo một cách có trách nhiệm trong việc duy trì tính chính xác, an toàn, trung thực, tạo điều kiện cho quyền làm việc của mọi người và bền vững, giảm thiểu rủi ro và loại bỏ các kết quả thiên vị. Và cam kết này nên được mở rộng hơn khung cảnh của tổ chức /doanh nghiệp ngay lập tức, bao gồm trách nhiệm rộng lớn đối với xã hội và các thực hành AI đạo đức.
Kiểm tra, kiểm tra và kiểm tra
Trí tuệ nhân tạo tạo ra không thể hoạt động trên cơ sở “làm một lần rồi lãng quên” – các công cụ cần sự giám sát liên tục. Các công ty có thể bắt đầu bằng cách tìm cách tự động hóa quá trình xem xét bằng cách thu thập dữ liệu về hệ thống trí tuệ nhân tạo và phát triển các biện pháp giảm thiểu chuẩn tắc cho các rủi ro cụ thể.
Cuối cùng, con người cũng cần tham gia vào kiểm tra đầu ra để đảm bảo tính chính xác, thiên vị và ảo giác. Các công ty có thể xem xét đầu tư vào đào tạo về đạo đức trong phát triển trí tuệ nhân tạo cho các kỹ sư và quản lý trực tiếp để họ có thể đánh giá các công cụ trí tuệ nhân tạo. Nếu tài nguyên bị hạn chế, họ có thể ưu tiên kiểm tra các mô hình có tiềm năng gây ra thiệt hại nhiều nhất.
Thu nhận phản hồi
Lắng nghe ý kiến của nhân viên, các cố vấn đáng tin cậy và cộng đồng bị ảnh hưởng là điểm quan trọng để xác định các rủi ro và điều chỉnh hướng. Các công ty có thể tạo ra nhiều cách để nhân viên báo cáo những lo ngại, chẳng hạn như một đường dây nói chuyện ẩn danh, hộp thư góp ý, kênh trao đổi trên slack hoặc mạng xã hội riêng biệt hoặc các nhóm tập trung. Tạo động viên cho nhân viên báo cáo vấn đề cũng có thể hiệu quả.
Một số tổ chức đã thành lập các hội đồng tư vấn đạo đức – bao gồm nhân viên từ khắp các bộ phận của công ty, các chuyên gia bên ngoài hoặc sự kết hợp của cả hai – để tham gia vào quá trình phát triển trí tuệ nhân tạo. Cuối cùng, việc duy trì các kênh giao tiếp mở với các bên liên quan trong cộng đồng là quan trọng để tránh những hậu quả không mong muốn.
Với sự phổ biến của trí tuệ nhân tạo tạo sinh, các doanh nghiệp có trách nhiệm đảm bảo rằng họ đang sử dụng công nghệ này một cách đạo đức và giảm thiểu thiệt hại tiềm năng. Bằng việc cam kết với các hướng dẫn và thiết lập rào cản trước, các công ty có thể đảm bảo rằng các công cụ họ triển khai là chính xác, an toàn và đáng tin cậy, và rằng chúng giúp con người phát triển.
Trí tuệ nhân tạo tạo ra đang phát triển nhanh chóng, vì vậy các bước cụ thể mà doanh nghiệp cần thực hiện sẽ thay đổi theo thời gian. Tuy nhiên, tuân thủ một khung đạo đức mạnh mẽ có thể giúp tổ chức điều hướng qua giai đoạn biến đổi nhanh chóng này.
—-
Kathy Baxter là Kiến trúc sư chính của Bộ Phận Trí Tuệ Nhân Tạo Đạo Đức tại Salesforce, đang phát triển các quy tắc tốt nhất được nắm bắt thông qua nghiên cứu để giáo dục các nhân viên của Salesforce, khách hàng và ngành công nghiệp về việc phát triển trí tuệ nhân tạo có trách nhiệm. Cô hợp tác và hợp tác với các chuyên gia về trí tuệ nhân tạo và đạo đức bên ngoài để liên tục cải tiến các chính sách, thực tiễn và sản phẩm của Salesforce. Cô là thành viên của Hội đồng Tư vấn về Việc Sử Dụng Trí Tuệ Nhân Tạo và Dữ Liệu Có Đạo Đức tại Singapore, là Visiting AI Fellow tại NIST và là thành viên Hội đồng của EqualAI. Trước khi gia nhập Salesforce, cô làm việc tại Google, eBay và Oracle trong lĩnh vực Nghiên cứu Kinh nghiệm Người dùng. Cô là tác giả chung của cuốn sách “Understanding Your Users: A Practical Guide to User Research Methodologies.”
Yoav Schlesinger là Kiến trúc sư của Bộ Phận Trí Tuệ Nhân Tạo Đạo Đức tại Salesforce, giúp công ty tích hợp và thiết lập các thực hành sản phẩm đạo đức để tối đa hóa lợi ích xã hội của trí tuệ nhân tạo. Trước khi gia nhập Salesforce, Yoav là thành viên sáng lập của Tech and Society Solutions Lab tại Omidyar Network, nơi ông đã khởi đầu Cuộc thử thách Khoa học Máy tính có Trách nhiệm và giúp phát triển EthicalOS, một bộ công cụ giảm thiểu rủi ro cho quản lý sản phẩm.