- Những người sử dụng ChatGPT của OpenAI có thể thực sự thực hiện công việc kém hơn so với những người không sử dụng, nghiên cứu mới từ BCG đã phát hiện.
- Nguyên nhân là do một số người làm việc chấp nhận kết quả đầu ra của trò chuyện AI mà không kiểm tra lỗi.
- Các kết quả của BCG có thể là một câu chuyện cảnh tỉnh đối với những người lao động dựa vào trí tuệ nhân tạo.
Nếu bạn đang sử dụng ChatGPT như một biện pháp rút ngắn thời gian tại nơi làm việc, bạn có thể muốn cẩn trọng hơn.
Sử dụng trí tuệ nhân tạo trong công việc thực tế có thể làm tổn thương hiệu suất công việc của bạn – điều này được nghiên cứu mới từ Tập đoàn Boston Consulting Group phát hiện.
Một nhóm nghiên cứu từ BCG, Harvard, Wharton và MIT đã tiến hành một thử nghiệm để xem sự truy cập vào trí tuệ nhân tạo ảnh hưởng như thế nào đến năng suất và chất lượng công việc của công nhân trí trắng áo.
Để kiểm tra điều này, các nhà nghiên cứu đã ngẫu nhiên phân chia 758 tư vấn viên tại BCG thành ba nhóm: một nhóm không có quyền truy cập vào trí tuệ nhân tạo; một nhóm có quyền truy cập vào ChatGPT được cung cấp bởi GPT-4; và một nhóm có quyền truy cập vào ChatGPT, cùng với các video hướng dẫn và tài liệu về chiến lược kỹ thuật đặt câu hỏi.
Sau khi xác định các tiêu chuẩn hiệu suất cơ bản, các tư vấn viên trong mỗi nhóm đã được giao một trong hai loại nhiệm vụ.
Một loại nhiệm vụ bao gồm 18 công việc nằm “bên trong ranh giới” của những gì mà trí tuệ nhân tạo có thể làm được, như ý tưởng sáng tạo về sản phẩm thức uống hoặc việc xây dựng một kế hoạch kinh doanh chi tiết cho ý tưởng giày mới.
Loại công việc khác chứa nhiều nhiệm vụ mở rộng hơn, nằm “ngoài ranh giới” của khả năng của trí tuệ nhân tạo. Trong khi “các tư vấn viên sẽ xuất sắc” trong những nhiệm vụ này, “trí tuệ nhân tạo sẽ gặp khó khăn mà không có sự hướng dẫn chi tiết,” theo nghiên cứu.
Ví dụ, các tư vấn viên được giao loạt nhiệm vụ này đã được yêu cầu đưa ra các đề xuất cho CEO của một công ty giả định bằng cách sử dụng dữ liệu tài chính nội bộ và cuộc phỏng vấn với những người hiện công tại công ty – thông tin mà trí tuệ nhân tạo không có quyền truy cập.
Các nhà nghiên cứu đã phát hiện sự khác biệt đáng kể trong kết quả của ba nhóm, tùy thuộc vào khả năng truy cập vào ChatGPT.
Đối với các nhiệm vụ “bên trong ranh giới,” các tư vấn viên sử dụng trí tuệ nhân tạo đã “tăng năng suất đáng kể” và “tạo ra kết quả chất lượng đáng kể hơn” so với những người không sử dụng chatbot.
Tuy nhiên, các tư vấn viên sử dụng trí tuệ nhân tạo để hoàn thành các nhiệm vụ “ngoài ranh giới” thì “giảm khả năng tạo ra các giải pháp đúng đắn 19 điểm phần trăm so với những người không sử dụng trí tuệ nhân tạo.” Điều này là do các tư vấn viên có trí tuệ nhân tạo đã được phát hiện sử dụng kết quả của nó mà không phân biệt liệu câu trả lời có đúng hay không.
Những kết quả này thể hiện sự “không đều đặn” trong khả năng của trí tuệ nhân tạo.
Dù các kết quả của nghiên cứu cho thấy rằng trí tuệ nhân tạo là “rất tốt” trong việc giúp con người thực hiện một số nhiệm vụ, Saren Rajendran, một trong những nhà nghiên cứu tham gia vào nghiên cứu này, cho biết trong một email gửi tới Insider rằng con người nên thận trọng khi sử dụng công nghệ này để tránh sai sót.
Các kết quả của BCG đưa ra một câu chuyện cảnh tỉnh cho những người lao động đang nghĩ đến việc sử dụng ChatGPT để giúp họ thực hiện công việc. Kể từ khi ChatGPT ra mắt vào tháng 11 năm trước, những người làm việc trong các ngành công nghiệp khác nhau đã sử dụng chatbot trí tuệ nhân tạo này – đôi khi mà không báo cáo với sếp của họ – để phát triển mã, tạo tài liệu tiếp thị và tạo kế hoạch giảng dạy.
Tuy nhiên, kết quả đầu ra của ChatGPT không hoàn hảo và có thể chứa “hiện tượng thấy mơ hồ.”
Trang công nghệ CNET đã bị chỉ trích vào đầu năm nay sau khi độc giả phát hiện ra rằng một số bài viết do trí tuệ nhân tạo tạo ra chứa sai sót về sự thật.
Cho đến ngày 28 tháng 9, tổ chức theo dõi truyền thông NewsGuard đã xác định có 487 trang web tin tức được tạo ra bằng trí tuệ nhân tạo được coi là “không đáng tin cậy” và thiếu “sự giám sát của con người.”
Trong một quảng cáo cho Google’s Bard, trí tuệ nhân tạo chatbot đã mắc sai sót về sự thật khi được hỏi về Kính viễn vọng Không gian James Webb.
Sai sót được tạo ra bởi trí tuệ nhân tạo có thể chỉ trở nên tồi tệ hơn: Trong một bài báo gần đây, các nhà nghiên cứu trí tuệ nhân tạo đã phát hiện rằng các mô hình trí tuệ nhân tạo tạo ra có thể sớm được đào tạo dựa trên nội dung được tạo ra bởi trí tuệ nhân tạo – một hiện tượng họ gọi là “sụp đổ mô hình.” Kết quả có thể là việc sản xuất ra nhiều đầu ra chất lượng thấp hơn trong tương lai gần.
“Khi giới hạn của khả năng trí tuệ nhân tạo tiếp tục mở rộng, thường là một cách theo cấp số nhân, trách nhiệm để con người chuyên nghiệp điều chỉnh lại hiểu biết của họ về biên giới và cho các tổ chức chuẩn bị cho một thế giới công việc mới kết hợp giữa con người và trí tuệ nhân tạo,” các nhà nghiên cứu viết.