Meta vừa phát hành mô hình trí tuệ nhân tạo mã nguồn mở Llama 2 vào tuần này, và điều này đã gây nhiều sự chú ý. Llama 2 là một mô hình ngôn ngữ lớn (LLM) có khả năng tạo chatbot tương tự như ChatGPT của OpenAI. Việc phát hành phiên bản mã nguồn mở này nhằm cho phép công chúng sử dụng công khai mô hình này.
Lý do chính mà Meta quyết định phát hành Llama 2 dưới dạng nguồn mở là để làm cho nó trở nên an toàn hơn và tốt hơn. Điều này sẽ có được bằng cách mời gọi sự giám sát từ bên ngoài. Bằng cách biến Llama 2 thành nguồn mở, Meta hy vọng sẽ thu hút sự tham gia của đám đông, và nhờ đó, mô hình này sẽ trở nên an toàn và có chất lượng cao hơn. Nó cũng giúp đưa mô hình ra khỏi tầm kiểm soát của các công ty công nghệ lớn, những công ty hiện đang sở hữu sức mạnh tính toán và kho dự trữ dữ liệu lớn để xây dựng các mô hình AI.
LLM nguồn mở làm gì?
LLM làm nền tảng cho các các công cụ AI như chatbot. Họ được đào tạo về bộ dữ liệu khổng lồ cho phép họ bắt chước ngôn ngữ của con người và thậm chí cả mã lập trình máy tính. Nếu một LLM được tạo thành nguồn mở, điều đó có nghĩa là nội dung của nó được cung cấp miễn phí để mọi người truy cập, sử dụng và điều chỉnh theo mục đích riêng của họ.
Llama 2 đang được phát hành với ba phiên bản, trong đó có một phiên bản có thể được tích hợp vào chatbot AI. Ý tưởng là các công ty khởi nghiệp hoặc doanh nghiệp đã thành lập có thể truy cập các mô hình Llama 2 và sửa đổi chúng để tạo ra các sản phẩm của riêng họ, bao gồm, có khả năng là đối thủ của ChatGPT hoặc chatbot Bard của Google – mặc dù theo sự thừa nhận của chính Meta, Llama 2 không hoàn toàn ở mức GPT- 4, LLM đằng sau ChatGPT của OpenAI.
Có lo ngại về AI mã nguồn mở không?
Cũng có ý kiến cho rằng việc phát hành AI mã nguồn mở cũng mang đến một số lo ngại. Một trong những lo ngại chính là về việc liệu có thể tin tưởng được khi mà mô hình LLM này có thể bị điều chỉnh hay không. Điều này có thể trở nên nguy hiểm, đặc biệt đối với các mô hình nguồn mở, bởi vì bất kỳ ai cũng có thể thay đổi và sử dụng nó cho các mục đích xấu hoặc lạm dụng để tạo ra thông tin sai lệch hoặc thậm chí tạo ra nội dung nguy hiểm đối với người sử dụng.
Các chuyên gia công nghệ bao gồm Elon Musk, người đồng sáng lập OpenAI, đã bày tỏ lo ngại về một cuộc chạy đua vũ trang AI. Nguồn mở làm cho một công cụ mạnh mẽ trong công nghệ này có sẵn cho tất cả mọi người.
Dame Wendy Hall, giáo sư chính quy về khoa học máy tính tại Đại học Southampton, nói với chương trình Today rằng có những câu hỏi về việc liệu ngành công nghệ có thể được tin cậy để tự điều chỉnh LLM hay không, với vấn đề thậm chí còn lớn hơn đối với các mô hình nguồn mở. Cô ấy nói: “Nó giống như đưa cho mọi người một khuôn mẫu để chế tạo bom hạt nhân.
Tiến sĩ Andrew Rogoyski, thuộc Viện AI lấy con người làm trung tâm tại Đại học Surrey, cho biết các mô hình nguồn mở rất khó điều chỉnh. “Bạn không thể thực sự điều tiết nguồn mở. Bạn có thể điều chỉnh các kho lưu trữ, như Github hoặc Hugging Face, theo luật pháp địa phương,” anh ấy nói.
“Bạn có thể đưa ra các điều khoản cấp phép trên phần mềm, nếu bị lạm dụng, có thể khiến công ty lạm dụng phải chịu trách nhiệm dưới nhiều hình thức bồi thường pháp lý. Tuy nhiên, là nguồn mở có nghĩa là bất kỳ ai cũng có thể chạm tay vào nó, vì vậy nó không ngăn được những kẻ xấu lấy phần mềm, cũng như không ngăn được bất kỳ ai lạm dụng nó.”
Meta đã thừa nhận rằng Llama 2 chưa đạt hiệu suất tốt so với mô hình GPT-4 của OpenAI, nhưng vẫn có khả năng cạnh tranh khi được phát hành miễn phí so với GPT-4. Mặc dù Microsoft là một trong những nhà tài trợ quan trọng của OpenAI, tuy nhiên họ vẫn hỗ trợ việc phát hành Llama 2 thông qua các nền tảng của họ.
Việc phát hành mô hình trí tuệ nhân tạo mã nguồn mở như Llama 2 là một bước tiến lớn trong việc mở cửa và đem lại lợi ích cho cộng đồng. Tuy nhiên, cũng có những rủi ro tiềm ẩn và lo ngại về việc an toàn về việc sử dụng đúng đắn của mô hình này.
Việc đảm bảo giám sát và hướng dẫn sử dụng có trách nhiệm từ phía nhà phát triển là cần thiết để đảm bảo mô hình được sử dụng một cách tích cực và an toàn.
Meta có các biện pháp bảo vệ không?
Nếu bạn đăng ký tải xuống Llama 2, bạn bắt buộc phải đồng ý với chính sách “sử dụng được chấp nhận” bao gồm việc không sử dụng LLM để khuyến khích hoặc lên kế hoạch “bạo lực hoặc khủng bố” hoặc tạo thông tin sai lệch. Tuy nhiên, các LLM đứng sau ChatGPT chẳng hạn như có xu hướng tạo ra thông tin sai lệch và có thể bị dụ dỗ vượt qua các rào cản an toàn để tạo ra nội dung nguy hiểm. Bản phát hành Llama 2 cũng đi kèm với hướng dẫn sử dụng có trách nhiệm dành cho nhà phát triển.
Bài viết dưới góc nhìn của tạp chí The Guardian