Tác giả: Ben Dickson
Khi OpenAI công bố ứng dụng ChatGPT trên máy tính để bàn cho macOS tại hội nghị Spring Update, đã có nhiều câu hỏi về lý do tại sao họ không bắt đầu với Windows. Rốt cuộc, Microsoft là nhà tài trợ chính của OpenAI về mặt tài chính, và sẽ rất tự nhiên nếu họ được tiếp cận sớm hơn với các tính năng mới của ChatGPT.
Bây giờ chúng ta đã biết lý do tại sao. Chiếc PC mới Copilot+ của Microsoft, được công bố tại hội nghị Build, cho thấy một bộ tính năng phong phú được tích hợp sâu vào hệ điều hành và sử dụng liền mạch các mô hình AI trên thiết bị và trên đám mây. Ứng dụng ChatGPT trên máy tính để bàn từ OpenAI, hiện chỉ dành cho Mac, trông có vẻ tầm thường khi so sánh.
Cả Apple và Microsoft đều đang cố gắng tích hợp các tính năng AI vào ứng dụng của họ nhưng với các chiến lược khác nhau. Vẫn còn quá sớm để nói chiến lược nào sẽ thắng. Nhưng hiện tại, Microsoft dường như đang đi trước rất xa.
AI Trên Thiết Bị
Chiến lược của Apple luôn là tạo ra một sản phẩm rất tinh tế với công nghệ tiên tiến và nhiều không gian cho các ứng dụng và tính năng phần mềm trong tương lai.
Bạn có thể thấy điều này ở Vision Pro, iPad Pro M4 mới, và thậm chí cả MacBook và iPhone mà Apple phát hành hàng năm. Các thiết bị mới thường có nhiều bộ nhớ và sức mạnh tính toán hơn mức mà hầu hết người dùng cần cho nhu cầu hàng ngày của họ.
Dần dần, Apple phát hành các bản cập nhật hệ điều hành và các tính năng phần mềm mới nhằm tận dụng các bộ tăng tốc và phần cứng chuyên dụng.
Ví dụ, khi chip M1 được công bố, không ai nghĩ đến việc chạy các mô hình ngôn ngữ lớn (LLM) trên máy Mac. Nhưng hiện nay, đã có một thư viện và bộ công cụ hoàn chỉnh để tối ưu hóa các mô hình chạy trên silicon của Apple, và đội ngũ nghiên cứu của Apple thường xuyên phát hành các mô hình có thể chạy trên thiết bị của hãng.
Tuy nhiên, vấn đề với cách tiếp cận của Apple là AI tạo sinh trên thiết bị chưa phát triển hoàn chỉnh. Và mặc dù năm vừa qua đã chứng kiến sự tiến bộ ấn tượng trong lĩnh vực này, chúng ta vẫn chưa đạt đến điểm mà các mô hình trên thiết bị đủ đáng tin cậy để thực hiện độc lập nhiều nhiệm vụ. Đây là khoảng trống mà ứng dụng ChatGPT cho macOS sẽ lấp đầy cho đến khi Apple tìm ra cách chạy các mô hình dựa trên đám mây của riêng mình hoặc AI trên thiết bị đạt đến mức mà Apple không cần đến các mô hình đám mây nữa.
Kết quả là một mạng lưới chắp vá của các công cụ AI khác nhau mà không tích hợp liền mạch vào hệ điều hành.
Trải nghiệm AI Liền Mạch
Ngược lại, Microsoft tập trung vào việc cung cấp các công nghệ AI tiên tiến và sau đó tìm cách đưa chúng đến gần người dùng nhất có thể.
Đầu tiên, khoản đầu tư và hợp tác với OpenAI đặt Microsoft vào vị thế độc đáo để tích hợp các mô hình tiên tiến vào sản phẩm của mình.
Nhưng Microsoft cũng mở rộng phạm vi bằng cách hỗ trợ các mô hình mở như Llama và Mistral. Đồng thời, Microsoft bắt đầu phát hành các mô hình ngôn ngữ nhỏ (SLM) như Phi và Orca.
Tại Diễn đàn Kinh tế Thế giới, khi được hỏi liệu công ty của mình có phụ thuộc quá nhiều vào OpenAI hay không, CEO của Microsoft, Satya Nadella, đã trả lời như sau:
“Tôi cảm thấy chúng tôi hoàn toàn có khả năng kiểm soát vận mệnh của chính mình… Sản phẩm của chúng tôi không chỉ dựa vào một mô hình duy nhất. Chúng tôi quan tâm đến việc có mô hình tiên tiến nhất, hiện tại là GPT-4. Nhưng chúng tôi cũng có Mixtral trong Azure như một mô hình dịch vụ. Chúng tôi sử dụng Llama ở một số nơi. Chúng tôi có Phi, là SLM tốt nhất của Microsoft. Vậy nên sẽ có sự đa dạng trong khả năng và mô hình mà chúng tôi có, mà chúng tôi sẽ đầu tư. Nhưng chúng tôi sẽ hợp tác rất sâu với OpenAI.”
Cuối cùng, Microsoft giảm sự phụ thuộc vào OpenAI bằng cách tạo ra một lớp trừu tượng thông qua thương hiệu Copilot. Người dùng Microsoft sẽ tương tác với Copilot trên toàn bộ Windows. Ở hậu trường, trợ lý AI sẽ sử dụng mô hình phù hợp nhất cho nhiệm vụ.
Những khả năng này đã được trình diễn đầy đủ trong Microsoft Build, nơi các máy tính Copilot+ mới cho thấy một loạt khả năng AI, bao gồm tạo hình ảnh, chú thích trực tiếp, công cụ năng suất, và cả tính năng Recall “đáng sợ”. Một số tính năng này chạy trên thiết bị, một số trên đám mây, và một số phân phối giữa cả hai.
Lĩnh vực này sẽ tiếp tục phát triển, đặc biệt khi Microsoft đang tăng cường nỗ lực đưa các chip ARM tiên tiến vào laptop của mình. Phần cứng sẽ tiếp tục trở nên mạnh mẽ hơn, các mô hình ngôn ngữ lớn trên thiết bị (LLM) sẽ ngày càng trở nên hiệu quả hơn, và các mô hình backend của Copilot sẽ thay đổi mà không làm gián đoạn trải nghiệm người dùng.
Bản demo đủ ấn tượng để Ben Thompson của Stratechery mô tả nó là “giống như MacBook Air” và “khác với sản phẩm của Apple, thực sự tích hợp có ý nghĩa với AI theo cách không chỉ có vẻ hữu ích ngày hôm nay, mà còn tạo nền tảng để trở nên hữu ích hơn nhiều khi các nhà phát triển tận dụng các khả năng AI của Microsoft trong tương lai.”
Con ngựa thành Troy của Microsoft?
Sau khi công bố ứng dụng ChatGPT cho macOS, một số người dùng đã lên mạng xã hội chế nhạo Microsoft vì đầu tư 10 tỷ USD vào OpenAI chỉ để phát hành một ứng dụng cho macOS.
Nhưng với các thông báo tại hội nghị Microsoft Build, có vẻ như ChatGPT đã trở thành con ngựa thành Troy của Microsoft trong hệ sinh thái Apple. ChatGPT chạy trên nền tảng đám mây Azure, và sự tích hợp sâu hơn của ChatGPT vào macOS và iOS sẽ giúp Microsoft có chỗ đứng vững chắc hơn trong trải nghiệm người dùng của Apple. Có vẻ như Satya đã thắng trong vòng này. Nhưng cuộc đua chưa kết thúc. Chúng ta sẽ phải chờ xem Apple sẽ tiết lộ gì tại WWDC vào tháng 6.