Tác giả: Sergey Cheparukhin
ngày 15 tháng 3 năm 2024
Xây dựng một doanh nghiệp trong trò chơi giữa các người chơi lớn thực sự chưa bao giờ là một nhiệm vụ dễ dàng. Vào năm 2023, sự cạnh tranh trong lĩnh vực trí tuệ nhân tạo đạt đến mức đỉnh chưa từng có, được thúc đẩy bởi những bước tiến thực sự đột phá. Việc phát hành GPT-4 của OpenAI, tích hợp ChatGPT với Bing, Google ra mắt Bard, và việc phát hành “mã nguồn mở” Llama 2 của Meta gây tranh cãi. Đó nghe như một danh sách dài về những tên tuổi lớn, phải không? Dù có vẻ hấp dẫn, hầu hết sự đổi mới nằm ở nơi tiền đồn, và cuộc cạnh tranh mà các công ty công nghệ nhỏ phải vượt qua đang ngày càng trở nên khốc liệt hơn.
Trong cảnh quan ngành công nghiệp công nghệ đang phát triển liên tục, Nvidia tiếp tục củng cố vị thế của mình là một trong những người chơi chính trong cơ sở hạ tầng trí tuệ nhân tạo. Trong một cuộc họp truyền hình báo cáo tài chính vào tháng Tám, Jensen Huang, Tổng Giám đốc điều hành của NVIDIA, nhấn mạnh về sự tăng vọt trong nhu cầu cho các bộ xử lý Nvidia. Khẳng định này được xác nhận bởi dữ liệu doanh thu trong báo cáo Q3 của Nvidia, cho thấy một kết quả ấn tượng so với cùng kỳ năm trước, rõ ràng đã từ tháng Mười Một YTD. Trong khi đó, dự báo của Gartner cho thấy sự tăng đáng kể trong chi phí chip trong vòng bốn năm tới. Hiện nay, cả phần mềm và bộ xử lý của Nvidia đều không có đối thủ, khiến ngành công nghiệp không chắc chắn về việc một đối thủ đáng tin cậy có thể xuất hiện khi nào.
Các báo cáo gần đây từ Bloomberg và Financial Times đã làm sáng tỏ cuộc đàm phán của Sam Altman, CEO của OpenAI, với các nhà đầu tư Trung Đông để khởi đầu sản xuất chip, nhằm giảm sự phụ thuộc của ngành công nghiệp trí tuệ nhân tạo vào chip của Nvidia. Thách thức Nvidia, với vốn hóa thị trường gần 1,5 nghìn tỷ đô la, có thể sẽ tốn Altman từ 5 nghìn tỷ đến 7 nghìn tỷ đô la và mất vài năm.
Tuy nhiên, việc giải quyết vấn đề hiệu quả chi phí của các mô hình ML cho doanh nghiệp là điều các công ty phải làm ngay bây giờ. Đối với các doanh nghiệp vượt ra ngoài phạm vi của công nghệ lớn, việc phát triển các mô hình ML hiệu quả chi phí không chỉ là một quy trình kinh doanh – nó là một chiến lược sinh tồn quan trọng. Bài viết này khám phá bốn chiến lược thực tế mà làm cho các doanh nghiệp mọi kích thước có thể phát triển mô hình của họ mà không cần đầu tư nghiên cứu và phát triển mở rộng và vẫn linh hoạt để tránh mắc kẹt với nhà cung cấp.
Tại sao Nvidia Thống trị thị trường AI
Tóm lại, Nvidia đã tạo ra luồng làm việc huấn luyện mô hình lý tưởng bằng cách đạt được sự kết hợp hoàn hảo giữa GPU hiệu suất cao và kiến trúc phần mềm huấn luyện mô hình độc quyền của mình, bộ công cụ CUDA được đánh giá rất cao trong giới những nhà phát triển AI.
CUDA (giới thiệu vào năm 2007) là một bộ công cụ và API tính toán song song toàn diện để tận dụng tối ưu bộ xử lý GPU của Nvidia. Lý do chính khiến nó trở nên phổ biến đến vậy là khả năng không thể sánh kịp của nó trong việc tăng tốc các phép tính toán toán học phức tạp, quan trọng cho việc học sâu. Ngoài ra, nó cung cấp một hệ sinh thái phong phú như cuDNN cho các mạng nơ-ron sâu, tăng cường hiệu suất và dễ sử dụng. Đối với các nhà phát triển, đây là một phần không thể thiếu do tích hợp mượt mà với các framework học sâu chính, cho phép phát triển và lặp lại mô hình một cách nhanh chóng.
Sự kết hợp giữa một ngăn xếp phần mềm mạnh mẽ như vậy với phần cứng hiệu quả cao đã được chứng minh là chìa khóa để chiếm lĩnh thị trường. Trong khi một số người cho rằng sự thống trị của Nvidia có thể là hiện tượng tạm thời, thì khó có thể đưa ra những dự đoán như vậy trong bối cảnh hiện nay.
Đẳng Cấp Thống Trị của Nvidia
Việc Nvidia có ưu thế trong lĩnh vực phát triển học máy đã gây ra nhiều lo ngại, không chỉ trong lĩnh vực đạo đức mà còn liên quan đến sự mở rộng của khoản chênh lệch ngân sách nghiên cứu và phát triển, đây là một trong những lý do khiến việc tiến vào thị trường trở nên khó khăn hơn nhiều lần đối với các nhà sản xuất nhỏ, chưa kể đến các công ty khởi nghiệp. Thêm vào đó là sự suy giảm trong sự quan tâm của nhà đầu tư do rủi ro cao, và nhiệm vụ thu thập các khoản đầu tư R&D lớn (như của Nvidia) trở nên hoàn toàn không thể, tạo ra một sân chơi vô cùng bất bình đẳng.
Tuy nhiên, sự phụ thuộc nặng nề này vào phần cứng của Nvidia đặt thêm áp lực lớn hơn lên sự nhất quán trong chuỗi cung ứng và mở ra rủi ro về các sự cố và mắc kẹt với nhà cung cấp, giảm tính linh hoạt của thị trường và tăng cường rào cản cho việc tiến vào thị trường.
“Một số người đang huy động tiền mặt để đảm bảo họ sẽ không bỏ lại người dùng bơ vơ. Ở mọi nơi, các thuật ngữ kỹ thuật như ‘tối ưu hóa’ và ‘kích thước mô hình nhỏ hơn’ đang thịnh hành khi các công ty cố gắng cắt giảm nhu cầu GPU của họ, và nhà đầu tư trong năm nay đã đặt cược hàng trăm triệu đô la vào các công ty khởi nghiệp có phần mềm giúp các công ty làm việc với GPU mà họ đã có.”
Nvidia Cung Cấp Ít Chip, Các Công Ty Khởi Nghiệp AI Đang Vội Vàng Tìm Nguồn Năng Lượng Tính Toán Bởi Paresh Dave
Bây giờ là thời điểm để áp dụng các phương pháp chiến lược, vì điều này có thể là điều duy nhất giúp doanh nghiệp của bạn có cơ hội phát triển trong bối cảnh ảnh hưởng xa lớn của Nvidia trong phát triển ML.
Các Chiến lược giúp StartUp Công nghệ Thích Ứng với Sự Thống Trị của Nvidia
1. Bắt đầu khám phá RocM của AMD
AMD đã tích cực thu hẹp khoảng cách phát triển trí tuệ nhân tạo với NVIDIA, một thành tựu đạt được thông qua sự hỗ trợ liên tục cho Rocm trong các thư viện chính của PyTorch trong suốt một năm qua. Nỗ lực liên tục này đã dẫn đến sự tương thích và hiệu suất cải thiện, được thể hiện rõ ràng thông qua việc sử dụng chipset MI300, sản phẩm mới nhất của AMD. MI300 đã chứng minh được hiệu suất mạnh mẽ trong các nhiệm vụ suy luận Mô Hình Ngôn Ngữ Lớn (LLM), đặc biệt là xuất sắc với các mô hình như LLama-70b. Thành công này là minh chứng cho sự tiến bộ đáng kể trong sức mạnh xử lý và hiệu suất đạt được bởi AMD.
2. Tìm kiếm các lựa chọn phần cứng khác
Ngoài các bước tiến của AMD, Google đã giới thiệu Tensor Processing Units (TPUs), phần cứng chuyên biệt được thiết kế một cách rõ ràng để tăng tốc các công việc học máy, cung cấp một lựa chọn mạnh mẽ khác cho việc huấn luyện mô hình trí tuệ nhân tạo quy mô lớn.
Ngoài các công ty khổng lồ trong ngành, các nhà sản xuất nhỏ nhưng có tác động lớn như Graphcore và Cerebras đang đóng góp đáng kể cho không gian phần cứng trí tuệ nhân tạo. Intelligence Processing Unit (IPU) của Graphcore, được tùy chỉnh để hiệu quả trong các tính toán trí tuệ nhân tạo, đã thu hút sự chú ý với tiềm năng của nó trong các nhiệm vụ hiệu suất cao, như được thể hiện trong các thử nghiệm của Twitter. Cerebras, mặt khác, đang đẩy ranh giới với các chip tiên tiến của mình, nhấn mạnh về khả năng mở rộng và sức mạnh tính toán thô cho các ứng dụng trí tuệ nhân tạo.
Sự cố gắng tập trung của những công ty này đánh dấu một sự chuyển đổi hướng tới một hệ sinh thái phần cứng trí tuệ nhân tạo đa dạng hơn. Sự đa dạng hóa này đề xuất các chiến lược khả thi để giảm sự phụ thuộc vào NVIDIA, cung cấp cho các nhà phát triển và nhà nghiên cứu một phạm vi rộng hơn của nền tảng cho phát triển trí tuệ nhân tạo.
3. Bắt đầu đầu tư vào tối ưu hóa hiệu suất
Ngoài việc khám phá các lựa chọn phần cứng khác, tối ưu hóa phần mềm được chứng minh là yếu tố quan trọng trong việc giảm thiểu ảnh hưởng của sự thống trị của Nvidia. Bằng cách sử dụng các thuật toán hiệu quả, giảm thiểu các phép tính không cần thiết và triển khai các kỹ thuật xử lý song song, các nhà sản xuất kỹ thuật không phải là big tech có thể tối đa hóa hiệu suất của mô hình học máy trên phần cứng hiện có, đưa ra một phương pháp thực tế để cắm cầu ngang không chỉ dựa vào việc nâng cấp phần cứng đắt tiền.
Một minh họa cho phương pháp này được tìm thấy trong công nghệ AutoNAC của Deci Ai. Sự đổi mới này đã chứng minh khả năng tăng tốc suy luận mô hình lên đến mức 3-10 lần, như được chứng minh bởi MLPerf Benchmark được công nhận rộng rãi. Bằng cách giới thiệu những tiến bộ như vậy, trở nên rõ ràng rằng tối ưu hóa phần mềm có thể cải thiện đáng kể hiệu quả của việc phát triển học máy, đưa ra một lựa chọn khả thi để giảm thiểu ảnh hưởng của sự thống trị của Nvidia trong lĩnh vực này.
4. Bắt đầu hợp tác với các tổ chức khác để tạo ra các cụm phân tán
Tiếp cận hợp tác này có thể bao gồm việc chia sẻ các kết quả nghiên cứu, đầu tư chung vào các lựa chọn phần cứng thay thế và khuyến khích phát triển các công nghệ học máy mới thông qua các dự án mã nguồn mở. Bằng cách phân tán suy luận và sử dụng tài nguyên tính toán phân tán, các công ty kỹ thuật không phải là big tech có thể làm cho sân chơi trở nên công bằng hơn và tạo ra một bức tranh cạnh tranh hơn trong ngành phát triển học máy.
Ngày nay, chiến lược chia sẻ tài nguyên tính toán đang tăng tốc trong ngành công nghiệp công nghệ. Google Kubernetes Engine (GKE) là một ví dụ điển hình cho điều này bằng cách hỗ trợ đa người dùng trên cụm, cho phép tận dụng tài nguyên một cách hiệu quả và tích hợp với các dịch vụ của bên thứ ba. Xu hướng này được chứng minh thêm bởi các sáng kiến do cộng đồng dẫn dắt như Petals, cung cấp một mạng phân tán để chạy các mô hình trí tuệ nhân tạo, giúp tạo ra sức mạnh tính toán cao mà không cần đầu tư đáng kể. Ngoài ra, các nền tảng như Together.ai cung cấp quyền truy cập không cần máy chủ đến một loạt các mô hình mã nguồn mở, tối ưu hóa quá trình phát triển và khuyến khích sự hợp tác. Xem xét các nền tảng như vậy có thể cho phép bạn truy cập vào tài nguyên tính toán và cơ hội phát triển hợp tác, giúp tối ưu hóa quá trình phát triển và giảm chi phí, bất kể kích thước tổ chức.
Thay lời kết
Trên quy mô toàn cầu, sự cần thiết của những chiến lược đã đề cập trở nên rõ ràng. Khi một thực thể chiếm thị trường, nó làm trì hoãn sự phát triển và cản trở việc thiết lập giá cả hợp lý.
Các công ty kỹ thuật không phải là big tech có thể chống lại sự thống trị của Nvidia bằng cách lựa chọn thay thế như RocM của AMD, đầu tư vào tối ưu hiệu suất thông qua các thuật toán hiệu quả hay xử lý song song, và tạo ra sự hợp tác với các tổ chức khác để tạo ra các cụm phân tán. Điều này thúc đẩy một bức tranh cạnh tranh đa dạng hơn trong ngành công nghiệp phần cứng và phát triển trí tuệ nhân tạo, cho phép các nhà sản xuất nhỏ có thể đóng góp mạnh mẽ vào tương lai trí tuệ nhân tạo.
Những chiến lược này nhằm giảm thiểu sự phụ thuộc vào giá cả và nguồn cung của Nvidia, từ đó tăng cường sức hấp dẫn đầu tư, giảm thiểu rủi ro của sự chậm trễ trong phát triển kinh doanh giữa sự cạnh tranh phần cứng và thúc đẩy sự phát triển tự nhiên trong ngành công nghiệp.