ngày 11 tháng 2 năm 2025
Bởi Jean-Louis Quéguiner, Nhà sáng lập & CEO của Gladia
Khi bước vào năm 2025, ngành trí tuệ nhân tạo (AI) đang đứng trước một bước ngoặt quan trọng. Mặc dù lĩnh vực này vẫn tiếp tục thu hút mức đầu tư và sự quan tâm chưa từng có—đặc biệt là trong lĩnh vực AI tạo sinh—nhưng một số yếu tố thị trường cơ bản cho thấy chúng ta đang tiến tới một sự chuyển đổi lớn trong bức tranh AI trong năm tới.
Dựa trên kinh nghiệm lãnh đạo một startup AI và quan sát sự phát triển nhanh chóng của ngành, tôi tin rằng năm nay sẽ mang đến nhiều thay đổi mang tính nền tảng: từ sự xuất hiện của các mô hình khái niệm lớn (LCMs) như những đối thủ cạnh tranh nghiêm túc với các mô hình ngôn ngữ lớn (LLMs), sự phát triển của phần cứng AI chuyên biệt, đến việc các công ty Big Tech bắt đầu triển khai cơ sở hạ tầng AI quy mô lớn—cuối cùng đưa họ vào vị thế có thể vượt qua các startup như OpenAI và Anthropic. Và ai biết được, có lẽ họ thậm chí sẽ giành được thế độc quyền AI sau tất cả.
Thách thức độc nhất của các công ty AI: Không hoàn toàn là phần mềm hay phần cứng
Vấn đề cốt lõi nằm ở cách các công ty AI hoạt động trong một vùng trung gian chưa từng thấy giữa các doanh nghiệp phần mềm và phần cứng truyền thống. Không giống như các công ty phần mềm thuần túy, vốn chủ yếu đầu tư vào nguồn nhân lực với chi phí vận hành tương đối thấp, hay các công ty phần cứng thực hiện các khoản đầu tư vốn dài hạn với lộ trình hoàn vốn rõ ràng, các công ty AI đối mặt với một tập hợp thách thức độc nhất khiến mô hình tài trợ hiện tại của họ trở nên bấp bênh.
Những công ty này đòi hỏi khoản đầu tư vốn ban đầu khổng lồ vào các cụm GPU và cơ sở hạ tầng, với mức chi tiêu lên tới 100-200 triệu USD mỗi năm chỉ riêng cho tài nguyên tính toán. Tuy nhiên, không giống như các công ty phần cứng, họ không thể khấu hao các khoản đầu tư này trong thời gian dài. Thay vào đó, họ vận hành theo chu kỳ hai năm ngắn ngủi giữa các vòng gọi vốn, mỗi lần lại phải chứng minh mức tăng trưởng theo cấp số nhân và hiệu suất tiên tiến để biện minh cho mức định giá tiếp theo.
Vấn đề khác biệt hóa của LLMs
Bên cạnh những thách thức mang tính cấu trúc, một xu hướng đáng lo ngại đang nổi lên: sự hội tụ nhanh chóng về năng lực của các mô hình ngôn ngữ lớn (LLM). Các startup như kỳ lân Mistral AI và nhiều công ty khác đã chứng minh rằng các mô hình mã nguồn mở có thể đạt được hiệu suất tương đương với các mô hình đóng. Tuy nhiên, sự khác biệt về mặt kỹ thuật—yếu tố từng biện minh cho các mức định giá cao ngất ngưởng—đang ngày càng khó duy trì.
Nói cách khác, mặc dù mỗi LLM mới đều tuyên bố có hiệu suất ấn tượng dựa trên các tiêu chuẩn đánh giá, nhưng một sự thay đổi thực sự mang tính đột phá trong kiến trúc mô hình nền tảng vẫn chưa xảy ra.
Những hạn chế hiện tại trong lĩnh vực này xuất phát từ ba yếu tố quan trọng:
- Nguồn dữ liệu – Chúng ta đang cạn kiệt tài liệu đào tạo chất lượng cao (điều này đã được Elon Musk xác nhận gần đây).
- Phương pháp chọn lọc dữ liệu – Tất cả đều áp dụng các cách tiếp cận phản hồi từ con người tương tự như phương pháp tiên phong của OpenAI.
- Kiến trúc tính toán – Các mô hình đều phụ thuộc vào cùng một nhóm phần cứng GPU chuyên dụng với nguồn cung hạn chế.
Kết quả là các cải tiến ngày càng đến từ hiệu suất thay vì quy mô. Các công ty đang tập trung vào việc nén nhiều kiến thức hơn vào ít token hơn và phát triển các kỹ thuật kỹ thuật tốt hơn, chẳng hạn như hệ thống truy xuất thông tin như Graph RAG (retrieval-augmented generation). Về bản chất, chúng ta đang tiến gần đến một giới hạn tự nhiên, nơi việc đổ thêm tài nguyên vào vấn đề không còn mang lại hiệu quả đáng kể.
Do tốc độ đổi mới chưa từng có trong hai năm qua, sự hội tụ về năng lực của LLM đang diễn ra nhanh hơn bất kỳ ai dự đoán, tạo ra một cuộc chạy đua với thời gian cho các công ty đã huy động vốn.
Dựa trên các xu hướng nghiên cứu mới nhất, biên giới tiếp theo để giải quyết vấn đề này là sự xuất hiện của các mô hình khái niệm lớn (LCMs) như một kiến trúc đột phá mới, cạnh tranh trực tiếp với LLMs trong lĩnh vực cốt lõi của chúng—hiểu ngôn ngữ tự nhiên (NLP).
Về mặt kỹ thuật, LCMs có nhiều lợi thế, bao gồm khả năng đạt hiệu suất tốt hơn với ít vòng lặp huấn luyện hơn và đạt được kết quả tương đương với các nhóm nhỏ hơn. Tôi tin rằng các LCM thế hệ tiếp theo sẽ được phát triển và thương mại hóa bởi các nhóm spin-off—những “tay chơi” rời khỏi các tập đoàn công nghệ lớn để thành lập startup mới, tiên phong cho cuộc cách mạng này.
Sự lệch pha trong dòng thời gian kiếm tiền
Chu kỳ đổi mới bị rút ngắn đã tạo ra một vấn đề nghiêm trọng khác: sự lệch pha giữa thời gian đưa sản phẩm ra thị trường và khả năng kiếm tiền bền vững. Dù tốc độ thương mại hóa các ứng dụng AI theo chiều dọc chưa từng có—chẳng hạn, các trợ lý giọng nói AI có thể từ ý tưởng đến sản phẩm tạo ra doanh thu chỉ trong vài tháng—nhưng sự tăng trưởng nhanh chóng này lại che giấu một vấn đề sâu sắc hơn.
Hãy xem xét điều này: một startup AI hiện được định giá 20 tỷ USD sẽ cần phải đạt mức doanh thu khoảng 1 tỷ USD mỗi năm trong vòng 4-5 năm để có thể IPO với mức định giá hợp lý. Điều này không chỉ đòi hỏi sự xuất sắc về mặt công nghệ mà còn yêu cầu một sự chuyển đổi toàn diện về mô hình kinh doanh—từ tập trung vào R&D sang tập trung vào doanh số—trong khi vẫn phải duy trì tốc độ đổi mới và quản lý chi phí hạ tầng khổng lồ.
Trong bối cảnh đó, các startup tập trung vào LCM (Large Concept Models) dự kiến xuất hiện vào năm 2025 sẽ có lợi thế hơn trong việc huy động vốn. Các startup này có mức định giá ban đầu thấp hơn, khiến chúng trở thành mục tiêu hấp dẫn hơn đối với các nhà đầu tư.
Tình trạng thiếu hụt phần cứng và các lựa chọn thay thế mới
Hãy cùng xem xét kỹ hơn về hạ tầng AI. Hiện nay, mọi cụm GPU mới đều được đặt mua trước cả khi được sản xuất bởi các tập đoàn lớn, buộc các công ty nhỏ hơn phải ký hợp đồng dài hạn với các nhà cung cấp dịch vụ đám mây hoặc đối mặt với nguy cơ bị loại khỏi thị trường hoàn toàn.
Nhưng điều thực sự thú vị là trong khi mọi người tranh giành GPU, một sự thay đổi quan trọng trong lĩnh vực phần cứng đang diễn ra nhưng phần lớn vẫn bị bỏ qua. Kiến trúc GPU hiện tại, gọi là GPGPU (General Purpose GPU), thực ra rất kém hiệu quả so với nhu cầu thực tế của hầu hết công ty khi triển khai AI trong môi trường sản xuất. Điều này giống như dùng siêu máy tính để chạy một ứng dụng máy tính bỏ túi vậy.
Đây là lý do tôi tin rằng phần cứng AI chuyên dụng sẽ là bước chuyển đổi lớn tiếp theo trong ngành. Các công ty như Groq và Cerebras đang phát triển phần cứng dành riêng cho suy luận AI (AI inference) với chi phí vận hành rẻ hơn 4-5 lần so với GPU truyền thống. Tất nhiên, chi phí kỹ thuật ban đầu để tối ưu mô hình cho các nền tảng này cao hơn, nhưng đối với những công ty có khối lượng suy luận lớn, lợi ích về hiệu suất là rất rõ ràng.
Mật độ dữ liệu và sự trỗi dậy của các mô hình nhỏ hơn, thông minh hơn
Bước tiến đổi mới tiếp theo trong AI không chỉ đòi hỏi năng lực tính toán lớn hơn—đặc biệt đối với các mô hình như LCM (Large Concept Models)—mà còn cần các bộ dữ liệu phong phú và toàn diện hơn.
Điều thú vị là các mô hình nhỏ hơn nhưng hiệu quả hơn đang bắt đầu thách thức các mô hình lớn, nhờ vào việc chúng được huấn luyện với mật độ dữ liệu cao hơn. Ví dụ, các mô hình như FeeFree của Microsoft hay Gema2B của Google có số lượng tham số ít hơn nhiều—thường chỉ khoảng 2-3 tỷ—nhưng lại đạt hiệu suất tương đương hoặc vượt trội so với các mô hình lớn hơn có 8 tỷ tham số.
Sự cạnh tranh ngày càng gay gắt của các mô hình nhỏ này đến từ mật độ dữ liệu cao, giúp chúng trở nên mạnh mẽ hơn bất chấp kích thước nhỏ. Xu hướng này hoàn toàn phù hợp với lợi thế chiến lược của các công ty như Microsoft và Google, vốn sở hữu nguồn dữ liệu khổng lồ và đa dạng thông qua các nền tảng như Bing và Google Search.
Từ đây, có thể thấy hai cuộc chiến quan trọng đang diễn ra trong sự phát triển AI: một cuộc chiến về tài nguyên tính toán và một cuộc chiến về dữ liệu. Dù năng lực tính toán vẫn là yếu tố quan trọng để mở rộng ranh giới công nghệ, mật độ dữ liệu đang trở thành yếu tố then chốt không kém—thậm chí có thể còn quan trọng hơn. Các công ty có quyền truy cập vào nguồn dữ liệu khổng lồ có thể huấn luyện các mô hình nhỏ nhưng hiệu quả vượt trội, từ đó củng cố vị thế thống trị trong bối cảnh AI đang phát triển mạnh mẽ.
Ai Sẽ Chiến Thắng Trong Cuộc Chiến AI?
Trong bối cảnh này, ai cũng tự hỏi ai sẽ là người chiến thắng cuối cùng trong cuộc đua AI. Dưới đây là một số góc nhìn đáng suy ngẫm.
1. Các ông lớn công nghệ đang củng cố vị thế thống trị
Các công ty công nghệ lớn đang đặt hàng trước toàn bộ cụm GPU ngay từ khi chúng còn chưa được xây dựng, tạo ra sự khan hiếm tài nguyên cho các công ty nhỏ hơn. Oracle với đơn hàng 100.000+ GPU, cùng với các động thái tương tự từ Meta và Microsoft, cho thấy xu hướng này rõ ràng.
Các tập đoàn này đã đầu tư hàng trăm tỷ đô vào AI, đòi hỏi hàng nghìn kỹ sư và nhà nghiên cứu AI hàng đầu. Điều này khiến nhu cầu nhân tài đạt đến mức chưa từng có, và giải pháp khả dĩ nhất là mua lại các startup chiến lược—một xu hướng mà chúng ta sẽ thấy trong những tháng tới.
Dự kiến năm 2025 sẽ tập trung vào R&D và xây dựng hạ tầng, nhưng đến 2026, các ông lớn này sẽ tung ra đòn quyết định nhờ vào nguồn tài nguyên vượt trội.
2. Công ty AI nhỏ hơn vẫn có cơ hội đột phá
Không có nghĩa là các startup AI nhỏ sẽ bị đào thải—thực tế họ vẫn là nguồn cơn của đổi mới và giá trị. Một số đổi mới quan trọng, như LCM (Large Concept Models), có khả năng sẽ được dẫn dắt bởi các công ty khởi nghiệp tiên phong, bên cạnh những cái tên lớn như Meta, Google/Alphabet, OpenAI, và Anthropic.
Tuy nhiên, cách mà các công ty AI được tài trợ và định giá sẽ thay đổi. Khi vốn đầu tư mạo hiểm trở nên khắt khe hơn, các công ty sẽ phải chứng minh lộ trình kinh tế bền vững, điều đặc biệt thách thức với các công ty AI mã nguồn mở khi phải đối đầu với các nền tảng AI độc quyền có nguồn lực dồi dào.
3. Con đường dành cho AI mã nguồn mở
Đối với các công ty AI mã nguồn mở, lối đi khả thi nhất có thể là tập trung vào các ứng dụng theo chiều dọc (vertical AI), nơi mà tính minh bạch và khả năng tùy chỉnh có thể tạo ra lợi thế cạnh tranh so với các giải pháp độc quyền.
🚀 Tóm lại: Các ông lớn có thể thống trị về tài nguyên và tài chính, nhưng sự đổi mới đột phá vẫn có thể đến từ các startup AI có chiến lược rõ ràng và khả năng thích ứng nhanh.