Bất chấp sự cạnh tranh từ các nhà sản xuất chip khác và thậm chí là những gã khổng lồ công nghệ như Google và Amazon, Nvidia rất khó có thể mất đi thị phần AI có ý nghĩa trong vài năm tới.
Nvidia nổi tiếng với việc chế tạo chip AI, nhưng cấu trúc quan trọng nhất của công ty này lại là một bức tường thành kinh doanh giúp giữ chân khách hàng và ngăn cản đối thủ cạnh tranh.
Trong hai thập kỷ qua, Nvidia đã tạo ra thứ mà giới công nghệ gọi là “khu vườn có tường bao quanh” (walled garden), không khác gì khu vườn do Apple tạo ra. Trong khi hệ sinh thái phần mềm và dịch vụ của Apple hướng đến người tiêu dùng, thì trọng tâm của Nvidia từ lâu đã là các nhà phát triển xây dựng hệ thống trí tuệ nhân tạo và phần mềm khác bằng chip của mình.
THỐNG TRỊ
Khu vườn có tường bao của Nvidia giải thích lý do tại sao, bất chấp sự cạnh tranh từ các nhà sản xuất chip khác và thậm chí là những gã khổng lồ công nghệ như Google và Amazon, Nvidia rất khó có thể mất đi thị phần AI có ý nghĩa trong vài năm tới.
Điều này cũng giải thích lý do tại sao, về lâu dài, cuộc chiến giành lãnh thổ mà Nvidia hiện đang thống trị có khả năng tập trung vào năng lực mã hóa của công ty, không chỉ là thiết kế mạch điện. Đó cũng là lý do tại sao các đối thủ của công ty đang chạy đua để phát triển phần mềm khó có thể vượt qua bức tường bảo vệ của Nvidia.
Chìa khóa để hiểu khu vườn có tường bao của Nvidia là một nền tảng phần mềm có tên là CUDA. Khi ra mắt vào năm 2007, nền tảng này là giải pháp cho một vấn đề chưa ai từng gặp: Cách chạy phần mềm không phải đồ họa, chẳng hạn như thuật toán mã hóa và khai thác tiền số, bằng cách sử dụng chip chuyên dụng của Nvidia, được thiết kế cho các ứng dụng đòi hỏi nhiều công sức như đồ họa 3-D và trò chơi điện tử.
CUDA cho phép mọi loại máy tính khác trên các chip đó, được gọi là bộ xử lý đồ họa hoặc GPU. Trong số các ứng dụng mà CUDA cho phép chip của Nvidia chạy là phần mềm AI, phần mềm này có tốc độ tăng trưởng bùng nổ trong những năm gần đây đã đưa Nvidia trở thành một trong những công ty có giá trị nhất trên thế giới.
Ngoài ra, còn một điều hết sức quan trọng nữa đó là: CUDA mới chỉ là khởi đầu. Năm này qua năm khác, Nvidia đã đáp ứng nhu cầu của các nhà phát triển phần mềm bằng cách tung ra các thư viện mã chuyên dụng, cho phép thực hiện một loạt tác vụ khổng lồ trên GPU của mình với tốc độ không thể thực hiện được với các bộ xử lý thông thường, đa năng như bộ xử lý do Intel và AMD sản xuất.
Tầm quan trọng của nền tảng phần mềm của Nvidia giải thích tại sao suốt nhiều năm, đội ngũ nhân viên của Nvidia có nhiều kỹ sư phần mềm hơn kỹ sư phần cứng. Giám đốc điều hành của Nvidia, Jensen Huang gần đây đã gọi sự nhấn mạnh của công ty mình vào sự kết hợp giữa phần cứng và phần mềm là “điện toán toàn bộ”, nghĩa là Nvidia sản xuất mọi thứ từ chip đến phần mềm để xây dựng AI.
Mỗi khi một đối thủ công bố chip AI nhằm cạnh tranh với Nvidia, thì họ phải đối đầu với các hệ thống mà khách hàng của Nvidia đã sử dụng trong hơn 15 năm để viết hàng núi mã. Phần mềm đó có thể khó chuyển sang hệ thống của đối thủ cạnh tranh.
Tại cuộc họp cổ đông vào tháng 6, Nvidia đã công bố rằng CUDA hiện bao gồm hơn 300 thư viện mã và 600 mô hình AI, đồng thời hỗ trợ 3.700 ứng dụng tăng tốc GPU được hơn năm triệu nhà phát triển tại khoảng 40.000 công ty sử dụng.
Quy mô khổng lồ của thị trường điện toán AI đã khuyến khích một loạt các công ty hợp nhất để cạnh tranh với Nvidia. Atif Malik, nhà phân tích thiết bị mạng và bán dẫn tại Citi Research, dự đoán rằng thị trường chip liên quan đến AI sẽ đạt 400 tỷ USD hàng năm vào năm 2027. (Doanh thu của Nvidia trong năm tài chính kết thúc vào tháng 1 là khoảng 61 tỷ USD).
Theo Bill Pearson, phó chủ tịch Intel tập trung vào AI cho khách hàng điện toán đám mây, phần lớn sự hợp tác này tập trung vào việc phát triển các giải pháp thay thế nguồn mở cho CUDA. Các kỹ sư của Intel đang đóng góp vào hai dự án như vậy, một trong số đó bao gồm Arm, Google, Samsung và Qualcomm.
OpenAI, công ty đứng sau ChatGPT, đang nỗ lực phát triển nguồn mở của riêng mình. Các nhà đầu tư đang đổ tiền vào các công ty khởi nghiệp đang nỗ lực phát triển các giải pháp thay thế cho CUDA. Những khoản đầu tư này một phần là do khả năng các kỹ sư tại nhiều công ty công nghệ lớn trên thế giới có thể cùng nhau giúp các công ty có thể sử dụng bất kỳ loại chip nào họ thích và ngừng phải trả cái mà một số người trong ngành gọi là “thuế CUDA”.
Công ty khởi nghiệp Groq có thể tận dụng tất cả phần mềm nguồn mở này, gần đây đã công bố khoản đầu tư 640 triệu USD, với mức định giá 2,8 tỷ USD, để chế tạo chip cạnh tranh với Nvidia.
Các công ty công nghệ lớn cũng đang đầu tư vào các giải pháp thay thế cho chip Nvidia của riêng họ. Google và Amazon đều tự sản xuất chip tùy chỉnh để đào tạo và triển khai AI, và Microsoft đã công bố vào năm 2023 rằng họ sẽ làm theo.
Trong số những đối thủ cạnh tranh thành công nhất với sự thống trị của chip AI của Nvidia là AMD. Quy mô của công ty này vẫn chỉ bằng một phần nhỏ so với Nvidia trên thị trường – AMD đã dự kiến doanh thu năm 2024 từ dòng chip AI Instinct là 4,5 tỷ USD nhưng họ đang đầu tư mạnh để thuê các kỹ sư phần mềm.
“Chúng tôi đã mở rộng đáng kể các nguồn lực phần mềm của mình”, sếp AMD nói. Tháng trước, AMD đã công bố sẽ mua lại Silo AI với giá 665 triệu USD, bổ sung thêm 300 kỹ sư AI.
Microsoft và Meta Platforms, những khách hàng lớn của Nvidia, đều mua chip AI của AMD, phản ánh mong muốn khuyến khích cạnh tranh cho một trong những mặt hàng đắt nhất trong ngân sách của các gã khổng lồ công nghệ.
Tuy nhiên, Malik, của Citi Research, cho biết ông hy vọng Nvidia sẽ duy trì thị phần khoảng 90% trong các chip liên quan đến AI trong hai đến ba năm tới.
ĐẮT ĐỎ
Để hiểu được ưu và nhược điểm của các giải pháp thay thế, chúng ta cần hiểu những gì cần có để xây dựng AI theo phong cách ChatGPT mà không cần sử dụng bất kỳ phần cứng hoặc phần mềm nào từ Nvidia.
Babak Pahlavan, CEO của công ty khởi nghiệp NinjaTech AI cho biết ông sẽ sử dụng phần cứng và phần mềm của Nvidia để khởi nghiệp công ty của mình nếu ông có đủ khả năng chi trả. Nhưng tình trạng thiếu hụt chip H100 mạnh mẽ của Nvidia đã khiến giá thành tăng cao và việc tiếp cận trở nên khó khăn.
Cuối cùng, Pahlavan và những người đồng sáng lập đã chuyển sang Amazon, công ty sản xuất chip tùy chỉnh riêng để đào tạo AI, quá trình mà các hệ thống như vậy “học” từ kho dữ liệu khổng lồ. Sau nhiều tháng nỗ lực, cuối cùng nhóm đã thành công trong việc đào tạo AI của họ trên chip của Amazon, được gọi là Trainium. Nhưng đó là công việc không hề dễ dàng.
“Có rất nhiều thách thức và lỗi”, Pahlavan, người có nhóm tại NinjaTech AI cho biết. Cuối cùng, hai công ty đã giải quyết được các vấn đề và “đại lý” AI của NinjaTech thực hiện các nhiệm vụ cho người dùng, đã ra mắt vào tháng 5. Công ty tuyên bố có hơn một triệu người dùng hoạt động hàng tháng cho dịch vụ của mình, tất cả đều được phục vụ bởi các mô hình được đào tạo và chạy trên chip của Amazon.
“Lúc đầu, cả hai bên đều có một vài lỗi”, Gadi Hutt, giám đốc điều hành của Amazon Web Services, người có nhóm làm việc với NinjaTech AI cho biết. Nhưng giờ đây, ông nói, “chúng tôi đã vào cuộc đua”.
Những khách hàng sử dụng chip AI tùy chỉnh của Amazon bao gồm Anthropic, Airbnb, Pinterest và Snap. Amazon cung cấp cho khách hàng điện toán đám mây của mình quyền truy cập vào chip Nvidia, nhưng chi phí sử dụng chip này cao hơn so với chip AI của riêng Amazon. Hutt cho biết ngay cả như vậy, khách hàng vẫn cần thời gian để chuyển đổi.
Kinh nghiệm của NinjaTech AI minh họa cho một lý do lớn khiến các công ty khởi nghiệp như công ty này phải chịu đựng nỗi đau và thời gian phát triển bổ sung cần thiết để xây dựng AI bên ngoài khu vườn có tường bao của Nvidia: Chi phí.
Pahlavan cho biết để phục vụ hơn một triệu người dùng mỗi tháng, hóa đơn dịch vụ đám mây của NinjaTech tại Amazon là khoảng 250.000 USD một tháng. Nếu ông chạy cùng một AI trên chip Nvidia, chi phí sẽ nằm trong khoảng từ 750.000 đến 1,2 triệu USD, ông nói thêm.
Nvidia nhận thức sâu sắc về tất cả áp lực cạnh tranh này và rằng chip của họ rất tốn kém để mua và vận hành. CEO Huang thì cam kết rằng thế hệ chip tập trung vào AI tiếp theo của công ty sẽ giảm chi phí đào tạo AI trên phần cứng của công ty.
Trong tương lai gần, số phận của Nvidia là một câu hỏi về quán tính – cùng loại quán tính đã khiến các doanh nghiệp và khách hàng bị nhốt trong nhiều khu vườn có tường bao khác nhau trong suốt lịch sử. Bao gồm cả Apple.
Theo: WSJ-Hoàng Chi-Theo An ninh Tiền tệ