'Cuộc chiến' mới trên thị trường bán dẫn
Nvidia thu lãi lớn nhờ chip AI đào tạo
Ngày 21/2, đã công bố doanh thu và lợi nhuận kỷ lục trong liên tiếp ba tháng 11,12/2023 và tháng 1/2024. Cụ thể, doanh thu của công ty đạt được là 22.1 tỷ USD, tăng 265% so với cùng kỳ năm trước, trong khi lợi nhuận chạm ngưỡng 12.3 tỷ USD, tăng tới 769%, một con số mà không có bất kỳ nhà kinh tế học nào có thể dự đoán được.
Nvidia đã trở thành công ty trị giá 2.000 tỷ USD, nhờ cung cấp phần cứng cần thiết cho nhiệm vụ cực kỳ phức tạp là huấn luyện các thuật toán trí tuệ nhân tạo (AI).
Tại sự kiện công bố báo cáo doanh thu hôm 21/2, Giám đốc Tài chính Nvidia, Colette Kress, tự hào chia sẻ doanh số của công ty trong năm 2023 đã vượt qua 47 tỷ USD và đáng chú ý là hơn 40% hoạt động kinh doanh trung tâm dữ liệu của công ty đến từ mảng kinh doanh chất bán dẫn (chip) dùng trong công nghệ AI suy luận. Đây là một tỷ lệ hết sức quan trọng, là dấu hiệu cho thấy đã có sự thay đổi đang diễn ra trong cấu trúc mô hình kinh doanh của Nvidia.
Sự chuyển hướng trong ngành công nghệ AI
Nhận xét của bà Kress đã xoa dịu một số lo ngại rằng sự thống trị của Nvidia trong thời kỳ bùng nổ AI hiện nay sẽ bị đe dọa bởi việc chuyển đổi nhu cầu sử dụng những con chip để cài đặt hệ thống AI, đặc biệt là các bộ vi xử lý thực hiện công việc được gọi là “suy luận”. Để thực hiện công việc này chỉ cần những con chip đơn giản hơn và có chi phí rẻ hơn so với những sản phẩm mà Nvidia thường thực hiện và gần như không có đối thủ cạnh tranh.
Với những thay đổi nhanh chóng trên thị trường công nghệ AI, tầm quan trọng của các con chip dùng cho công nghệ AI suy luận đang ngày càng tăng. Chúng khiến nhiều đối thủ cạnh tranh của Nvidia tin rằng họ sẽ có chỗ đứng trên thị trường công nghệ AI.
Intel, nhà sản xuất các bộ xử lý trung tâm (CPU) cho các trung tâm dữ liệu, dự đoán các con chip của họ sẽ ngày càng hấp dẫn khách hàng, khi các doanh nghiệp đang cố gắng giảm chi phí vận hành của các mô hình AI. Các loại chip mà Intel chuyên sản xuất, thường là rẻ hơn so với chịp của Nvidia, đã được sử dụng rộng rãi trong các bộ cài đặt AI suy luận.
Do đó, những con chip AI H100 tiên tiến và đắt tiền hơn của Nvidia sẽ không còn là lựa chọn bắt buộc và duy nhất dành cho các doanh nghiệp phát triển công nghệ trí tuệ nhân tạo.
Triển vọng thị trường của Nvidia
Nhà phân tích Vivek Arya của ngân hàng Bank of America (BoA) đánh giá nhu cầu về chip AI suy luận sẽ tăng lên khi trọng tâm của các công ty chuyển sang tạo doanh thu từ các mô hình AI, sau khi đã mở rộng đầu tư vào hoạt động đào tạo AI trong cả năm vừa qua. Không giống như các con chip dùng cho AI huấn luyện, mảng kinh doanh mà Nvidia nắm quyền kiểm soát, AI suy luận sẽ tạo ra một thị trường cạnh tranh hơn.
Tốc độ phát triển của chip AI suy luận có thể sẽ nhanh hơn so với suy đoán của các thị trường và ngành công nghiệp. Theo các nhà phân tích của ngân hàng UBS, trong năm 2023, 90% nhu cầu chip xuất phát từ mục đích huấn luyện AI, nhưng trong năm nay, tỷ lệ này sẽ giảm xuống còn 20%.
Trong quá trình đào tạo AI, các công ty sẽ “nạp” một lượng dữ liệu khổng lồ vào các mô hình AI của họ, để huấn luyện chúng bắt chước ngôn ngữ của con người, có cách diễn đạt giống con người. Công việc này đòi hỏi khả năng tính toán khổng lồ, rất phù hợp với các bộ xử lý đồ họa (GPU) mà Nvidia cung cấp.
Nhưng hoạt động suy luận là khi các mô hình AI được yêu cầu xử lý các thông tin mới và phản hồi. Đó là một công việc nhẹ nhàng hơn so với việc đào tạo.
Tiềm năng thị trường mở rộng
Ngoài các đối thủ cạnh tranh lâu đời của Nvidia như Intel và Advanced Micro Devices (AMD), một số công ty khởi nghiệp về chất bán dẫn trí tuệ nhân tạo cũng kỳ vọng đạt thành công khi chip AI suy luận trở nên phổ biến hơn.
Ông Rodrigo Liang, Giám đốc điều hành của SambaNova - một công ty khởi nghiệp tạo ra sự kết hợp giữa chip AI và phần mềm có thể thực hiện cả suy luận và đào tạo, chia sẻ rằng thế giới đang chứng kiến nhu cầu sử dụng chip AI suy luận bùng nổ. Mọi người bắt đầu nhận ra rằng hơn 80% chi phí sẽ nằm ở việc đầu tư các con chip và công ty của ông Liang đang đưa tới các giải pháp mới thay thế hiệu quả.
Groq, một công ty khởi nghiệp được thành lập bởi ông Jonathan Ross - cựu kỹ sư chip AI của Google, cũng đang nhận được sự quan tâm ngày càng tăng trên thị trường. Trang chủ trên mạng Internet của công ty này đã phát hành một bản demo (nháp) cho thấy các chip AI suy luận của họ có thể đạt tốc độ xử lý suy luận từ một mô hình ngôn ngữ lớn nhanh như thế nào.
Ông Ross cho biết, công ty đang lên kế hoạch sản xuất 42.000 chip trong năm nay và 1 triệu con chip nữa vào năm tới. Tuy nhiên, không loại trừ khả năng công ty này sẽ nỗ lực tăng tổng số phát hành chip lên tới 220.000 trong năm nay và 1,5 triệu vào năm tới, do triển vọng nhu cầu rất cao.
Theo nhà sáng lập Ross, một trong những yếu tố thúc đẩy sự chuyển dịch trong ngành công nghiệp công nghệ AI là nhiều hệ thống AI phức tạp nhất đang được tinh chỉnh, để tạo ra kết quả tốt hơn mà không cần đào tạo lại. Điều đó có nghĩa là sẽ nhiều tài nguyên tính toán hơn được đưa vào AI suy luận hơn, nhưng chúng phải đảm bảo điều kiện không quá đắt và tốc độ xử lý nhanh.
Các công ty công nghệ lớn như Meta, Microsoft, Google và Amazon cũng đang nỗ lực phát triển chip AI suy luận của riêng mình, do nhận thức được sự thay đổi sắp tới và lợi ích của việc có thể thực hiện công việc suy luận với chi phí rẻ hơn.
Ông Swami Sivasubramanian, Phó Giám đốc dữ liệu và máy học tại bộ phận điện toán đám mây của Amazon, cho biết, vào năm ngoái chip suy luận đã có mặt tại Amazon từ năm 2018 và mảng nghiên cứu và phát triển AI suy luận chiếm 40% chi phí liên quan tới hoạt động xây dựng trợ lý thông minh Alexa của Amazon