mua cua lột ở đâucua lột có hóa đơnnhập cua sỉtin tức tổng hợp
image Thứ Sáu, 17/04/2026

Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán

Thanh Minh

02/03/2026

Chia sẻ

Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này...

Nvidia sắp ra chip AI mới, tái định hình cuộc đua điện toán

Trước sức ép ngày càng lớn từ các đối thủ và làn sóng AI tác nhân (agentic AI), Nvidia được cho là sắp ra mắt một nền tảng xử lý mới chuyên cho tác vụ “inference” – giai đoạn giúp mô hình AI trả lời truy vấn người dùng.

Động thái này không chỉ đánh dấu bước chuyển chiến lược quan trọng của hãng chip đồ họa số một thế giới, mà còn có thể làm thay đổi cục diện cạnh tranh trong ngành hạ tầng AI toàn cầu.

THAM VỌNG THỐNG LĨNH SUY LUẬN AI

Theo Wall Street Journal, trong nhiều năm qua, Nvidia gần như đồng nghĩa với sức mạnh tính toán cho AI. Các dòng GPU như Hopper, Blackwell hay Rubin của hãng được xem là tiêu chuẩn vàng cho việc huấn luyện các mô hình AI khổng lồ. Theo ước tính của nhiều nhà phân tích, Nvidia đang nắm giữ hơn 90% thị phần GPU phục vụ trung tâm dữ liệu AI.

Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.

Tuy nhiên, thị trường AI đang bước vào một giai đoạn mới. Nếu như giai đoạn 2022–2024 là thời kỳ bùng nổ huấn luyện các mô hình nền tảng, thì từ năm 2025 trở đi, trọng tâm dần chuyển sang “inference” – quá trình vận hành mô hình để trả lời câu hỏi, sinh nội dung và thực thi tác vụ thực tế cho người dùng.

Theo các nguồn tin thân cận, Nvidia đang thiết kế một hệ thống xử lý mới chuyên biệt cho inference, dự kiến công bố tại hội nghị nhà phát triển GTC ở San Jose trong tháng này. Điểm đáng chú ý là nền tảng này sẽ tích hợp một con chip do startup Groq thiết kế – công ty mà Nvidia đã đạt thỏa thuận trị giá khoảng 20 tỷ USD vào cuối năm ngoái để cấp phép công nghệ và chiêu mộ đội ngũ lãnh đạo, bao gồm nhà sáng lập Jonathan Ross.

Groq phát triển kiến trúc “language processing unit” (LPU), khác biệt so với GPU truyền thống của Nvidia. Kiến trúc này được tối ưu hóa cho các tác vụ suy luận, đặc biệt là trong quá trình “decode” – khi mô hình AI tạo phản hồi từng từ một, vốn là phần chậm và tiêu tốn tài nguyên nhất.

Động thái này cho thấy Nvidia đang sẵn sàng điều chỉnh chiến lược cốt lõi. Trong nhiều năm, CEO Jensen Huang luôn khẳng định GPU của hãng đủ linh hoạt để vừa huấn luyện vừa suy luận. Nhưng trước sự dịch chuyển nhu cầu thị trường, Nvidia buộc phải phát triển các giải pháp chuyên biệt hơn, hiệu quả hơn về chi phí và điện năng.

SỨC ÉP TỪ OPENAI, GOOGLE, AMAZON VÀ LÀN SÓNG AI TÁC NHÂN

Sự thay đổi chiến lược của Nvidia không “vô tình diễn ra”. Trong năm qua, các đối thủ lớn như Google và Amazon đã đẩy mạnh phát triển chip riêng cho AI. Amazon tung ra dòng Trainium và Inferentia, còn Google tiếp tục mở rộng hệ sinh thái TPU phục vụ Google Cloud.

Ngay cả những khách hàng lớn nhất của Nvidia cũng bắt đầu tìm kiếm phương án thay thế. OpenAI – một trong những khách hàng tiêu thụ GPU lớn nhất thế giới – được cho là đã đồng ý trở thành một trong những khách hàng lớn nhất của bộ xử lý inference mới từ Nvidia. Trước đó, OpenAI công bố sẽ mua “năng lực suy luận chuyên dụng” từ Nvidia song song với khoản đầu tư 30 tỷ USD từ hãng chip này.

Tuy nhiên, OpenAI cũng không đặt toàn bộ trứng vào một giỏ. Họ đã ký thỏa thuận lớn sử dụng chip Trainium của Amazon, đồng thời thiết lập quan hệ hợp tác điện toán trị giá hàng tỷ USD với Cerebras – startup chuyên về chip tối ưu cho inference. CEO Cerebras, Andrew Feldman, tuyên bố sản phẩm của họ nhanh hơn GPU của Nvidia trong nhiều tác vụ suy luận.

Lý do của sự dịch chuyển này nằm ở làn sóng AI tác nhân – các hệ thống có khả năng tự động thực hiện chuỗi hành động thay mặt người dùng, từ viết mã, phân tích dữ liệu đến điều phối quy trình kinh doanh. Những ứng dụng này đòi hỏi khả năng suy luận liên tục, phản hồi nhanh, chi phí thấp và tiết kiệm năng lượng.

Trong thực tế, nhiều công ty vận hành AI tác nhân nhận thấy GPU truyền thống quá đắt đỏ và tiêu tốn điện năng khi triển khai ở quy mô lớn. Khi doanh thu AI ngày càng dựa vào mô hình thuê bao và khối lượng truy vấn khổng lồ, bài toán kinh tế của inference trở nên sống còn.

NVIDIA MỞ RỘNG KHỎI GPU, TÁI ĐỊNH NGHĨA VỊ THẾ TRONG HẠ TẦNG AI

Một ví dụ điển hình là mảng lập trình tự động – hiện được xem là một trong những ứng dụng AI doanh nghiệp sinh lời nhất. Công cụ Claude Code của Anthropic đang dẫn đầu thị trường, nhưng lại chủ yếu dựa vào hạ tầng chip của Amazon Web Services và Google Cloud, thay vì Nvidia. Trong khi đó, OpenAI kỳ vọng sử dụng nền tảng mới của Nvidia để nâng cấp Codex – đối thủ cạnh tranh trực tiếp của Claude Code.

Cuộc đua AI đang bước sang một chương mới – nơi hiệu quả, chi phí và tốc độ phản hồi quan trọng không kém quy mô mô hình. Nvidia, thay vì chỉ là “vua GPU”, đang cố gắng tái định nghĩa mình như nhà cung cấp hạ tầng toàn diện cho kỷ nguyên AI suy luận.

Một điểm đáng chú ý khác là Nvidia không còn chỉ đặt cược vào GPU. Truyền thống, hãng thường kết hợp CPU Vera với GPU Rubin trong các máy chủ trung tâm dữ liệu hiệu năng cao. Nhưng thực tế triển khai cho thấy một số khối lượng công việc AI tác nhân có thể chạy hiệu quả hơn chỉ với CPU.

Tháng này, Nvidia công bố mở rộng hợp tác với Meta, bao gồm lần triển khai CPU-only quy mô lớn đầu tiên để hỗ trợ các tác nhân AI phục vụ quảng cáo. Thỏa thuận này được xem là tín hiệu sớm cho chiến lược mới: Nvidia tìm cách “khóa chặt” các phân khúc AI bằng giải pháp linh hoạt hơn, thay vì chỉ bán GPU cao cấp.

Wall Street Journal cho rằng bối cảnh cạnh tranh hiện nay cho thấy thị trường AI đang phân mảnh nhanh chóng. Nếu như trước đây cuộc đua chủ yếu xoay quanh ai huấn luyện được mô hình lớn hơn, thì giờ đây câu hỏi chuyển sang: ai có thể vận hành mô hình hiệu quả nhất, rẻ nhất và ở quy mô lớn nhất?

Inference được chia thành hai bước chính: “pre-fill” – khi mô hình tiếp nhận và xử lý truy vấn ban đầu; và “decode” – khi mô hình tạo câu trả lời từng từ một. Decode thường chậm hơn và tiêu tốn tài nguyên hơn, đặc biệt với các mô hình lớn. Chính ở điểm nghẽn này, các kiến trúc mới như LPU của Groq hay wafer-scale engine của Cerebras tìm cách tạo lợi thế.

Với việc tích hợp công nghệ từ Groq và thuyết phục OpenAI trở thành khách hàng lớn, Nvidia đang gửi đi thông điệp rõ ràng: họ không chỉ muốn thống trị kỷ nguyên huấn luyện AI, mà còn quyết tâm dẫn đầu giai đoạn khai thác thương mại AI ở quy mô toàn cầu.


Nhập khẩu chip từ Singapore, Malaysia của Trung Quốc "bất ngờ" cao kỷ lục

Trung Quốc đang đẩy mạnh nhập khẩu thiết bị sản xuất chip từ Đông Nam Á, đặc biệt là Singapore và Malaysia...

16:36 16/04/2026
TikTok Shop, Shopee và Lazada thâu tóm 99% thị trường thương mại điện tử Đông Nam Á

Một báo cáo mới cho thấy các nền tảng thương mại điện tử của những “ông lớn” công nghệ châu Á như TikTok, Sea và Alibaba đang kiểm soát tới 99% thị phần tại ASEAN…

16:36 16/04/2026
Ngành công nghệ châu Á “bật chế độ” ứng biến với xung đột Iran

Căng thẳng leo thang tại Trung Đông đang đặt ngành công nghệ châu Á trước nguy cơ gián đoạn sâu rộng, khi nguồn cung LNG và helium bị siết chặt…

13:56 15/04/2026
Trung Quốc siết quản lý hoạt động livestream bán hàng online

Đây là một phần chiến dịch làm sạch không gian mạng của Trung Quốc, được triển khai thường niên từ năm 2020. Trong chiến dịch năm ngoái, hơn 73.000 phòng livestream và 24.000 tài khoản đã bị xử lý...

14:44 14/04/2026
Các Big Tech Mỹ đã bị EU phạt số tiền kỷ lục hơn 7 tỷ USD trong 2 năm qua

Mỹ và EU đang căng thẳng vì án phạt mà châu Âu áp lên các Big Tech của Mỹ, hiện đã vượt 7 tỷ USD. Đây được xem là cuộc đối đầu mới trong kỷ nguyên AI...

09:25 14/04/2026
Trung Quốc ra chính sách thu hút tài năng AI từ Thung lũng Silicon về nước

Trung Quốc đang cung cấp cơ hội lớn, đãi ngộ cao, môi trường thuận lợi, nhờ đó, làn sóng “hồi hương” của nhân tài AI Trung Quốc đang diễn ra mạnh mẽ…

09:24 14/04/2026
Ngành bán dẫn tăng trưởng bùng nổ, dự báo đạt 1,3 nghìn tỷ USD năm 2026

Ngành công nghiệp bán dẫn toàn cầu được dự báo sẽ đạt quy mô doanh thu lên tới 1,3 nghìn tỷ USD trong năm 2026, đánh dấu mức tăng trưởng mạnh nhất trong hơn hai thập kỷ qua...

19:52 11/04/2026
Esports Nations Cup 2026 công bố 16 tựa game thi đấu: Cơ hội nào cho tuyển Việt Nam?

Hơn 100.000 tuyển thủ từ 100 quốc gia và vùng lãnh thổ tham gia vòng loại sẽ tranh tài ở 16 bộ môn để giành suất dự Esports Nations Cup 2026 đầu tiên…

10:26 10/04/2026
Người Mỹ mất kỷ lục 21 tỷ USD vì tội phạm mạng trong năm 2025

Báo cáo mới nhất của Cục Điều tra Liên bang Mỹ (FBI) cho thấy thiệt hại do tội phạm mạng tại Mỹ đã lập kỷ lục mới, lên tới gần 21 tỷ USD trong năm 2025…

10:25 10/04/2026
Gần 80.000 việc làm công nghệ bị cắt giảm: Tác động thực sự của AI vẫn ở phía trước

Từ ngày 1/1 đến 1/4/2026 đã có tổng cộng 78.557 việc làm trong lĩnh vực công nghệ bị cắt giảm...

10:25 10/04/2026