Conic Boulevard

Nvidia ra mắt công nghệ mới, khẳng định vị trí dẫn đầu về chip AI khó lung lay

Mới đây, CEO Nvidia Jensen Huang đã công bố loạt sản phẩm và sáng kiến chiến lược nhằm mở rộng hệ sinh thái AI.

Củng cố vị trí trung tâm về chip AI với công nghệ mới

Tại hội nghị công nghệ Computex 2025 tổ chức ở Đài Loan (Trung Quốc), CEO Nvidia Jensen Huang đã công bố một loạt sản phẩm và sáng kiến mới nhằm củng cố vị thế trung tâm của công ty trong lĩnh vực trí tuệ nhân tạo (AI) và điện toán hiệu năng cao.

Điểm nhấn của chương trình là màn ra mắt của công nghệ mới mang tên "NVLink Fusion", cho phép các đối tác tích hợp các bộ xử lý trung tâm (CPU) và bộ xử lý đồ họa (GPU) không do Nvidia sản xuất với các sản phẩm của công ty thông qua công nghệ NVLink.

Trước đây, NVLink - công nghệ kết nối giúp trao đổi dữ liệu tốc độ cao giữa CPU và GPU - chỉ hỗ trợ các chip của Nvidia. Giờ đây, với NVLink Fusion, các hệ thống AI có thể kết hợp linh hoạt giữa chip của Nvidia và các loại CPU hay vi mạch tích hợp ứng dụng (ASIC) của bên thứ ba. Nhờ công nghệ này, Nvidia có thể hỗ trợ các nhà thiết kế chip khác xây dựng hệ thống AI tùy chỉnh mạnh mẽ với nhiều chip được liên kết.

Theo chuyên gia phân tích Ray Wang, NVLink Fusion cho thấy Nvidia đang nhắm tới những trung tâm dữ liệu sử dụng chip ASIC - vốn là mảng thị trường được coi là cạnh tranh trực tiếp với Nvidia.

"NVLink Fusion củng cố vị trí trung tâm của mình trong các nhà máy AI thế hệ tiếp theo, ngay cả khi hệ thống đó không hoàn toàn sử dụng chip Nvidia" - ông Wang nhận định.

Hợp tác chiến lược với các hãng chip hàng đầu

Nvidia cho biết, những đối tác AI đầu tiên tham gia NVLink Fusion gồm: MediaTek, Marvell, Alchip, Astera Labs, Synopsys và Cadence. Các khách hàng lớn như Fujitsu và Qualcomm cũng sẽ có thể kết nối CPU của riêng họ với GPU của Nvidia trong các trung tâm dữ liệu AI.

Chuyên gia chuyên gia phân tích Ray Wang cho rằng, nếu NVLink Fusion được ứng dụng rộng rãi, nó sẽ mở rộng đáng kể phạm vi hoạt động của Nvidia và thúc đẩy hợp tác sâu hơn với các nhà thiết kế CPU và ASIC tùy biến.

Tuy nhiên, theo chuyên gia Rolf Bulk, chính sách mở rộng này cũng có nguy cơ làm giảm nhu cầu đối với CPU của Nvidia, khi khách hàng có thể sử dụng giải pháp thay thế. Dẫu vậy, tính linh hoạt tăng thêm sẽ giúp Nvidia giữ vững sức cạnh tranh trước các "tân binh" mới nổi trong lĩnh vực AI.

Đáng chú ý là Broadcom, AMD và Intel hiện vẫn chưa tham gia vào hệ sinh thái NVLink Fusion.

Cập nhật hệ thống AI mới và nền tảng điện toán đám mây

Trong bài phát biểu tại sự kiện, CEO Jensen Huang cũng giới thiệu hệ thống Grace Blackwell thế hệ tiếp theo, cụ thể là dòng GB300, dự kiến ra mắt vào quý III năm nay với hiệu năng tổng thể cao hơn đáng kể cho các tác vụ AI. Grace Blackwell là hệ thống đang được lắp đặt tại các trung tâm dữ liệu do các nhà cung cấp dịch vụ đám mây vận hành.

Ngoài ra, Nvidia còn công bố nền tảng AI đám mây mới DGX Cloud Lepton, được ví như một "chợ điện toán" kết nối các nhà phát triển AI toàn cầu với hàng chục nghìn GPU từ hệ thống các nhà cung cấp đám mây quốc tế.

"DGX Cloud Lepton giúp giải quyết thách thức lớn về việc đảm bảo tài nguyên GPU hiệu suất cao bằng cách hợp nhất quyền truy cập vào các dịch vụ AI đám mây và dung lượng GPU trong hệ sinh thái điện toán của Nvidia" - công ty tuyên bố.

Cuối bài phát biểu, CEO Jensen Huang cho biết, Nvidia sẽ mở văn phòng mới tại Đài Loan (Trung Quốc) và hợp tác với Foxconn để xây dựng một siêu máy tính AI tại đây.

"Chúng tôi rất vui khi được hợp tác với Foxconn để phát triển hạ tầng AI, đồng thời hỗ trợ TSMC và các công ty hàng đầu khác thúc đẩy đổi mới trong kỷ nguyên AI và robot" - CEO Nvidia chia sẻ.