Nhận tin tức, cập nhật và báo cáo tiền điện tử mới nhất bằng cách đăng ký nhận bản tin miễn phí của chúng tôi.
Giấy phép số 4978/GP-TTĐT do Sở Thông tin và Truyền thông Hà Nội cấp ngày 14 tháng 10 năm 2019 / Giấy phép SĐ, BS GP ICP số 2107/GP-TTĐT do Sở TTTT Hà Nội cấp ngày 13/7/2022.
© 2026 Index.vn
Nvidia đang ở vị trí trung tâm trong làn sóng trí tuệ nhân tạo (AI) hiện nay, nhờ hệ sinh thái phần cứng và phần mềm phục vụ hạ tầng AI. Tuy nhiên, triển vọng của công ty cũng đối mặt rủi ro khi chi tiêu cho hạ tầng AI có thể đạt đỉnh và mức độ cạnh tranh gia tăng từ các giải pháp chip tùy chỉnh.
Nvidia cung cấp các đơn vị xử lý đồ họa (GPU) được sử dụng rộng rãi để cấp nguồn cho hạ tầng AI, với ước tính chiếm khoảng 90% thị phần trong phân khúc này.
Công ty đã xây dựng “hàng rào cạnh tranh” xoay quanh hệ sinh thái phát triển quanh GPU, bắt đầu từ nền tảng phần mềm CUDA. Theo nội dung bài viết, hầu hết mã AI nền tảng sớm được viết trên CUDA và được tối ưu cho các chip của Nvidia. Bên cạnh đó, hệ thống liên kết NVLink độc quyền giúp các chip hoạt động như một đơn vị mạnh mẽ hơn.
Một điểm nhấn khác là khả năng dự báo xu hướng và thích ứng của Nvidia. Công ty tạo CUDA khoảng một thập kỷ trước khi AMD phát triển phần mềm cạnh tranh, đồng thời phân phối cho các tổ chức đang tiến hành nghiên cứu AI sớm. Năm 2020, Nvidia mua lại Mellanox để củng cố mảng mạng, trở thành nền tảng cho hệ thống mạng của công ty.
Trong giai đoạn gần đây, Nvidia được mô tả là đã chuẩn bị cho kỷ nguyên suy luận và AI điều khiển bằng các thương vụ mua Groq và SchedMD. Công ty cũng giới thiệu các đơn vị xử lý ngôn ngữ (LPUs) cho suy luận, nền tảng NemoClaw để triển khai AI agent, và thậm chí tự phát triển các CPU riêng. Nhờ đó, Nvidia có thể cung cấp các rack máy chủ hoàn chỉnh cho các tác vụ AI cụ thể như huấn luyện, suy luận và AI agent.
Với việc cuộc đua AI vẫn đang ở giai đoạn đầu, bài viết cho rằng điều này tạo ra quỹ đạo tăng trưởng dài cho Nvidia.
Mặc dù nắm vị thế lớn trong hạ tầng AI, Nvidia đang đối mặt với cạnh tranh gia tăng so với trước đây. Các ASIC AI tùy chỉnh (thiết kế cho tác vụ cụ thể) bắt đầu thâm nhập mạnh hơn, đặc biệt trong mảng suy luận nhờ ưu thế về hiệu quả năng lượng.
Theo nội dung bài viết, trong tháng này Anthropic cho biết sẽ mở rộng công suất với Tensor Processing Units (TPUs) của Alphabet. Đồng thời, Anthropic đã có một trung tâm dữ liệu lớn đang vận hành trên các chip Trainium của Amazon. Ngoài ra, ngày càng nhiều hyperscalers tìm cách thiết kế chip tùy chỉnh của riêng họ, thường với sự hỗ trợ của các đối tác như Broadcom hoặc Marvell Technology.
Bài viết cũng nêu rủi ro từ khả năng chi tiêu cho hạ tầng AI đạt đỉnh. Các hyperscalers lớn nhất dự kiến chi khoảng 700 tỷ USD cho hạ tầng AI trong năm nay, tương đương khoảng 1,5% GDP. Mức chi này được mô tả là tương đồng với các đỉnh chu kỳ đầu tư công nghệ trước đó, và các nhà cung cấp đám mây/hyperscalers sẽ cần thấy lợi nhuận từ khoản chi để tiếp tục đầu tư.
Theo quan điểm được trình bày trong bài viết, dù có thể mất bớt thị phần, Nvidia vẫn được xem là một nhân tố quan trọng trong hạ tầng AI nhờ hệ sinh thái mạnh và đang mở rộng. Đồng thời, bài viết cho rằng các hyperscalers có thể tiếp tục thúc đẩy đầu tư khi kỳ vọng lợi nhuận từ khoản chi tiêu vẫn tăng nhanh.
Bài viết cũng đề cập đến việc TSMC (nhà sản xuất theo hợp đồng) có thể không tăng mạnh capex để xây dựng thêm fabs mới nếu không thật sự hợp lý, do rủi ro dư thừa công suất trong vài năm tới.
Về định giá, cổ phiếu Nvidia được nêu đang giao dịch ở mức forward price-to-earnings khoảng 21, và bài viết xem đây là cơ hội mua dựa trên quỹ đạo tăng trưởng dài hạn kỳ vọng trong các năm tới.
Liên quan đến giao dịch của người nội bộ Công ty cổ phần Tập đoàn Hòa Phát (HPG), Sở Giao dịch Chứng khoán TP.HCM (HoSE) vừa ghi nhận báo cáo kết quả giao dịch cổ phiếu của ông Trần Vũ Minh. Giao dịch của ông Trần Vũ Minh Theo báo…