Nhận tin tức, cập nhật và báo cáo tiền điện tử mới nhất bằng cách đăng ký nhận bản tin miễn phí của chúng tôi.
Giấy phép số 4978/GP-TTĐT do Sở Thông tin và Truyền thông Hà Nội cấp ngày 14 tháng 10 năm 2019 / Giấy phép SĐ, BS GP ICP số 2107/GP-TTĐT do Sở TTTT Hà Nội cấp ngày 13/7/2022.
© 2026 Index.vn
Thị trường bán dẫn đã trải qua nhiều tuần biến động sau khi thông tin về thuật toán TurboQuant tiết kiệm bộ nhớ AI của Google được công bố. Công nghệ này được kỳ vọng có thể giảm đáng kể lượng bộ nhớ cần thiết để vận hành trí tuệ nhân tạo, qua đó đặt ra lo ngại đối với các nhà sản xuất chip nhớ băng thông cao như Samsung Electronics và SK Hynix. Tuy nhiên, diễn biến thực tế lại cho thấy một nghịch lý đáng chú ý: hiệu quả hơn không nhất thiết làm giảm nhu cầu chip, mà có thể thúc đẩy quy mô ngành.
Theo Financial Times, trong khi nhà đầu tư lo ngại TurboQuant có thể làm nguội nhu cầu chip nhớ, kết quả lợi nhuận bùng nổ của Samsung lại gửi tín hiệu ngược chiều. Cụ thể, Samsung Electronics cho biết lợi nhuận quý I cao hơn tổng lợi nhuận của cả năm trước gộp lại. Con số này được xem là yếu tố giúp xoa dịu lo lắng của cổ đông và cho thấy “nút thắt cổ chai” về bộ nhớ cho các công ty AI vẫn còn nóng.
Trong báo cáo, Samsung nhận định thị trường đang bước vào một “siêu chu kỳ chưa từng có”, với nhu cầu về chip nhớ bền bỉ và mạnh mẽ hơn trước.
Cổ phiếu Samsung cũng ghi nhận phản ứng tích cực sau khi thông tin TurboQuant được công bố, nhanh chóng hồi phục và tiến gần mức đỉnh mọi thời đại. Diễn biến này phản ánh niềm tin của thị trường rằng công nghệ mới có thể không làm giảm nhu cầu chip nhớ, thậm chí còn có thể mở rộng quy mô ngành bán dẫn.
TurboQuant được mô tả là thuật toán nén bộ nhớ đệm KV, một dạng bộ nhớ ngắn hạn giúp các mô hình ngôn ngữ lớn như ChatGPT hay Claude ghi nhớ ngữ cảnh cuộc trò chuyện. Theo Google, giải pháp này có thể giảm lượng bộ nhớ sử dụng tới 6 lần mà không làm giảm đáng kể độ chính xác.
Ông Han In-su, một trong các nhà nghiên cứu có công trình làm nền cho TurboQuant, cho rằng thuật toán có thể tạo nền tảng để thực hiện các nhiệm vụ trước đây không khả thi, như xử lý các ngữ cảnh dài hơn trong điều kiện nguồn bộ nhớ hạn chế mà vẫn giữ độ chính xác, hoặc triển khai AI hiệu suất cao trên các thiết bị nhỏ hơn.
Ở góc nhìn khác, giáo sư Kwon Seok-joon tại Đại học Sungkyunkwan nhận định TurboQuant có tiềm năng giảm chi phí vận hành các mô hình ngôn ngữ từ 4 đến 8 lần. Ông cũng cho rằng điều này có thể làm giảm nhu cầu đối với chip nhớ băng thông cao.
Lý thuyết truyền thống cho rằng nếu một hệ thống cần ít bộ nhớ hơn để chạy, nhu cầu mua chip mới có thể giảm. Đây là một phần lý do khiến cổ phiếu Samsung và SK Hynix giảm mạnh trong tháng trước khi nhà đầu tư bán tháo vì lo ngại thời kỳ hoàng kim của chip nhớ kết thúc.
Tuy nhiên, các nhà phân tích đưa ra một kịch bản khác dựa trên “nghịch lý Jevons” (từ năm 1865). Theo lý thuyết này, khi hiệu quả sử dụng một nguồn tài nguyên tăng lên, tổng mức tiêu thụ nguồn tài nguyên đó có xu hướng tăng thay vì giảm, vì chi phí rẻ hơn khiến việc sử dụng trở nên khả thi trong nhiều bối cảnh mới.
Giáo sư Kwon bổ sung rằng khi AI trở nên “rẻ hơn”, có thể xuất hiện khối lượng công việc trước đây được xem là quá đắt để thực hiện. Ví dụ được nêu gồm các trợ lý mã hóa thời gian thực hoặc hàng loạt tác tử AI chạy đồng thời. Khi đó, tổng nhu cầu tính toán và lưu trữ có thể tăng, kéo theo nhu cầu về chip nhớ.
Nhà phân tích cũng dẫn lại một ví dụ lịch sử với Kubernetes của Google: ban đầu lo ngại công nghệ này sẽ giảm nhu cầu máy chủ do cho phép chạy nhiều ứng dụng trên cùng một phần cứng, nhưng thực tế chi phí rẻ hơn lại thúc đẩy việc sử dụng rộng rãi, dẫn tới sự bùng nổ của hạ tầng trung tâm dữ liệu.
Một yếu tố khác được cho là giúp các nhà sản xuất chip Hàn Quốc tự tin trước làn sóng thuật toán mới là sự thay đổi trong cấu trúc vận hành thị trường. Ray Wang, chuyên gia từ SemiAnalysis, cho biết bộ nhớ đang dần mất tính chu kỳ nhờ nhu cầu AI bền vững. Các nhà cung cấp dịch vụ AI được cho là đang nỗ lực đặt chỗ trước thông qua các hợp đồng dài hạn để đảm bảo nguồn cung.
Jun Young-hyun, đồng giám đốc điều hành của Samsung, xác nhận công ty đang chuyển dịch từ các điều khoản ký kết theo quý hoặc hàng năm sang các hợp đồng kéo dài 3 đến 5 năm với các khách hàng lớn. Cách tiếp cận này được mô tả là tạo “tấm đệm” doanh thu, giúp Samsung và SK Hynix ít chịu tác động hơn trước các biến động ngắn hạn liên quan đến thuật toán hoặc tâm lý thị trường.
Tại thời điểm hiện tại, TurboQuant vẫn đang ở giai đoạn ý tưởng trong một bài đăng học thuật của Google và sẽ được trình bày chi tiết tại Hội nghị quốc tế về Biểu diễn học tập (ICLR) ở Brazil vào cuối tháng Tư.
Dù vậy, theo nội dung được dẫn lại, nhu cầu chip nhớ vẫn được nhìn nhận là tiếp tục ở trạng thái “khát” trong bối cảnh AI phát triển.
Giáo sư Han cũng cho biết: “Chúng tôi chưa bao giờ tưởng tượng được rằng một công nghệ bắt đầu từ câu hỏi về cách nén dữ liệu hoàn hảo hơn lại có thể gây ra một làn sóng kinh tế vĩ mô và xã hội lớn như vậy.”
Nguồn: Financial Times, The Verge.