Sau một loạt các bước lùi trong việc phát triển loại chip nhớ cần thiết cho thị trường trí tuệ nhân tạo (AI), Samsung Electronics Co. đang bắt đầu có tiến triển trong việc thu hẹp khoảng cách với đối thủ SK hynix Inc.
Samsung đã có những bước tiến quan trọng trong màn trở lại của mình, trong đó đáng chú ý là hãng nhận được sự chấp thuận được chờ đợi lâu nay từ “gã khổng lồ” AI Nvidia Corp. cho một phiên bản chip nhớ băng thông cao có tên HBM3. Theo các nguồn thạo tin, sản phẩm chip thế hệ tiếp theo của Samsung là HBM3E, được dự đoán cũng sẽ nhận được cái “gật đầu” của Nvidia trong hai đến bốn tháng tới.
Sau cơn mưa…
Trước khi có những tiến bộ này, Samsung từng vật vã một thời gian với những bước đi sai lầm cho phép đối thủ nhỏ hơn là SK hynix nhảy vọt lên vị trí dẫn đầu trong lĩnh vực đang phát triển nhanh chóng này. Đây là điều bất thường - và có phần đáng quan ngại - đối với công ty lớn nhất Hàn Quốc khi phải chạy dài theo đối thủ. Trước đây, Samsung đã từng đi đầu trong thị trường chip nhớ, khi tận dụng được quy mô và chuyên môn kỹ thuật của mình.
Những sai lầm của Samsung diễn ra trong một giai đoạn bất ổn đối với hãng này. Suốt nhiều năm Chủ tịch điều hành Jay Y. Lee phải đối mặt với các cáo buộc hối lộ và tham nhũng. Trong thời gian đó, các lãnh đạo cấp cao của Samsung lại không coi HBM là một ưu tiên. Trên thực tế, thị trường HBM thời điểm đó là một vòng tròn luẩn quẩn cho đến khi OpenAI ra mắt ChatGPT vào cuối năm 2022 và tạo ra cơn sốt về nhu cầu đối với chip Nvidia được sử dụng để đào tạo các mô hình AI.
Trong khi SK hynix sẵn sàng cho sự bùng nổ này, Samsung lại gặp khó khăn với các vấn đề kỹ thuật phức tạp của chip HBM. Chip HBM được tạo thành từ nhiều chip DRAM xếp chồng lên nhau, và chip HBM thế hệ mới nhất có tới 8 lớp. Mỗi lớp tạo ra một lượng nhiệt đáng kể, sau đó chúng được gói lại bằng bộ vi xử lý đồ họa (GPU) của Nvidia, vốn có thể tự nóng lên đến 100 độ C. Toàn bộ khối chip này có nguy cơ bị nóng chảy nếu không có vật liệu tản nhiệt và làm mát phù hợp.
Theo một nguồn thạo tin, Samsung gặp khó khăn trong việc giải quyết vấn đề về nhiệt này. Vào tháng Năm, hãng đã có một hành động quyết liệt: tuyên bố ông Jun Young-hyun sẽ thay thế ông Kyung Kye-hyun cho vị trí người đứng đầu bộ phận bán dẫn.
Ông Jun, gia nhập Samsung vào năm 2000 và từng góp phần phát triển các loại chip nhớ DRAM và flash của hãng này, đã bắt tay ngay vào việc tìm kiếm giải pháp. Vị lãnh đạo 63 tuổi này đã triệu tập một loạt các cuộc họp để tìm hiểu các chi tiết kỹ thuật và tìm ra gốc rễ của vấn đề.
Lúc đó, Samsung không chỉ có nguy cơ tụt hậu về mặt kỹ thuật chip nhớ mà còn cả về sự đổi mới. Để thúc đẩy sự phối hợp, ông Jun đã tổ chức lại nhóm chuyên trách về HBM của Samsung và bổ nhiệm một người đứng đầu mới.
Samsung sử dụng công nghệ TC-NCF (phim không dẫn điện nén nhiệt) để cách nhiệt cho từng lớp DRAM. Mặt khác, SK hynix lại tiên phong trong một giải pháp thay thế khác để cải thiện mức độ tản nhiệt và năng suất sản xuất. Tuy nhiên, Samsung đã chọn “gắn bó” với TC-NCF và cải thiện công nghệ này, thay vì xem xét các phương pháp khác. Người phát ngôn của hãng cho biết TC-NCF là “công nghệ đã được kiểm chứng” và họ sẽ sử dụng nó trong các sản phẩm tương lai.
Các nguồn tin cho hay cuối cùng, Samsung đã sửa đổi thiết kế HBM để giải quyết các vấn đề về nhiệt độ và tiêu thụ điện năng. Điều đó dẫn đến cái “gật đầu” của Nvidia cho chip HBM3.
…trời lại sáng
Những thành tựu mới nhất của Samsung có thể giúp “ông lớn” này tận dụng được nhu cầu bùng nổ đối với các sản phẩm AI. Theo Morgan Stanley, thị trường HBM được dự đoán tăng từ 4 tỷ USD vào năm ngoái lên 71 tỷ USD vào năm 2027. Samsung nhận được sự chấp thuận của Nvidia càng sớm thì càng có thể kiếm lời nhiều hơn từ sự gia tăng đó.
Mặc dù vẫn đi sau SK hynix trong lĩnh vực này, nhưng tiến bộ đó có thể thay đổi nhìn nhận của giới đầu tư đối với Samsung và nâng giá cổ phiếu của hãng này. Các nhà phân tích Shawn Kim và Duan Liu của Morgan Stanley dự đoán Samsung có thể giành được ít nhất 10% thị phần HBM vào năm 2025, từ đó giúp doanh thu tăng thêm khoảng 4 tỷ USD.
Điều may mắn đối với Samsung là phần lớn sự phát triển của AI vẫn còn ở phía trước. Các công ty công nghệ như Microsoft Corp., Alphabet, Amazon.com Inc., Apple Inc. và Meta Platforms Inc. đều đang mạnh tay đầu tư để phát triển năng lực AI của họ.
Theo các báo cáo hàng quý của Samsung, hãng này đã sản xuất chip HBM3 từ nửa cuối năm ngoái. Các công ty như Google được dự đoán sẽ tiếp tục sử dụng HBM3 trong phần lớn thời gian của năm nay. Samsung đã bắt đầu cung cấp HBM3 cho Nvidia để sản xuất chip H20, một sản phẩm được Nvidia tùy chỉnh cho thị trường Trung Quốc để tuân thủ các biện pháp kiểm soát xuất khẩu của Mỹ.
Còn đối với HBM3E, công nghệ này lần đầu tiên ra mắt thị trường trong năm nay, khi Nvidia tích hợp loại chip mới này của SK hynix vào chip H200 của riêng mình. Trong báo cáo tháng Bảy, các nhà phân tích của Sanford C. Bernstein cho biết Nvidia sẽ tiếp tục sử dụng HBM3E trong hầu hết tất cả các sản phẩm của mình đến hết năm 2025, còn các công ty chip khác sẽ tiếp tục sử dụng loại chip này thậm chí đến năm 2026. Giới phân tích nhận định Samsung đã đến muộn, nhưng cánh cửa HBM3E vẫn còn rộng mở đối với hãng.
Một lợi thế lớn của Samsung là nguồn lực tài chính và năng lực sản xuất. Một khi đáp ứng được các tiêu chí phê duyệt của Nvidia, Samsung có thể nhanh chóng tăng sản lượng, giải quyết tình trạng thiếu hụt, vốn là yếu tố đã đã kìm hãm Nvidia và các công ty AI khác lâu nay. Chuyên gia Silverman của Bloomberg Intelligence cho biết Micron và Hynix chưa có đủ năng lực để cung cấp cho toàn bộ thị trường.
Dưới sự lãnh đạo của ông Jun, Samsung đang đạt được tiến bộ. “Ông lớn” này đã phát triển công nghệ chip HBM3E 12 lớp của riêng mình và đang nỗ lực để được Nvidia chấp thuận cho thế hệ chip đó, cũng như loại HBM3E 8 lớp. Đây là một dấu hiệu cho thấy triển vọng của thị trường này.
Các nhà phân tích của Morgan Stanley dự đoán: “Đây là cơ hội doanh thu 71 tỷ USD vào năm 2027, và hơn thế nữa, điều không tồn tại ở thời điểm hai năm trước”. Câu hỏi đặt ra là liệu Samsung có thể trở thành nguồn cung cấp thứ hai cho Nvidia hay không.