Giám đốc điều hành Nvidia Jensen Huang, trong chiếc áo khoác da màu đen đặc trưng của mình tại hội nghị tháng 3 ở San Jose, không thể che giấu sự phấn khích của mình về chip bộ nhớ băng thông cao (HBM). Ông gọi chúng là “những điều kỳ diệu về công nghệ”, một phần thiết yếu của cuộc cách mạng AI.
Gã khổng lồ chip Mỹ chuyên sản xuất bộ vi xử lý đồ họa hỗ trợ ChatGPT và các ứng dụng AI tiên tiến. Để GPU hoạt động hết tiềm năng cần có HBM – thứ mà Nvidia cho đến nay chủ yếu mua từ SK Hynix của Hàn Quốc. Khi nhu cầu về chip AI tăng cao, công ty đang tìm cách mở rộng danh sách nhà cung cấp và điều này đang gây ra sự cạnh tranh khốc liệt giữa các nhà sản xuất chip nhớ.
Hiện tại, SK Hynix là công ty dẫn đầu với hơn một nửa thị phần toàn cầu cho HBM. Đồng hương Mỹ là Samsung Electronics và Micron cũng đang chạy đua để bắt kịp, cạnh tranh không chỉ về công nghệ mà còn về giá cả.
HBM, nói một cách đơn giản, là một dạng chip DRAM có cấu trúc xếp chồng lên nhau. Điều này có nghĩa là một nhà sản xuất HBM cạnh tranh không chỉ giỏi sản xuất và tìm nguồn cung ứng DRAM mà còn thành thạo các kỹ thuật xếp chồng tiên tiến.
“Sản xuất HBM không hề dễ dàng. Nếu chỉ một lớp của ngăn xếp gặp sự cố thì toàn bộ sản phẩm sẽ phải bị loại bỏ. Năng suất là một trong những phần rất thách thức”, một giám đốc điều hành công ty chip cho biết.
Theo nhà phân tích Avril Wu của TrendForce, bất chấp những thách thức, ba ông lớn vẫn đặt cược lớn vào HBM vì họ đang bán với giá gấp khoảng 5 lần giá DDR5, loại DRAM tiên tiến nhất được sử dụng trong máy tính.
Nhà phân tích ước tính thị phần của HBM có thể chiếm hơn 20% tổng giá trị thị trường DRAM trong năm nay và tiếp tục tăng lên hơn 30% vào năm 2025 nhờ nhu cầu điện toán AI ngày càng tăng.
SK Hynix tự tin có thể tiếp tục dẫn đầu thị trường HBM nhờ công nghệ xếp chồng tiên tiến mang tên MR-MUF. “Chúng tôi đã và đang tăng cường sản xuất hàng loạt HBM3e. … Chúng tôi bắt đầu áp dụng công nghệ MR-MUF từ HBM2e bốn lớp và đã duy trì khả năng cạnh tranh cao nhất trong ngành đối với HBM3 và HMB3e tám lớp,” Kim Jong-hwan, phó chủ tịch công ty, cho biết.
Một thập kỷ trước, SK Hynix đã phát triển HBM đầu tiên trên thế giới để sử dụng trong trò chơi điện tử. Sự ra đời của AI nói chung khiến sản phẩm này càng trở nên quan trọng hơn. Phiên bản mới nhất là HBM3e, dự kiến sẽ được Nvidia áp dụng vào cuối năm nay.
SK Hynix được dự báo sẽ tiếp tục dẫn đầu phân khúc HBM vào năm 2024, với thị phần trên 52%, theo dữ liệu của Trendforce. Samsung hiện đang nắm giữ ở mức 42,4%, trong khi Micron được kỳ vọng sẽ kiểm soát hơn 5% thị trường.
“Việc thương mại hóa sản phẩm HBM3e đang diễn ra suôn sẻ theo đúng tiến độ của khách hàng. Chúng tôi hy vọng doanh số bán hàng sẽ được tạo ra sớm nhất là vào cuối quý hai,” Kim Jae-june, phó chủ tịch điều hành mảng kinh doanh chip nhớ của Samsung, cho biết trong một cuộc gọi hội nghị vào tháng trước. . Samsung không đề cập đến tên khách hàng, nhưng Nvidia đã xác nhận vào tháng 3 rằng họ đang thử nghiệm các mẫu HBM của Samsung.
Tuy nhiên, theo các chuyên gia, sự chênh lệch về trình độ công nghệ giữa SK Hynix và Samsung sẽ còn tồn tại trong một thời gian nữa. Shelley Jang, giám đốc Fitch Ratings, cho biết trong một hội nghị vào tháng trước: “Chúng tôi tin rằng sẽ mất một thời gian để Samsung bắt kịp. Đó là bởi vì có một số khác biệt về công nghệ. SK Hynix có thể chiếm thế thượng phong và trong trung và dài hạn, chúng tôi không nghĩ cấu trúc của thị trường bán dẫn sẽ thay đổi mạnh mẽ ”.
Vào tháng 2, nhà sản xuất chip nhớ Micron của Mỹ tuyên bố họ đã bắt đầu sản xuất hàng loạt chip HBM3e của riêng mình. Micron cho biết những sản phẩm này sử dụng ít điện năng hơn 30% so với các sản phẩm cạnh tranh và cũng sẽ được Nvidia sử dụng trong GPU H200.
Sự bùng nổ AI đã mang lại lợi ích cho Micron. Chủ tịch kiêm Giám đốc điều hành Micron Sanjay Mehrotra cho biết: “Chúng tôi đang bắt đầu giai đoạn tăng trưởng kéo dài nhiều năm được thúc đẩy bởi AI”. Công nghệ đột phá này sẽ biến đổi mọi khía cạnh của kinh doanh và xã hội. HBM của chúng tôi đã được bán hết cho năm 2024 và phần lớn nguồn cung năm 2025 đã được phân bổ.”
Powertech, nhà cung cấp dịch vụ thử nghiệm và đóng gói chip nhớ hàng đầu thế giới, cho biết họ đang làm việc với một số khách hàng để khám phá các cơ hội trong tương lai. DK Tsai, chủ tịch Powertech cho biết: “Hiện tại, HBM chủ yếu dành cho điện toán máy chủ trung tâm dữ liệu. Chúng tôi thấy rằng trong tương lai, ngay cả máy tính và thiết bị điện tử tiêu dùng cũng có thể sử dụng HBM.”
Doris Hsu, chủ tịch kiêm giám đốc điều hành của Globalwafers, nhà sản xuất tấm wafer lớn thứ ba thế giới, cho biết HBM đã và đang thay đổi thị trường.
“HBM chắc chắn là một trong những động lực tăng trưởng quan trọng trong nửa cuối năm nay. Trong tương lai, điều này chắc chắn sẽ thay đổi ngành bộ nhớ DRAM vì nhu cầu đang tăng quá nhanh.”
“Từ góc độ khách hàng, việc dựa vào một nhà cung cấp duy nhất sẽ là một mối lo ngại vì thị trường HBM đang phát triển nhanh chóng. Chúng tôi tin rằng sự cạnh tranh sẽ giúp thị trường bộ nhớ AI phát triển hơn nữa”, Phó chủ tịch SK Hynix Kim Jong-hwan cho biết.
Tuy nhiên, thị trường chip nhớ nổi tiếng là nhạy cảm với những biến động về cung và cầu. Theo nhà phân tích Pak Yu-ak của Kiwoom Securities, nguy cơ dư cung HBM trong năm tới là có thể xảy ra.
Ông Pak cho biết trong một báo cáo hồi tháng 3: “Nếu Samsung Electronics thành công trong việc bán chip HBM3e, thị trường HBM dự kiến sẽ đối mặt với tình trạng dư cung vào năm 2025”.
Theo: Nikkei Châu Á
Link nguồn: https://cafef.vn/vu-khi-chip-duoc-menh-danh-la-phep-mau-cong-nghe-tu-sk-hynix-den-samsung-deu-tranh-gianh-nvidia-dac-biet-yeu-thich-188240510134320413.chn