Thanh Thúy
Well-known member
SK Hynix, một trong những nhà sản xuất chip nhớ lớn nhất thế giới, vừa công bố lợi nhuận quý hai đạt mức cao nhất trong 6 năm khi hãng duy trì vị trí dẫn đầu về chip nhớ tiên tiến quan trọng cho điện toán trí tuệ nhân tạo.
Trong quý 2 vừa qua, SK Hynix đạt doanh thu 16,42 nghìn tỷ won (khoảng 11,86 tỷ USD) và lợi nhuận hoạt động 5,47 nghìn tỷ won, cao nhất kể từ quý 2 năm 2018.
Doanh thu quý 2 của SK Hynix tăng 124,7% so với 7,3 nghìn tỷ won được ghi nhận một năm trước. Đây là doanh thu hàng quý cao nhất từ trước đến nay trong lịch sử của công ty.
SK Hynix cho biết giá các sản phẩm bộ nhớ của họ tăng liên tục nhờ nhu cầu mạnh mẽ về bộ nhớ AI bao gồm cả bộ nhớ băng thông cao đã khiến doanh thu tăng 32% so với quý trước. Công ty hiện cung cấp chip nhớ băng thông cao phục vụ cho chipset AI cho các công ty như Nvidia.
“Trong nửa cuối năm nay, nhu cầu mạnh mẽ từ máy chủ AI dự kiến sẽ tiếp tục cũng như sự phục hồi dần dần ở các thị trường thông thường với sự ra mắt của PC và thiết bị di động hỗ trợ AI,” công ty cho biết trong báo cáo doanh thu vừa công bố.
Tận dụng nhu cầu AI mạnh mẽ, SK Hynix có kế hoạch “tiếp tục dẫn đầu thị trường HBM bằng cách sản xuất hàng loạt các sản phẩm HBM3E 12 lớp”.
Công ty sẽ bắt đầu sản xuất hàng loạt HBM3E 12 lớp trong quý này sau khi cung cấp sản phẩm mẫu cho các khách hàng lớn và dự kiến sẽ giao hàng cho khách hàng vào quý 4.
Các công ty dẫn đầu về bộ nhớ như SK Hynix đã tích cực mở rộng công suất HBM để đáp ứng nhu cầu đang bùng nổ về bộ xử lý AI.
Nguồn cung cấp chip bộ nhớ băng thông cao đã bị kéo căng nhờ việc áp dụng AI bùng nổ được thúc đẩy bởi các mô hình ngôn ngữ lớn như ChatGPT.
Các nhà phân tích cảnh báo rằng sự bùng nổ AI dự kiến sẽ khiến nguồn cung chip nhớ cao cấp bị thắt chặt trong năm nay. SK Hynix và Micron hồi tháng 5 cho biết họ đã hết chip nhớ băng thông cao cho năm 2024, trong khi nguồn hàng cho năm 2025 cũng gần như hết hàng.
Các mô hình ngôn ngữ lớn yêu cầu nhiều chip nhớ hiệu suất cao vì những chip như vậy cho phép các mô hình này ghi nhớ chi tiết từ các cuộc hội thoại trước đây và sở thích của người dùng để tạo ra phản hồi giống con người.
SK Hynix chủ yếu dẫn đầu thị trường chip nhớ băng thông cao, là nhà cung cấp chip HBM3 duy nhất cho Nvidia trước khi đối thủ Samsung được cho là đã vượt qua các thử nghiệm về việc sử dụng chip HBM3 trong bộ xử lý Nvidia cho thị trường Trung Quốc.
Công ty cho biết họ dự kiến sẽ xuất xưởng HBM4 12 lớp thế hệ tiếp theo từ nửa cuối năm 2025.
Trong quý 2 vừa qua, SK Hynix đạt doanh thu 16,42 nghìn tỷ won (khoảng 11,86 tỷ USD) và lợi nhuận hoạt động 5,47 nghìn tỷ won, cao nhất kể từ quý 2 năm 2018.
Doanh thu quý 2 của SK Hynix tăng 124,7% so với 7,3 nghìn tỷ won được ghi nhận một năm trước. Đây là doanh thu hàng quý cao nhất từ trước đến nay trong lịch sử của công ty.
SK Hynix cho biết giá các sản phẩm bộ nhớ của họ tăng liên tục nhờ nhu cầu mạnh mẽ về bộ nhớ AI bao gồm cả bộ nhớ băng thông cao đã khiến doanh thu tăng 32% so với quý trước. Công ty hiện cung cấp chip nhớ băng thông cao phục vụ cho chipset AI cho các công ty như Nvidia.
“Trong nửa cuối năm nay, nhu cầu mạnh mẽ từ máy chủ AI dự kiến sẽ tiếp tục cũng như sự phục hồi dần dần ở các thị trường thông thường với sự ra mắt của PC và thiết bị di động hỗ trợ AI,” công ty cho biết trong báo cáo doanh thu vừa công bố.
Tận dụng nhu cầu AI mạnh mẽ, SK Hynix có kế hoạch “tiếp tục dẫn đầu thị trường HBM bằng cách sản xuất hàng loạt các sản phẩm HBM3E 12 lớp”.
Công ty sẽ bắt đầu sản xuất hàng loạt HBM3E 12 lớp trong quý này sau khi cung cấp sản phẩm mẫu cho các khách hàng lớn và dự kiến sẽ giao hàng cho khách hàng vào quý 4.
Các công ty dẫn đầu về bộ nhớ như SK Hynix đã tích cực mở rộng công suất HBM để đáp ứng nhu cầu đang bùng nổ về bộ xử lý AI.
Nguồn cung cấp chip bộ nhớ băng thông cao đã bị kéo căng nhờ việc áp dụng AI bùng nổ được thúc đẩy bởi các mô hình ngôn ngữ lớn như ChatGPT.
Các nhà phân tích cảnh báo rằng sự bùng nổ AI dự kiến sẽ khiến nguồn cung chip nhớ cao cấp bị thắt chặt trong năm nay. SK Hynix và Micron hồi tháng 5 cho biết họ đã hết chip nhớ băng thông cao cho năm 2024, trong khi nguồn hàng cho năm 2025 cũng gần như hết hàng.
Các mô hình ngôn ngữ lớn yêu cầu nhiều chip nhớ hiệu suất cao vì những chip như vậy cho phép các mô hình này ghi nhớ chi tiết từ các cuộc hội thoại trước đây và sở thích của người dùng để tạo ra phản hồi giống con người.
SK Hynix chủ yếu dẫn đầu thị trường chip nhớ băng thông cao, là nhà cung cấp chip HBM3 duy nhất cho Nvidia trước khi đối thủ Samsung được cho là đã vượt qua các thử nghiệm về việc sử dụng chip HBM3 trong bộ xử lý Nvidia cho thị trường Trung Quốc.
Công ty cho biết họ dự kiến sẽ xuất xưởng HBM4 12 lớp thế hệ tiếp theo từ nửa cuối năm 2025.