Elon Musk đang gấp rút tạo siêu máy tính lớn nhất thế giới

TRUONGTRINH

Well-known member
Quá trình xây dựng cơ sở đặt siêu máy tính của Elon Musk đã gần hoàn tất, dự kiến bắt đầu lắp đặt máy móc trong vài tháng tới.


Hồi tháng 5, The Information dẫn đưa tin tỷ phú Mỹ và công ty xAI đang lập kế hoạch huy động và kết nối 100.000 card đồ họa chuyên dụng thành một siêu máy tính có tên "Gigafactory of Computing", dự kiến hoạt động vào mùa thu năm sau.

Theo Tom's Hardware, Musk đang nỗ lực để hệ thống hoàn thành đúng tiến độ. Ông chọn Supermicro cung cấp giải pháp làm mát cho cả hai trung tâm dữ liệu chứa siêu máy tính của Tesla và xAI.

"Cảm ơn Musk vì đã đi đầu lựa chọn công nghệ làm mát bằng chất lỏng cho các trung tâm dữ liệu AI khổng lồ. Bước đi này có thể giúp bảo tồn 20 tỷ cây xanh cho hành tinh", Charles Liang, nhà sáng lập kiêm CEO của Supermicro, viết trên X ngày 2/7.


Charles Liang chia sẻ ảnh chụp cùng Elon Musk tại một trung tâm dữ liệu. Ảnh: Charles Liang


Charles Liang chia sẻ ảnh chụp cùng Elon Musk tại một trung tâm dữ liệu. Ảnh: X/Charles Liang


Các trung tâm dữ liệu AI vốn tiêu tốn lượng điện năng lớn, Supermicro hy vọng giải pháp bằng chất lỏng của họ sẽ giảm đến 89% chi phí điện cho cơ sở hạ tầng so với giải pháp truyền thống là dùng không khí.

Trong tweet trước đó, Musk ước tính siêu máy tính Gigafactory sẽ tiêu thụ 130 MW (130 triệu watt) điện khi triển khai. Kết hợp phần cứng AI của Tesla sau khi được lắp đặt, điện năng tiêu thụ của nhà máy có thể lên 500 MW. Tỷ phú cho biết việc xây dựng cơ sở gần như hoàn tất, dự kiến bắt đầu lắp đặt máy móc vài tháng tới.

Musk đang xây dựng song song hai cụm siêu máy tính cho Tesla và công ty khởi nghiệp xAI, ước tính đều trị giá hàng tỷ USD. Theo Reuters, nếu hoàn thành kết nối 100.000 GPU H100, Gigafactory of Computing là siêu máy tính mạnh nhất thế giới, gấp bốn lần cụm GPU lớn nhất hiện nay.

xAI được Elon Musk thành lập vào tháng 7 năm ngoái, cạnh tranh trực tiếp với OpenAI và Microsoft. Startup này sau đó tung ra mô hình AI Grok, đối đầu với ChatGPT. Hồi đầu năm, Musk cho biết việc đào tạo mô hình Grok 2 tiếp theo sẽ cần khoảng 20.000 GPU H100 của Nvidia, trong khi Grok 3 có thể cần 100.000 chip H100.
 
Bên trên