美光Micron推出HBM3E高帶寬內存解決方案
近日,全球領先的存儲解決方案提供商美光(Micron)宣布已開始量產其最新的HBM3E高帶寬內存解決方案。這一消息引起了業界的廣泛關注,尤其是在人工智能(AI)領域,HBM3E的推出將為AI應用的發展帶來重大的推動。
根據美光Micron的宣布,英偉達(NVIDIA)的H200 Tensor Core GPU將采用美光8層堆疊的24GB容量HBM3E內存,并將于2024年第二季度開始出貨。美光Micron HBM3E的引腳速率超過9.2Gb/s,提供超過1.2TB/s的內存帶寬,相比競品,其功耗更低約30%,這將使數據中心能夠無縫擴展其人工智能應用,為用戶提供更加高效和強大的計算性能。
此外,美光Micron還計劃在2024年3月推出12層堆疊的36GB容量HBM3E,預計將提供超過1.2TB/s的性能。這將進一步滿足不斷增長的AI應用對內存容量和帶寬的需求,為用戶提供更大規模的計算能力和數據處理能力。
值得一提的是,美光Micron將贊助于3月18日開幕的英偉達GTC全球人工智能大會,并將在會議上分享更多前沿AI內存產品系列和路線圖。這標志著美光在AI領域的持續投入和創新,為行業發展注入了新的動力和活力。