數據中心轉型智算中心成行業趨勢 液冷技術或爲“必選項” 但尚存這些待解難題|聚焦

《科創板日報》11月29日訊(記者 陳俊清) 人工智能浪潮下,數據中心的需求急劇增加。爲了應對AI基礎設施巨大功耗和散熱等問題,數據中心的建設呈現出新趨勢。

“智算中心的建設趨勢與以往不同,一是規模越來越大;二是要求的功率密度更高,數據中心的物理條件要求也更高。同時,製冷技術、輸配電等技術,都要能夠配合高功率的要求。”近日,在普洛斯數據中心媒體開放日活動上,普洛斯中國高級副總裁、數據中心業務聯席總裁郭仁聲在回答《科創板日報》等媒體採訪時表示。

普洛斯高管在會上披露了其前三季度的兩項數據:2024年前三季度,普洛斯數據中心銷售收入同比增長達63%;截至2024年三季度,普洛斯數據中心IT負載總交付量達到380MW。

據瞭解,普洛斯常熟東南數據中心項目二期園區目前處於建設狀態,全部交付完成後IT負載預計達120MW。

數據中心轉型智算中心成行業趨勢

有業內專家表示,以ChatGPT爲主的大模型應用爆發性增長後,極大地帶動了智能算力增長,以AI服務器爲主的智算中心逐漸變成數據中心的主流趨勢。

在近期舉行的第三屆算力網絡與數字經濟論壇暨2024年“算力浦江”總結大會上,上海市通信管理局副局長戴斌建議通過技術革新、標準制定、基礎設施改造升級等多方面措施,推動傳統數據中心向智算中心轉型升級。

上述業內人士亦表示,當前數據中心的發展趨勢主要包括兩點:一是算力基礎設施邁入算力中心和智算中心“雙中心”時代。前者是面向雲計算、算力網絡等方面,提供服務化、集中式、網絡化的算力;後者則是主要面向人工智能場景,設備以GPU爲代表的AI芯片,集羣規模也較大。

二是相對於通算中心,智算中心產生了新的需求。“智算中心時代,更多的是以AI芯片爲主,相應的服務器的平均的功耗也隨之上漲,模型的高併發的處理期需要大的算力,高併發期後並不太需要那麼多算力,這非常考驗整個智算中心資源調度能力。”

近期,有市場人士爆料稱,英偉達BlackwellGPU在裝有72個處理器的服務器中使用時會產生過熱問題,這些機器預計每個機架的功耗高達120kw。過熱會限制GPU性能並有損壞組件的風險。

在普洛斯中國高級副總裁、數據中心業務聯席總裁郭仁聲看來,算力時代下,數據中心的規模正在擴大。“當大型客戶要做算力平臺的時候,要求至少30兆瓦起步,且部分客戶會要求具備未來擴容到100兆瓦的體量。很多原來傳統的單體數據中心,或者說規模在2000個機櫃的數據中心可能就沒辦法適應要求,從而往大型基地型數據中心轉移,目前該趨勢較爲明顯。”

市場方面,郭仁聲表示,在通算和智算的營收佔比中,智算的比例現成長很快,頭部客戶大概這一兩年開始佈局智算。“隨着AI大模型能力的建設,不同的AI應用場景落地,數據量指數級增加。未來隨着影像、聲音等類型數據產生,對數據的存儲、處理方面的需求會持續保持較高增長,也會直接帶動數據中心建設。”

液冷技術或爲“必選項”

在本月召開的第六屆全國超級算力大會上,聯想集團副總裁、聯想中國基礎設施業務羣總經理陳振寬表示,算力不僅要變得更智能,也要變得更綠色,在計算需求和計算能耗同步增長的雙重壓力下,液冷技術已從“可選”變成“必選”。

普洛斯中國高級副總裁、數據中心業務聯席總裁郭仁聲表示,很多客戶在逐步嘗試液冷的應用,技術也在不斷演變。“不同行業對AI算力的需求不同。其中,在金融行業中,更多的是做垂類場景化模型,這對算力要求較低,對液冷的需求並不高。而頭部雲廠商,會投入大資源建大規模的集羣,做自己的大語言模型,並應用不同應用場景,對液冷需求較高。總體而言,液冷大部分還是在試點的環境下建設。”

根據IDC發佈的《中國半年度液冷服務器市場(2024上半年)跟蹤》顯示,中國液冷服務器市場2024上半年同比大幅增長98.3%,市場規模達12.6億美元,出貨量同比增長81.8%。預計2023-2028年,中國液冷服務器年複合增長率將達47.6%,市場規模有望在2028年達102億美元。

從行業角度來看,互聯網行業依然是2024上半年中國液冷服務器市場最大買家,佔整體市場超60%的份額。其中,CSP對於加速建設大集羣的液冷數據中心最爲積極。

就技術路線而言,液冷可大致分爲直接液冷與間接液冷,市場上關於液冷的各種產品呈現百花齊放態勢。對此,有業內人士分析稱,“推動液冷落地核心還是標準化的問題,標準化程度低會給用戶方帶來在維護、採購等方面的較多困難,阻礙液冷的應用,因此推動液冷標準化成爲一項重點工作。”