![]() |
在數據中心工程設計時,如何科學有效的進行能源管理? 我想这是目前大家都比较关心的问题。我想這是目前大家都比較關心的問題。 《智能建筑与城市信息》杂志联合数据中心工作组针对数据中心工程设计时的相关问题进行了专项市场调查,共回收了527份调查表。 《智能建築與城市信息》雜誌聯合數據中心工作組針對數據中心工程設計時的相關問題進行了專項市場調查,共回收了527份調查表。 调查对象各城市所占比例,如图1所示。調查對象各城市所佔比例,如圖1所示。 调查对象以设计单位、系统集成商、最终用户为主,其数据分析如图2所示。調查對像以設計單位、系統集成商、最終用戶為主,其數據分析如圖2所示。 报告中详细分析了在新一代数据中心的构建和设计中,从业人员比较关心的问题,对从事数据中心建设的广大读者极具参考价值。報告中詳細分析了在新一代數據中心的構建和設計中,從業人員比較關心的問題,對從事數據中心建設的廣大讀者極具參考價值。 (1)调查对象所属地区 (1)調查對象所屬地區 本次调查主要选取了有代表性的一些区域,主要包括上海、广州、天津、南京、成都、杭州、西安、沈阳、哈尔滨等9个城市,收回调查表的具体比例如图1所示。本次調查主要選取了有代表性的一些區域,主要包括上海、廣州、天津、南京、成都、杭州、西安、瀋陽、哈爾濱等9個城市,收回調查表的具體比例如圖1所示。 ![]() 圖1 各地區回收調查表比例圖 本次调查主要围绕设计单位、系统集成商以及最终用户(业主方)进行,各调查对象所属类别所占比例如图2所示。本次調查主要圍繞設計單位、系統集成商以及最終用戶(業主方)進行,各調查對象所屬類別所佔比例如圖2所示。 ![]() 图2 各调查对象比例图圖2 各調查對像比例圖 1數據中心機房的安放 (1)主机房的面积 (1)主機房的面積 在数据中心项目中,一般主机房的面积大约在多少平米才合适呢?在數據中心項目中,一般主機房的面積大約在多少平米才合適呢? 不同的项目有着不同的标准规定。不同的項目有著不同的標準規定。 通过我们的调查发现,将近一半的人(49.1%)认为数据中心机房的面积应该在100~300 m2之间,还有31.5%的人认为数据中心机房的面积应该在300 m2以上,另外,只有19.4%的人认为数据中心机房的面积应该在100 m2 以内。通過我們的調查發現,將近一半的人(49.1%)認為數據中心機房的面積應該在100~300 m2之間,還有31.5%的人認為數據中心機房的面積應該在300 m2以上,另外,只有19.4%的人認為數據中心機房的面積應該在100 m2 以內。 这个调查说明,目前社会上各行业正在使用的主机房面积普遍在100~300 m2之间,这是符合目前中国国情的,但也有将近1/3的人认为主机房的面积应该在300 m2以上,说明这部分人对数据中心的发展趋势比较了解,正是因为近年来很多人认识到数据中心的重要性,才使得数据中心机房的面积越建越大。這個調查說明,目前社會上各行業正在使用的主機房面積普遍在100~300 m2之間,這是符合目前中國國情的,但也有將近1/3的人認為主機房的面積應該在300 m2以上,說明這部分人對數據中心的發展趨勢比較了解,正是因為近年來很多人認識到數據中心的重要性,才使得數據中心機房的面積越建越大。 ![]() 图3 各方对不同面积主机房选择的比例图圖3 各方對不同面積主機房選擇的比例圖 (2)機房功率密度 为服务器机房确定功率密度值是IT 人员正在面临的巨大挑战。為服務器機房確定功率密度值是IT 人員正在面臨的巨大挑戰。 如果对数据中心采用传统功率密度值(0.4-0.8kW /m2),则会导致无法可靠地安装新一代的IT 设备。如果對數據中心採用傳統功率密度值(0.4-0.8kW /m2),則會導致無法可靠地安裝新一代的IT 設備。 但如果对数据中心采用新一代高密度IT设备(1.5–2.0kW /m2),则会导致数据中心的供电和制冷技术受到严峻挑战,此外还会导致极高的成本和较低的用电效率。但如果對數據中心採用新一代高密度IT設備(1.5–2.0kW /m2),則會導致數據中心的供電和製冷技術受到嚴峻挑戰,此外還會導致極高的成本和較低的用電效率。 因此,在制定数据中心功率密度时最好能够满足以下要求:(1)确保数据中心符合部分高密度IT 设备的需求;(2)避免电力、空调、建筑空间和资金的浪费;(3)选择恰当的节能方式,降低PUE值。因此,在製定數據中心功率密度時最好能夠滿足以下要求:(1)確保數據中心符合部分高密度IT 設備的需求;(2)避免電力、空調、建築空間和資金的浪費;(3)選擇恰當的節能方式,降低PUE值。 在已经建成的数据中心中,功率密度值采用3.0kW/机柜的居多,而在新建或计划建设的数据中心中,机房功率密度多采用5.0kW/机柜,8.0kW/机柜以上的数据中心也在逐渐增多。在已經建成的數據中心中,功率密度值採用3.0kW/機櫃的居多,而在新建或計劃建設的數據中心中,機房功率密度多采用5.0kW/機櫃,8.0kW/機櫃以上的數據中心也在逐漸增多。 由此可见,随着数据中心的不断升级,机房功率密度正向越来越高的方向发展。由此可見,隨著數據中心的不斷升級,機房功率密度正向越來越高的方向發展。 但随之而来的空调降温问题,又会促使机房功率密度值不能太高。但隨之而來的空調降溫問題,又會促使機房功率密度值不能太高。 数据中心工程设计时,功率密度值一般按照多少比较合适?數據中心工程設計時,功率密度值一般按照多少比較合適? 通过我们的调查发现:通過我們的調查發現: (1)按照机柜功率密度计算 (1)按照機櫃功率密度計算 有超过一半的用户(53.4%)选择了5.0kW/机柜,27.8%的用户选择3.0kW/机柜,10.8%的用户选择了2.0kW/机柜,另外还有5.7%的用户选择了8.0kW/机柜。有超過一半的用戶(53.4%)選擇了5.0kW/機櫃,27.8%的用戶選擇3.0kW/機櫃,10.8%的用戶選擇了2.0kW/機櫃,另外還有5.7%的用戶選擇了8.0kW/機櫃。 从调查数据来看,按照机柜功率密度来算,大家比较倾向的是5.0kW/m2机柜,可见5.0kW/m2机柜是目前数据中心机柜功率密度的主流。從調查數據來看,按照機櫃功率密度來算,大家比較傾向的是5.0kW/m2機櫃,可見5.0kW/m2機櫃是目前數據中心機櫃功率密度的主流。 ![]() 图4 各种机柜功率密度选择的比例图圖4 各種機櫃功率密度選擇的比例圖 (2)按照單位面積功率密度計算 有超过三分之一的用户(36.0%)选择了1.0kW/ m2,31.4%的用户选择1.5kW/ m2,14.0%的用户选择了0.5kW/ m2,另外还有12.8%的用户选择了2.0kW/ m2。有超過三分之一的用戶(36.0%)選擇了1.0kW/ m2,31.4%的用戶選擇1.5kW/ m2,14.0%的用戶選擇了0.5kW/ m2,另外還有12.8%的用戶選擇了2.0 kW/ m2。 从调查数据来看,如果按照单位面积功率密度来算,大家比较倾向的是1.0kW/m2,其次是1.5kW/m2的功率密度。從調查數據來看,如果按照單位面積功率密度來算,大家比較傾向的是1.0kW/m2,其次是1.5kW/m2的功率密度。 ![]() 图5 各种单位面积功率密度选择的比例图圖5 各種單位面積功率密度選擇的比例圖 2 电子信息设备采用的等电位联结方式 2電子信息設備採用的等電位聯結方式 对电子信息设备进行等电位联结是保障人身安全、保证电子信息系统正常运行、避免电磁干扰的基本要求。對電子信息設備進行等電位聯結是保障人身安全、保證電子信息系統正常運行、避免電磁干擾的基本要求。 在数据中心工程设计时,电子信息设备应进行等电位联结,常采用的联结方式有S形、SM形、M形,通过我们的调查发现,从事机房建设的专业人员中,有超过一半的人(52.9%)倾向于M形的等电位联结方式,有31%的人选择SM形的等电位联结方式,另外,只有16.1%的人选择S形的等电位联结方式。在數據中心工程設計時,電子信息設備應進行等電位聯結,常採用的聯結方式有S形、SM形、M形,通過我們的調查發現,從事機房建設的專業人員中,有超過一半的人(52.9%)傾向於M形的等電位聯結方式,有31%的人選擇SM形的等電位聯結方式,另外,只有16.1%的人選擇S形的等電位聯結方式。 M型等电位联结方式适用于易受干扰的频率大于300kHz的电子信息设备的信号接地,该联结方式具有接地效果良好、安全信号好、保护和功能性接地较好等优点。 M型等電位聯結方式適用於易受干擾的頻率大於300kHz的電子信息設備的信號接地,該聯結方式具有接地效果良好、安全信號好、保護和功能性接地較好等優點。 同时,M型等电位联结方式的网络优势在于在高频时可获得一个低阻抗的网络,对外界的电磁场有一定的衰减作用,并且维护和扩容比较简单。同時,M型等電位聯結方式的網絡優勢在於在高頻時可獲得一個低阻抗的網絡,對外界的電磁場有一定的衰減作用,並且維護和擴容比較簡單。 机房建设人员在使用M型等电位联结方式时存在的低频干扰也会因为合理的设计和施工而降到最低限度。機房建設人員在使用M型等電位聯結方式時存在的低頻干擾也會因為合理的設計和施工而降到最低限度。 大多数电子信息设备应采用此方案实现保护接地和信号接地。大多數電子信息設備應採用此方案實現保護接地和信號接地。 S型等电位联结方式适用于易受干扰的频率在0~30kHz的电子信息设备的信号接地。 S型等電位聯結方式適用於易受干擾的頻率在0~30kHz的電子信息設備的信號接地。 S型等电位联结的优势在于能够抑制外界的低频干扰,但是维护和扩容比较麻烦,并且在高频环境下容易引入干扰,在目前的机房不断升级的环境下使用者较少。 S型等電位聯結的優勢在於能夠抑制外界的低頻干擾,但是維護和擴容比較麻煩,並且在高頻環境下容易引入乾擾,在目前的機房不斷升級的環境下使用者較少。 符合未来发展趋势的SM型联结方式是应景于未来复杂机房建设的联结方式,该联结方式采用单点接地和多点接地组合,可以同时满足高频和低频信号接地的要求。符合未來發展趨勢的SM型聯結方式是應景於未來複雜機房建設的聯結方式,該聯結方式採用單點接地和多點接地組合,可以同時滿足高頻和低頻信號接地的要求。 目前该联结方式正处于普及之中,值得广大机房建设人员关注。目前該聯結方式正處於普及之中,值得廣大機房建設人員關注。 ![]() 图6 各种等电位连接方式所占比例图圖6 各種等電位連接方式所佔比例圖 3 数据中心机房空调 3數據中心機房空調 作为保证机房环境正常温湿度的重要设备,机房空调等制冷设施的应用状况,在很大程度上影响着用户绿色数据中心的建设水平。作為保證機房環境正常溫濕度的重要設備,機房空調等製冷設施的應用狀況,在很大程度上影響著用戶綠色數據中心的建設水平。 根据对机房环境要求的不同,空调可分为普通家用(商用)空调和机房专用空调两大类。根據對機房環境要求的不同,空調可分為普通家用(商用)空調和機房專用空調兩大類。 机房专用空调在可靠性、送风模式、温度精确度、湿度调节能力、可管理性等方面比普通空调要好得多。機房專用空調在可靠性、送風模式、溫度精確度、濕度調節能力、可管理性等方面比普通空調要好得多。 机房中的环境设备在运行中散热量大而且集中,因此空调在机房中起到了至关重要的作用。機房中的環境設備在運行中散熱量大而且集中,因此空調在機房中起到了至關重要的作用。 3.1 机房精密空调的冷源形式 3.1 機房精密空調的冷源形式 数据中心工程设计中,机房精密空调的冷源形式一般有水冷冷冻水型、风冷冷冻水型、风冷直接膨胀型、水冷直接膨胀型四种。數據中心工程設計中,機房精密空調的冷源形式一般有水冷冷凍水型、風冷冷凍水型、風冷直接膨脹型、水冷直接膨脹型四種。 通过调查可以看出,风冷冷冻水性是最受青睐的,其次是风冷直接膨胀型和水冷冷冻水型,水冷直接膨胀型是大家最不看好的一种,具体情况如下:通過調查可以看出,風冷冷凍水性是最受青睞的,其次是風冷直接膨脹型和水冷冷凍水型,水冷直接膨脹型是大家最不看好的一種,具體情況如下: (1)设计单位中,有40%的人选择了风冷冷冻水型,30%的人选择了风冷直接膨胀型,28.6%的人选择了水冷冷冻水型,只有1.4%的人选择了水冷直接膨胀型; (1)設計單位中,有40%的人選擇了風冷冷凍水型,30%的人選擇了風冷直接膨脹型,28.6%的人選擇了水冷冷凍水型,只有1.4%的人選擇了水冷直接膨脹型; (2)系统集成商中,有34.9的人选择了风冷直接膨胀型,33.1%的人选择了风冷冷冻水型,27.5%的人选择了水冷冷冻水型,只有4.5%的人选择了水冷直接膨胀型; (2)系統集成商中,有34.9的人選擇了風冷直接膨脹型,33.1%的人選擇了風冷冷凍水型,27.5%的人選擇了水冷冷凍水型,只有4.5%的人選擇了水冷直接膨脹型; (3)业主中,有39.5%的人选择了水冷冷冻水型,27.4%的人选择了风冷直接膨胀型,有22.1%的人选择了风冷冷冻水型,有11%的人选择了水冷直接膨胀型。 (3)業主中,有39.5%的人選擇了水冷冷凍水型,27.4%的人選擇了風冷直接膨脹型,有22.1%的人選擇了風冷冷凍水型,有11%的人選擇了水冷直接膨脹型。 通过以上数据,我们可以看出,设计单位、系统集成商和业主在精密空调的冷源形式方面对于几种类型的选择上的区别是很大的。通過以上數據,我們可以看出,設計單位、系統集成商和業主在精密空調的冷源形式方面對於幾種類型的選擇上的區別是很大的。 ![]() 图7 各种冷源形式选择的比例图圖7 各種冷源形式選擇的比例圖 ![]() 图8 集成商对各种冷源形式选择的比例图圖8 集成商對各種冷源形式選擇的比例圖 ![]() 图9 设计院对各种冷源形式选择的比例图圖9 設計院對各種冷源形式選擇的比例圖 ![]() 图10 业主对各种冷源形式选择的比例图圖10 業主對各種冷源形式選擇的比例圖 一般而言,在选择冷源形式时需要参考的内容大致包括:系统投资,系统效能,运营、维护的成本,以及所在地气候条件等。一般而言,在選擇冷源形式時需要參考的內容大致包括:系統投資,系統效能,運營、維護的成本,以及所在地氣候條件等。 就本次调查所涉及的四种冷源形式而言,直接膨胀型冷源的系统投资较小,冷冻水型冷源则具有节能效果更好、故障率和维护成本更低的优势,因而集成商、设计院、业主对水冷型冷源的认可程度普遍比直接膨胀型冷源高出20%以上。就本次調查所涉及的四種冷源形式而言,直接膨脹型冷源的系統投資較小,冷凍水型冷源則具有節能效果更好、故障率和維護成本更低的優勢,因而集成商、設計院、業主對水冷型冷源的認可程度普遍比直接膨脹型冷源高出20%以上。 风冷直接膨胀型冷源在全国各地都适用,尤其适合于水源缺乏的地区,并且拥有系统结构简单,无需安装水泵、冷却塔等设施的优点;而水冷直接膨胀型冷源能效比风冷直接膨胀型高,但必须要有集中冷却水系统与之相配合,并且由于无法适应北方地区冬季较低的室外温度,不适宜应用于北方地区,因此使得集成商、设计院、业主对它的认可程度受到了十分明显的限制。風冷直接膨脹型冷源在全國各地都適用,尤其適合於水源缺乏的地區,並且擁有系統結構簡單,無需安裝水泵、冷卻塔等設施的優點;而水冷直接膨脹型冷源能效比風冷直接膨脹型高,但必須要有集中冷卻水系統與之相配合,並且由於無法適應北方地區冬季較低的室外溫度,不適宜應用於北方地區,因此使得集成商、設計院、業主對它的認可程度受到了十分明顯的限制。 基于以上粗略的分析不难看出,本次调查反映出的,集成商、设计院、业主在对机房精密空调冷源形式的选择上的差异,与我国国情有着密切的关系。基於以上粗略的分析不難看出,本次調查反映出的,集成商、設計院、業主在對機房精密空調冷源形式的選擇上的差異,與我國國情有著密切的關係。 3.2 空调系统的用电量占机房总用电量的比例 3.2 空調系統的用電量佔機房總用電量的比例 随着信息技术的普及,数据中心的IT设备数量增长加速。隨著信息技術的普及,數據中心的IT設備數量增長加速。 数据中心能耗需求的增长速度高于其它领域,企业每年在数据中心用电方面的花费越来越高。數據中心能耗需求的增長速度高於其它領域,企業每年在數據中心用電方面的花費越來越高。 在现在机房的能耗中,主要的消耗是来自于IT设备能耗、空调系统能耗、电源和照明设备的能耗。在現在機房的能耗中,主要的消耗是來自於IT設備能耗、空調系統能耗、電源和照明設備的能耗。 其中,IT设备的节能手段相对而言单一;照明设备的能耗所占比重相对较小;UPS系统能耗差异不大。其中,IT設備的節能手段相對而言單一;照明設備的能耗所佔比重相對較小;UPS系統能耗差異不大。 因此,机房节能主要依靠空调系统的节能。因此,機房節能主要依靠空調系統的節能。 空调系统用电一直被称为是数据中心用电的大户,一般数据中心内空调系统的用电量约占机房总用电量的多少?空調系統用電一直被稱為是數據中心用電的大戶,一般數據中心內空調系統的用電量約佔機房總用電量的多少? 本刊专门针对空调系统用电占到机房总用电量的40%、50%、60%、70%、80%等选项进行了市场调查呢?本刊專門針對空調系統用電占到機房總用電量的40%、50%、60%、70%、80%等選項進行了市場調查呢? 有超过70%的人认为空调系统用电应占到机房总用电的40%~50%,这是比较节能的;有25.7%的人认为空调系统用电可以占机房总用电的60%以上,说明这部分人对机房节能还不够重视。有超過70%的人認為空調系統用電應占到機房總用電的40%~50%,這是比較節能的;有25.7%的人認為空調系統用電可以佔機房總用電的60%以上,說明這部分人對機房節能還不夠重視。 ![]() 图11 各种对空调系统耗能比选择的比例图圖11 各種對空調系統耗能比選擇的比例圖 ![]() 图12 集成商对各种空调系统耗能比选择的比例图圖12 集成商對各種空調系統耗能比選擇的比例圖 ![]() 图13 设计院对各种空调系统耗能比选择的比例图圖13 設計院對各種空調系統耗能比選擇的比例圖 ![]() 图14 业主对各种空调系统耗能比选择的比例图圖14 業主對各種空調系統耗能比選擇的比例圖 绿色网格组织(Green Grid)于2007年2月制定的数据中心能效比指标,PUE(Power Usage Effectiveness)和DCiE(Data Center Infrastructure Efficinecy)是目前较有影响力的数据中心能效模型。綠色網格組織(Green Grid)於2007年2月制定的數據中心能效比指標,PUE(Power Usage Effectiveness)和DCiE(Data Center Infrastructure Efficinecy)是目前較有影響力的數據中心能效模型。 PUE为数据中心总能耗(Total Facility Power)与IT设备总能耗(IT Equipment Power)的比值,DCiE则为PUE的倒数,即IT设备总能耗在数据中心总能耗中所占比重。 PUE為數據中心總能耗(Total Facility Power)與IT設備總能耗(IT Equipment Power)的比值,DCiE則為PUE的倒數,即IT設備總能耗在數據中心總能耗中所佔比重。 这一能效模型的基本思路,是将数据中心总能耗分为分为IT设备总能耗和基础设施(Infrastructure)总能耗两部分,其中的基础设施总能耗主要分为空调系统能耗、电源系统能耗两部分(照明设备能耗可忽略)。這一能效模型的基本思路,是將數據中心總能耗分為分為IT設備總能耗和基礎設施(Infrastructure)總能耗兩部分,其中的基礎設施總能耗主要分為空調系統能耗、電源系統能耗兩部分(照明設備能耗可忽略)。 因此,正如上文所言,空调系统能耗就成了影响PUE的最重要的因素。因此,正如上文所言,空調系統能耗就成了影響PUE的最重要的因素。 当空调的用电量在主机房总用电量中所占比例较低时,数据中心PUE也较低,较为节能;反之,则数据中心PUE较高,能耗较大。當空調的用電量在主機房總用電量中所佔比例較低時,數據中心PUE也較低,較為節能;反之,則數據中心PUE較高,能耗較大。 如果只考虑IT设备总能耗和空调系统能耗,将本次调查中的空调系统用电量在机房总用电量中所占比例粗略地换算成PUE,则按比例从高到低的顺序依次对应为1.6、2.0、2.5、3.3、4.0。如果只考慮IT設備總能耗和空調系統能耗,將本次調查中的空調系統用電量在機房總用電量中所佔比例粗略地換算成PUE,則按比例從高到低的順序依次對應為1.6、2.0、2.5、3.3、4.0。 从此次调查所得数据来看,有超过70%的集成商、业主和超过50%的设计院认为PUE应在2.0以下,而只有50%左右的集成商、业主和20%左右的设计院认为PUE应在1.6以下。從此次調查所得數據來看,有超過70%的集成商、業主和超過50%的設計院認為PUE應在2.0以下,而只有50%左右的集成商、業主和20%左右的設計院認為PUE應在1.6以下。 一般而言,一个设计、运营、维护得比较好,节能效果比较理想的数据中心主机房,其PUE应在1.6左右,而不宜超过2.0。一般而言,一個設計、運營、維護得比較好,節能效果比較理想的數據中心主機房,其PUE應在1.6左右,而不宜超過2.0。 因此可以说,目前在数据中心项目上,我国的集成商、设计院和业主的节能理念尚称合理,并仍有提升的空间。因此可以說,目前在數據中心項目上,我國的集成商、設計院和業主的節能理念尚稱合理,並仍有提升的空間。 造成这种现状的原因是多方面的,一方面,一些现有的机房落成时间较早,当时业内对节能的认识还比较有限,因而造成了这些机房PUE较高、能耗较大的情况;另一方面,尽管节能带来的收益十分明显,但为达到节能的目的在设备选择、设计施工等方面所作出的前期投入仍是在建数据中心主机房所面临的一个不可回避的问题。造成這種現狀的原因是多方面的,一方面,一些現有的機房落成時間較早,當時業內對節能的認識還比較有限,因而造成了這些機房PUE較高、能耗較大的情況;另一方面,儘管節能帶來的收益十分明顯,但為達到節能的目的在設備選擇、設計施工等方面所作出的前期投入仍是在建數據中心主機房所面臨的一個不可迴避的問題。 前者既为当前的数据中心项目节能的任务增加了难度,也提供了既有高能耗数据中心主机房升级改造这一市场空间;而后者则势必在目前全社会倡导节能减排、可持续发展的大背景下,逐步得到解决。前者既為當前的數據中心項目節能的任務增加了難度,也提供了既有高能耗數據中心主機房升級改造這一市場空間;而後者則勢必在目前全社會倡導節能減排、可持續發展的大背景下,逐步得到解決。 3.3 主机房的温度一般按照多少进行计算 3.3 主機房的溫度一般按照多少進行計算 数据中心工程设计中,主机房的温度一般按照多少进行计算?數據中心工程設計中,主機房的溫度一般按照多少進行計算? 机房的温度直接决定了空调的用电量,如果温度控制在一个合理的范围之内,可以很好的达到节能省电的效果。機房的溫度直接決定了空調的用電量,如果溫度控制在一個合理的範圍之內,可以很好的達到節能省電的效果。 71.5%的人认为机房的温度应该控制在23±1℃,12.6%的人认为机房的温度应该控制在22±2℃,7.6%的人认为机房的温度应该控制在24±1℃,另外有7.4%的人认为机房的温度应该控制在21±2℃。 71.5%的人認為機房的溫度應該控制在23±1℃,12.6%的人認為機房的溫度應該控制在22±2℃,7.6%的人認為機房的溫度應該控制在24±1℃,另外有7.4%的人認為機房的溫度應該控制在21±2℃。 ![]() 图15 各种冷源形式选择的比例图圖15 各種冷源形式選擇的比例圖 ![]() 图16 集成商对各种冷源形式选择的比例图圖16 集成商對各種冷源形式選擇的比例圖 ![]() 图17 设计院对各种冷源形式选择的比例图圖17 設計院對各種冷源形式選擇的比例圖 ![]() 图18 业主对各种冷源形式选择的比例图圖18 業主對各種冷源形式選擇的比例圖 《GB50174-2008》对A级和B级主机房开机温度的技术要求值即为23±1℃。 《GB50174-2008》對A級和B級主機房開機溫度的技術要求值即為23±1℃。 从这次调查的结果来看,大多数集成商和设计院对这一技术要求的认知度是比较高的。從這次調查的結果來看,大多數集成商和設計院對這一技術要求的認知度是比較高的。 然而,业主们对此的认知度却极为有限,这是一个需要注意的问题。然而,業主們對此的認知度卻極為有限,這是一個需要注意的問題。 造成这一现象的原因,有可能是业主对设计方面的行业规范不甚了解。造成這一現象的原因,有可能是業主對設計方面的行業規範不甚了解。 业主在设计建设机房和日常使用、维护机房的过程中,出于保证设备安全运行的考虑,对空调温度的要求往往比较苛刻(在此次调查中,选择21±2℃和22±2℃两项的业主占到了全部业主的67.9%)。業主在設計建設機房和日常使用、維護機房的過程中,出於保證設備安全運行的考慮,對空調溫度的要求往往比較苛刻(在此次調查中,選擇21±2℃和22±2℃兩項的業主占到了全部業主的67.9%)。 事实上,惯常意义上的服务器正常运转的底限是服务器出口温度不高于40℃,而服务器进出口的温差一般在10℃左右,因此可以说,在风道设计合理的前提下,空调温度由21±2℃调升至23±1℃是不会给服务器的运行带来不利影响的。事實上,慣常意義上的服務器正常運轉的底限是服務器出口溫度不高於40℃,而服務器進出口的溫差一般在10℃左右,因此可以說,在風道設計合理的前提下,空調溫度由21±2℃調升至23±1℃是不會給服務器的運行帶來不利影響的。 《GB50174-2008》对C级主机房开机温度的技术要求值为18~28℃,从另一个角度说明了这一问题;美国的《TIA-942》标准要求主机房干球温度保持在20~25℃,也是一个很好的例证。 《GB50174-2008》對C級主機房開機溫度的技術要求值為18~28℃,從另一個角度說明了這一問題;美國的《TIA-942》標準要求主機房乾球溫度保持在20~ 25℃,也是一個很好的例證。 《GB50174-2008》对机房温度的技术要求是经过专家综合考证后得出的,虽然比较多地照顾了节能方面的需要,但也是建立在保证机房设备安全运行的基础上的。 《GB50174-2008》對機房溫度的技術要求是經過專家綜合考證後得出的,雖然比較多地照顧了節能方面的需要,但也是建立在保證機房設備安全運行的基礎上的。 相信随着运营商和设计院在实际工程中的宣传和推广,业主们对这一技术标准的认知程度会逐渐提升;而随着这一标准的逐渐普及,我国数据中心的节能水平也必将被提高到一个新的层次。相信隨著運營商和設計院在實際工程中的宣傳和推廣,業主們對這一技術標準的認知程度會逐漸提升;而隨著這一標準的逐漸普及,我國數據中心的節能水平也必將被提高到一個新的層次。 4 数据中心的综合布线系统 4數據中心的綜合佈線系統 4.1 综合布线系统的选择 4.1 綜合佈線系統的選擇 针对目前市场上比较常用的超5类、6类、6A屏蔽/非屏蔽等综合布线系统,用户在进行综合布线系统选择时,39.2%的人选择了6类系统,18.3%的人选择了6A非屏蔽系统,15.4%的人选择了超5类系统,12%的人选择了6A屏蔽系统,另外还有9.6%、5.5%的人选择了全光纤、7类屏蔽系统。針對目前市場上比較常用的超5類、6類、6A屏蔽/非屏蔽等綜合佈線系統,用戶在進行綜合佈線系統選擇時,39.2%的人選擇了6類系統,18.3%的人選擇了6A非屏蔽系統,15.4%的人選擇了超5類系統,12%的人選擇了6A屏蔽系統,另外還有9.6%、5.5%的人選擇了全光纖、7類屏蔽系統。 但是,综合布线系统的选择应根据用户的需求来选择。但是,綜合佈線系統的選擇應根據用戶的需求來選擇。 用户一般分为三类:一类用户对各类信息的处理和传输速度要求很高,对产品和系统的稳定性、安全性非常重视。用戶一般分為三類:一類用戶對各類信息的處理和傳輸速度要求很高,對產品和系統的穩定性、安全性非常重視。 一般在布线时采用以光纤为主干,水平布线至少为6类铜缆,并会有大量光纤到桌面的布线需求。一般在佈線時採用以光纖為主幹,水平佈線至少為6類銅纜,並會有大量光纖到桌面的佈線需求。 二类用户主要处理综合的数据、图像、声音或多媒体信息,具有一定规模,但对信息传输速度的要求不高,以中档写字楼、工厂、大中型企业、医疗单位和智能小区为代表。二類用戶主要處理綜合的數據、圖像、聲音或多媒體信息,具有一定規模,但對信息傳輸速度的要求不高,以中檔寫字樓、工廠、大中型企業、醫療單位和智能小區為代表。 一般在布线时以光纤为主干,水平布线采用超5类铜缆(或者6类),语音线路多采用3类大对数铜缆。一般在佈線時以光纖為主幹,水平佈線採用超5類銅纜(或者6類),語音線路多采用3類大對數銅纜。 三类用户主要是以能实现信息传输为基本需求,如普通住宅、小型企业、商场等,一般采用铜缆布线。三類用戶主要是以能實現信息傳輸為基本需求,如普通住宅、小型企業、商場等,一般採用銅纜佈線。 ![]() 图19 各种综合布线系统同选择的比例图圖19 各種綜合佈線系統同選擇的比例圖 4.2 一般电力电缆和数据电缆的分布 4.2 一般電力電纜和數據電纜的分佈 数据中心中的机柜/机架面对面排列形成热风通道,背对背布置形成冷风通道,电力电缆和数据电缆的分布无非是在热通道的地板下面、机柜/机架的地板下面、机柜的上方、冷通道的地板下面几种方式。數據中心中的機櫃/機架面對面排列形成熱風通道,背對背佈置形成冷風通道,電力電纜和數據電纜的分佈無非是在熱通道的地板下面、機櫃/機架的地板下面、機櫃的上方、冷通道的地板下面幾種方式。 设计单位中,有36.2%的人选择在机柜的上方,24.3%的人选择在机柜/机架的地板下面,22.1%的人选择在冷通道的地板下面,17.4%的人选择在热通道的地板下面。設計單位中,有36.2%的人選擇在機櫃的上方,24.3%的人選擇在機櫃/機架的地板下面,22.1%的人選擇在冷通道的地板下面,17.4%的人選擇在熱通道的地板下面。 系统集成商中,有30.6%的人选择在热通道的地板下面,28.8%的人选择在机柜的上方,23.4%的人选择在机柜/机架的地板下面,17.2%的人选择在冷通道的地板下面。系統集成商中,有30.6%的人選擇在熱通道的地板下面,28.8%的人選擇在機櫃的上方,23.4%的人選擇在機櫃/機架的地板下面,17.2%的人選擇在冷通道的地板下面。 业主方中,有34.0%的人选择在机柜/机架的地板下面,23.4%的人选择在热通道的地板下面,另外有着21.3%的同样比例的人选择在机柜的上方和冷通道的地板下面。業主方中,有34.0%的人選擇在機櫃/機架的地板下面,23.4%的人選擇在熱通道的地板下面,另外有著21.3%的同樣比例的人選擇在機櫃的上方和冷通道的地板下面。 电力电缆敷设在架空地板下,数据线缆敷设在机柜上方,这样一方面可以使电力电缆和数据线缆保持安全距离,另一方面又可以使电力电缆产生的热量被稀释。電力電纜敷設在架空地板下,數據線纜敷設在機櫃上方,這樣一方面可以使電力電纜和數據線纜保持安全距離,另一方面又可以使電力電纜產生的熱量被稀釋。 但如果将电缆敷设在冷通道的地板下方,将会阻碍空调送风。但如果將電纜敷設在冷通道的地板下方,將會阻礙空調送風。 本次调查中,超过50%的人选择将缆线敷设在热通道的地板下面和机柜的上方,这是比较正确的缆线敷设方式;但也有18%的人选择将缆线敷设在冷通道的地板下面,说明这部分人对机房气流组织型式还不太了解,也说明需要更深一步地对规范进行宣贯。本次調查中,超過50%的人選擇將纜線敷設在熱通道的地板下面和機櫃的上方,這是比較正確的纜線敷設方式;但也有18%的人選擇將纜線敷設在冷通道的地板下面,說明這部分人對機房氣流組織型式還不太了解,也說明需要更深一步地對規范進行宣貫。 ![]() 图20 各种电缆分布选择的比例图圖20 各種電纜分佈選擇的比例圖 ![]() 图21 集成商对各种电缆分布选择的比例图圖21 集成商對各種電纜分佈選擇的比例圖 ![]() 图22 设计院对各种电缆分布选择的比例图圖22 設計院對各種電纜分佈選擇的比例圖 ![]() 图23 业主对各种电缆分布选择的比例图圖23 業主對各種電纜分佈選擇的比例圖 本文出自“ 数据中心工作组 ” 博客,请务必保留此出处http://dcteam.blog.51cto.com/691409/224073本文出自“ 數據中心工作組 ”博客,請務必保留此出處http://dcteam.blog.51cto.com/691409/224073 |
NEWS最新消息