前回まではデータセンターの電力ロスという課題について紹介してきました。しかし、データセンターを悩ます問題はそれだけではありません。データセンター内はさまざまな原因からICT機器の高発熱化が進んでおり、冷却にかかる電力消費量も増加しています。
その結果、データセンターで使われる電力の約半分は、ICT機器から排出される熱を冷却するための空調が消費しているといわれています。そこで今回は、データセンターにおける高発熱化の現状を探っていきます。
データセンターはなぜ高発熱化するのか?
近年では、AIなどに代表されるテクノロジーの進化やビッグデータやIoTなどのデータの活用によって私たちのビジネスや生活はますます便利になっています。しかしこれらの進化を支えていくためには、大量のデータを処理できる高性能なサーバーが数多く必要となります。
CPUの処理速度も飛躍的に上がっており、サーバーの能力は着実に向上しています。しかし、それらを超えるデータ量の処理を求められるケースも出てきました。
そこで、利用が広がっているのがGPUです。GPUは、もともとコンピューターのグラフィック処理などに使われていました。CPUよりも多くのコアを搭載し、演算処理をより高速に行えるため、大量のデータを扱うサーバーに採用されるようになりました。
さらに、サーバーの小型化によってサーバーラックに数多く設置することが可能となった結果、データセンターの処理能力を大幅に向上させています。一方で、限られた狭い場所に高い密度で設置したサーバーから発する熱量が増大。当然データセンター内も高温になっていきます。
このように、高密度化によって高発熱化が発生していることで、データセンター内の温度は高まるばかりとなっています。
「無駄」と「不足」にある冷却の課題
高発熱化に合わせて、データセンター内の冷却を強化する必要があります。なぜかというと、サーバーなどのICT機器に使われている電子部品は熱に弱いからです。そのため、熱によってサーバーが誤作動やシステムダウンを起こす可能性があります。
また、電子部品の半導体として使われている「アルミ電解コンデンサ」は高温によって激しく劣化します。温度が10℃上昇するだけで、その電子部品の寿命が半分になるといわれています。
電子部品の寿命が短くなることは同時に、サーバーをはじめとしたICT機器の寿命を短くします。データセンター内のICT機器を守るために、冷却して温度を下げることは必須となります。
データセンター内を冷却する方法は、よくよく考えなければいけません。データセンター内には、サーバーなどのICT機器の排熱する箇所が部分的に高温化する「ホットスポット」という熱だまりが発生します。
しかし、旧来の空調システムは部分的な冷却に対応していませんでした。そのため、ホットスポットを解消するためにデータセンター全体を冷却しなくてはならず、電力の無駄が発生していたのです。
冷却の電力消費量を改善するため指標にすべきもの
ICT機器の高性能化や高密度化、それらに起因する高発熱化といった複合的な理由により、データセンターにおける電力量は年々増加しています。
現在、世界のデータセンターで消費されている電力量は、エネルギー需要全体のうち約2%を占めるまでになっています。しかもその消費量は年間10%程度ずつ増えており、10年前と比べて約8倍もの電力を消費するまでになっています。データセンターで消費される電力の内、約3割を空調に関わるものが占めているというデータもあります。
電力消費量を削減するためには、その中で大きな割合を占めるデータセンターの冷却方法を見直さなければいけません。冷却方法の見直す指標に「PUE」があります。PUEとは「Power Usage Effectiveness」の頭文字からとったもので、電力の使用効率を示します。
PUEは、「1.0」に近ければ近いほど、電力の無駄が少ないことを意味します。空調、電源供給、照明などの館内設備のためにも電力は必要ですから、完全に「1.0」にすることはできません。しかし、限りなく「1.0」を目指すことが、データセンターにおける電力消費の理想です。
特に、増え続ける熱量に対してどのような冷却方法をとるのかは、最も重要な点といえるでしょう。旧来のデータセンターにおける冷却方法には大きな無駄がありました。デジタルトランスフォーメーションの時代には、その無駄が足かせとなってしまうのです。冷却を効率化し、次代へ進むためには、新しい技術を取り入れることも視野に入れなければなりません。
次回は、データセンターにおける冷却技術の進化を取り上げていきます。
関連する記事
関連する商品・サービス
メールマガジンで配信いたします。