新着記事を読むなら!
「従来あった『大規模な投資ができる企業でないと、AIは使えない』というイメージを変えたい。だからこそ、TPUの外部向け販売はせず、顧客にとってメリットの大きいクラウドの形式で提供する」――グーグルでGoogle Cloudのデベロッパーアドボケイトを務める佐藤一憲氏は、2018年7月6日に同社が開いたメディアセミナーに登壇し、そう語った。
Googleは、オープンソースで公開している機械学習用ライブラリ「TensorFlow」での高速処理に特化したプロセッサ「TPU(Tensor Processing Unit)」の機能を、同社のクラウド「Google Cloud Platform(GCP)」上で、「Cloud TPU(ベータ版)」として2018年2月から提供している。
「TPU(Tensor Processing Unit)」は、もともとGoogle社内の機械学習ライブラリとして作られ、2015年にオープンソースソフトウェアとして公開された「TensorFlow」での高速処理に特化したプロセッサだ。
機械学習には、大量のデータを集めて「学習」させる段階と、学習結果を基に「推論」を行う段階があり、どちらも大量の演算処理を必要とするが、CPUやGPUで主流の32bitもの演算精度は求められていない。またCPUやGPUでは、1つの演算処理を行うたびに記憶領域に書き込む処理を行うなど、演算速度の限界や消費電力の大きさに課題があった。
一方、TPUは「単純な計算処理を大量に高速で行う」という機械学習の要件を反映し、16bit(学習向け)や8bit(推論向け)などに演算精度を最適化した上で、記憶領域に処理を書き込む頻度を削減。計算コストや消費電力を縮小し、演算速度の高速化を実現した。
2016年に、推論に特化した最初のモデル「TPU v1」を発表して以来、GoogleはTPUの改良を繰り返し、その次世代モデルである「TPU v2」および2018年5月発表の最新モデル「TPU 3.0」は、推論と学習どちらのニーズにも対応する。
Copyright © ITmedia, Inc. All Rights Reserved.