Googleは、Google Cloud Platform(GCP)上でCloud TPUをリリースしたと発表しました。まだベータ版ですが、Googleのクラウドコンピューティングサービスの顧客は、同社の専用AI処理ハードウェアを自社の機械学習開発に利用できるようになります。
さらに、Google の TPU は仮想マシンへのアクセスにも利用できます。つまり、お客様は TPU コンピューティング ファームにジョブを送信するだけでなく、リアルタイム開発のために TPU を独占的に利用できるようになります。
Googleのクラウドコンピューティングサービスは、クラウドコンピューティングサービスに特化した機械学習リソースを追加することで、AmazonやMicrosoftのサービスと差別化を図っています。顧客は、ワークロードを最も安価かつ高速に実行する方法を求めています。TPUを使用すれば、従来のCPUやGPUでワークロードを実行する場合よりも少ないマシン数と時間を節約でき、顧客にとってコスト削減につながります。Cloud TPUの利用料金は、1時間あたり6.5ドルからとなっています。1つのCloud TPUで最大180テラフロップスの浮動小数点演算能力を提供します。
Googleは2017年半ばに「クラウド」TPUを発表しました。同社がテンソル・プロセッシング・ユニットと呼ぶこのTPUの誕生のきっかけは、従来のCPUが機械学習の計算要件に適していないという点でした。TPUは、低消費電力で膨大な8ビット整数演算能力を実現するカスタムASICとして誕生しました。しかし、整数演算のため、その用途は推論計算に限定されていました。機械学習において、推論とはAIの認識機能にあたります。画像認識AIにおいて、推論とは画像が探しているものに似ているかどうかを判断する際に行われる処理を指します。
Googleは第2世代TPUで浮動小数点演算機能を追加し、これによりチップをトレーニング計算にも使用できるようになりました。トレーニングとは、最終的に必要な情報を確実に認識できるAIを構築するための、より計算負荷の高いプロセスです。同じ画像認識の例で言えば、トレーニングとは、多数の画像をAIに与え、それらの画像間における特定の類似点を見つけて正しい画像であると判断するようにAIをプログラムするプロセスです。Cloud TPUは、4つの第2世代TPUチップと64GBの高帯域幅メモリを1つのサーバーボードに搭載して構築されています。Googleは複数のCloud TPUをラックに接続し、TPU「ポッド」を構成しています。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。