Nvidiaのジェンスン・フアン氏は、GTC 2014の基調講演で機械学習について詳細に語りました。機械学習は人工知能の一種で、与えられたデータが増えるほど賢くなります。実際に学習するため、PCが思考しているような印象を与えます。
「今はデータにとって非常にエキサイティングな時代です」と、彼は基調講演の聴衆に語りました。「ご存知の通り、私たちはデータに囲まれています。カメラ、GPS、携帯電話、アップロードした動画、検索、購入履歴など、膨大なデータが流れ込んでいます。そして将来、車が走り回るたびに、膨大な量のデータが収集されるようになるでしょう。そして、こうしたデータはすべて、機械をより賢くすることに貢献するでしょう。」
機械学習における画期的な進歩は、Google Brainによってもたらされました。Google Brainは1,000台のサーバー(16,000個のCPUコア)で構成され、10億個のシナプス(接続)を持つ脳モデルをシミュレートしました。Google Brainは、200x200ピクセルの画像を1,000万枚、教師なし学習で3日間かけて学習しました。その結果、Google Brainはインターネット上で頻繁に表示される画像には、顔と猫の2種類があることを明らかにしました。
彼によると、ミツバチには10億個のシナプスがあるという。実際の人間の脳を模倣するには、それぞれ1000個の接続を持つ1000億個のニューロンが必要で、合計で約100兆個の接続となる。Google Brainのシステムを使ってこの脳を訓練するには、はるかに多くの画像(約5億枚)と、ミツバチの脳の約500万倍もの膨大な時間が必要になる。
当然のことながら、NVIDIAは独自のソリューションを開発することでこの問題に取り組みました。Huang氏によると、GPUアクセラレーションサーバー3台(合計12基のGPU、18,432個のCUDAプロセッサコア(Google Brainは約16,000個のコア))を使用することで、この問題を解決できるとのことです。NVIDIAのソリューションは、消費電力とコストを100分の1に削減します。
Tom's Hardware の最高のニュースと詳細なレビューをあなたの受信箱に直接お届けします。
ケビン・パリッシュは、ライター、編集者、製品テスターとして10年以上の経験を有しています。コンピューターハードウェア、ネットワーク機器、スマートフォン、タブレット、ゲーム機、その他のインターネット接続デバイスを専門に扱っています。彼の記事は、Tom's Hardware、Tom's Guide、Maximum PC、Digital Trends、Android Authority、How-To Geek、Lifewireなどに掲載されています。