2016年1月25日 18:18
NVIDIAが解説する「いまさら聞けない!? ディープラーニング入門」 - 概要からSDKの紹介まで
が必要になるのだが、GPUによる汎用演算は、この用途でみると、計算性能が高く、汎用CPUで同等の計算性能を実現した場合に比べてコストも低くなる。つまりGPUを使うことで、学習時間を短縮でき、開発サイクルを短縮できるわけだ。
もう1つ、深層学習が過去と違うのは、インターネットを介して膨大なデータ(ビックデータ)が入手可能になった点だ。例えば、画像を認識する場合、多くの画像を学習させるほど、認識能力が高くなっていく。しかし、インターネット普及前には、デジタル化された画像データは、研究者がすべて用意する必要があった。
現在では、インターネット検索をするだけで大量の画像が入手可能だ。また、さまざまなデジタルアルバムサービスやSNSなどがあり、世界中からデジタル画像を入手できる。
こうして2013年ごろからGPUが深層学習で使われるようになってきた。
そしてNVIDIAも、この流れに乗る形で積極的に同社製GPUと「深層学習」をアピールする。2015年に行われた同社のカンファレンス「GPU Technology Conference」では、深層演算がメインテーマとなるほどになってきた。こうした状況に向けて、NVIDIAは、「ディープラーニングSDK」