GTC 2015 - NVIDIA、7TFlopsの演算性能を実現したハイエンドGPU「Titan X」を発表
Huang氏はビッグバンと表現していたが、この改善がMicrosoft、Googleの95%を超える成果に繋がっている。
また、これらのネット企業は、イメージのサーチサービスなどにこの認識を使用しており、認識率で他社に負けるわけには行かないという事情がある。
画像認識であるが、元の画像のピクセルの色、明るさの情報は32ビットの単精度、あるいはその半分の16ビットのFP16というフォーマットで十分である。このため、Titan Xでは16ビットのFP16という半精度浮動小数点演算をサポートしている。GPUの32ビットのレジスタに2つのFP16の数値を詰め込んでいるので、FP16の数値はx86のSIMDのように連続したアドレスである必要があるが、うまく使えば、同じデータ量で2倍の演算ができることになり、性能を向上させられる。
画像認識ではニューラルネットワークにトレーニング画像と呼ぶ多数の画像を学習させて、ニューロン間の情報伝達の重みを調整して、正しい認識ができるように持っていく。これが学習である。ニューロン間には膨大な数の接続があり、それぞれの重みを調整して行くためには膨大な計算が必要となる。