2015年4月20日 10:17
シリコンバレー101 (611) 「Google Glass」から「Apple Watch」へ、スマホ依存解消への挑戦
と叫び、音声コマンドでできないと気づくと「なんだ、そりゃ!?」になる。
そもそもハンズフリーになれるのがスマートグラスの大きなメリットであり、最後まで音声コマンドで完了できてこそ快適な利用体験じゃないか、というわけだ。
でも、2013年にGoogle Glassを手に入れた頃、試した人は誰も「すべてを音声コマンドで操作できるべき」なんて言わなかった。わずか1年半ぐらい前のことだが、ガジェットはタッチパッドやボタンで操作するのが当たり前で、むしろ撮影だけでも音声コマンドでこなせると「シャッターチャンスを逃さないから便利!」と言われたものだ。
それから、Androidで「OK Google」が使えるようになり、MicrosoftがCortanaを投入、AmazonもFireシリーズに音声検索を採用するなど、音声検索や音声コマンドをさまざまな製品で利用できるようになった。そうした変化によって、Google Glassのユーザーインタフェースに対する評価も変わったようだ。Glassの場合、タッチパッドを操作するために目の横辺りまで手を上げる必要があり、しかもメガネの側面をなぞるという不自然な操作である。