日本マクドナルドは4月6日、「グランド ビッグマック」(税込520円)と「ギガ ビッグマック」(税込740円)を全国の「マクドナルド」店舗で期間限定発売した。マクドナルドの定番商品「ビッグマック」のおいしさをそのままにスケールアップした両商品。どれくらい大きくなっているのか、実際に比較してみよう。「グランド ビッグマック」は、「ビッグマック」のおいしさはそのままに、バンズの直径を1.2倍、バーガーの重量を1.3倍にボリュームアップした一品。さらに、同商品のアンバサダーとして起用した横綱・白鵬関の「もっとビーフがあったらうれしい」という一声に応じて、ビーフを2倍にした「ギガ ビッグマック」も数量限定で登場する。最初はグランドビッグマックからひと口。バンズが大きくなっているので、持ちやすい。重量を量ったところ、288gだった。ピクルスのみじん切り、特製マスタード、スパイスを合わせた「オリジナルビッグマックソース」の味わいなので、「ビッグマック」を食べている時の幸福感が長く感じられた。一方の「ギガ ビッグマック」は、ビーフパティが「ビッグマック」の2.8倍、重量383gのまさしくマクドナルドの"横綱"と呼べるバーガーだ。ビーフパティのジューシーさを思う存分味わいたいのなら「ギガ ビッグマック」がオススメ。ちなみに、「ダブルクォーター パウンダー・チーズ」や今まで販売していた「メガマック」と比べても、「ギガ ビッグマック」は史上最大の重量だという。カロリーも「グランド ビッグマック」が約764kcal、「ギガ ビッグマック」が約1,034kcalと同社最大級とのこと。また両商品の販売に伴い、サイドメニューも"グランド"サイズになっている。Mサイズの1.7倍の「グランドポテト」(税込370円)、Mサイズの2倍の「グランドコーク」(税込280円)が登場。これらをセットにした「グランドセット」は、通常のバリューセットに100円追加するだけで楽しめる。さらに今回の「グランド ビッグマック」を記念して、ビッグな新商品とは対照的な世界最小のブロック「nano block」をモチーフにした「ビッグマック ナノブロックセット(おもちゃ)」(税込1,150円)を販売。「ビッグマック」「マックフライポテト」「ドリンク」の3つをかたどっており、単品では1つ税込400円。これらの商品の販売は4月下旬までを予定している。「ビッグマック」好きで大食いに自信がある人は、このタイミングを見逃すな!
2016年04月06日博報堂は4月5日、店頭における生活者の買物行動データ測定の強化を目的として、測定データをビッグデータと統合して分析し、買物行動の活性化につなげる同社独自のプラニング手法である「ショッパーズ・カスケードモデル」の構築を開始すると発表した。同社は、リアルな場での買物行動データ測定を強化することにより、従来の調査手法では実現できなかった「無意識下の行動の可視化」と「アクチュアルデータによる行動捕捉」の2つのアプローチを強化する。また、同データを広告・販促投資額・売上データ・生活者データなど、ほかのビッグデータと統合し分析することで、メーカーおよび流通双方の売上・利益拡大につながるアクションをプラニングしていく。新手法により、生活者の買物行動を来店前・店内・来店後まで拡大してとらえることができ、より精緻な分析やアクションの検討が可能になるという。例えば、店頭におけるブランドの潜在的なターゲットに向けたプロモーションの展開や、買物行動で商品が手に取られているものの購買されていない商品を明らかにし、その要因分析を行う。この取り組みについては、同社のデータドリブンマーケティング局とショッパーリテールマーケティング局が連携し、推進していく。新モデルの構築にあたり、先行して無意識下でのブランドに対するイメージを明らかにする調査プログラムの提供を開始している。同プログラムは店頭における商品との出会いを再現する直感的な選択テストとなり、心理学の知見を応用し、特定の言葉やイメージの組み合わせへの反応時間からブランドや製品に対する期待イメージや感情を測定するという。同社は今後も、同モデルを構築するソリューションを順次拡充していく方針だ。
2016年04月06日4月4日(現地時間)、Microsoftはトヨタ自動車と自動車から得るビッグデータを集約および解析し、その結果を商品開発に反映させる新会社「Toyota Connected, Inc.」を、2016年1月に米テキサス州プレイノで設立したことを、公式ブログで発表した。なお、トヨタ自動車も同様の発表を行っている。Microsoftとトヨタ自動車は、次世代テレマティクスプラットフォーム構築に関する戦略的提携を2011年4月に発表し、これまで良好な関係を築いてきた。その時の提携内容に、トヨタメディアサービスに対してMicrosoftと親会社にあたるトヨタ自動車が出資を行うことを含んでいたが、結果として新会社設立に至っている。ビッグデータの収集や研究などはMicrosoft Azureを使用し、Microsoftは自社エンジニアがデータ解析やモバイル技術といった側面でToyota Connectedをサポートする。今回の発表にあたり、Toyota Connected President&CEOのZack Hicks氏は、「ユーザーの習慣や思考に応じたテレマティクスサービスや実際の運転パターンに合わせた保険料率モデルの構築、道路状況や交通情報の提供で豊かな生活を目指す」と述べた。長年Microsoftで役職を勤め、一度退職したが現CEOのSatya Nadella氏に請われる形で再登壇した、Microsoft Corporate Strategy&Planning EVPのKurt DelBene氏は「データの力を用いて個々の運転を直感的かつ安全性につなげるため、Toyota Connectedと協力していく」と述べている。阿久津良和(Cactus)
2016年04月05日ビッグローブは4月4日、BIGLOBE接続サービスの利用者向けの電力サービス「ビッグローブでんき」を開始した。「ビッグローブでんき」第1弾として、中部電力と提携し、「中部電力 カテエネプラン for BIGLOBE」を開始。同プランは、BIGLOBE接続サービス利用者向けに中部電力が用意した専用プランで、首都圏エリアから対応を開始する。中部電力 カテエネプランと従来の電気料金を比べると、月に520kwh使用した場合、毎月315円、1年間で3780円得するという。電力と光接続サービス「ビッグローブ光」、高速モバイル通信サービス「BIGLOBE SIM」とのセット割である「光☆でんきセット割」、「光☆SIMでんきトリプル割」では、毎月最大400円を割り引きする。また、従来の電力と光接続サービス、モバイル通信サービスを利用している場合、「中部電力 カテエネプラン for BIGLOBE」と「ビッグローブ光」マンションタイプ、「BIGLOBE SIM」に乗り換え、「光☆SIMでんきトリプル割」を適用すると、毎月4735円、1年間で約57000円得するという。
2016年04月04日富士フイルムは4月1日、IoTやAIといった高度なICT化に対応した情報基盤技術の強化と応用拡大を図るために、ビッグデータ解析などの情報科学の最先端技術やソフトウエアの基盤技術の研究開発を行う新組織「インフォマティクス研究所」を設立した。所在地は、神奈川県開成町にある同社先進研究所内。今後、東京都内にも分室を設ける予定だ。同社はこれまでも、画像のビッグデータ解析に機械学習を用いてきた。例えば、写真分野では、独自の画像解析技術「Image Organizer」を開発し、大量の画像から自動的に良い画像を選択し1冊のアルバムに編集できる「Year Album」というサービスを提供。また医療分野では、CTやMRIなどによる断層画像から高精度な3D画像を構築する「ボリュームアナライザー SYNAPSE VINCENT」を開発している。今回、情報基盤技術の強化と応用拡大を図るため、複数の研究現場に分散しているデータサイエンティストを集約して、新たに「インフォマティクス研究所」を設立。同研究所では、国内外の大学や研究機関、企業との連携を強化して、ビッグデータ解析などの情報科学の最先端技術やソフトウエアの基盤技術の研究開発を行っていくという。併せて、データサイエンティストも育成するという。今後、同研究所で開発した情報基盤技術を、新規材料や製品、IoT社会に適したソリューションサービスの創出に活用する。さらに、開発技術を、精緻な需要予測に基づいた効果的なマーケティングに用いるとともに、事業計画の立案・遂行といった企業活動全般にも応用していくとしている。
2016年04月01日●データから自分の人生を振り返る時代アクロニスは、全世界500万人以上の個人ユーザーと、30万社を超える企業ユーザーが利用している、データバックアップソリューション、障害復旧ソリューションなどを提供している企業だ。アクロニスのセルゲイ・ベロウゾフCEOは、「データを保護するだけでなく、いかにコントロールするかが大切になってきている。その変化にあわせて、大手企業だけでなく、中小企業や個人が、データの重要性を再認識する必要がある」と指摘する。ベロウゾフCEOに、データを取り巻く環境変化と、それに向けた同社の取り組みについて聞いた。――昨今のデータバックアップ市場をどう捉えていますか。ベロウゾフ氏:データバックアップ市場は、目まぐるしく変化しています。昨今では、データバックアップそのものを捉えるのではなく、データ保護やシステム保護といった幅広い観点で捉えたり、あるいは、データを検索したり、共有したりといった点において、データをどうコントロールすべきか、という点にも注目が集まってきています。ただ、すべてにおいて共通しているのは、「誰もがデータを失いたくはない」ということです。第三者によってデータが破壊されたり、間違った人の手に渡ってしまいデータがなくなってしまったという場合はもちろんですが、データが見つけにくい、探し出せないということで事実上データを失うこともありますし、データをある場所から別の場所に移動させたいのだが、それができずに結果としてデータを失うということもあります。つまり、いま重要視されているのは、データをどうコントロールするのか、ということだといえます。また、安全にデータを格納するには、複数のコピーを用意する必要があり、それらのデータをまったく違う場所に格納しておくことが最適であるにも関わらず、それがまだ浸透していない、あるいはできていないという点も改善していく必要があります。もうひとつ見逃せない動きが、データそのものの重要性が増しているという点です。従来は、大企業のみがデータを保護していればいいという状況でしたが、いまでは中小企業においても、個人においても、データを保護し、データをコントロールしなくてはなりません。前世代では写真やビデオの数も少なく、昔を振り返るには、自分の記憶に頼るしかありません。しかし、いまの時代は、多くの記録が残っていて、データから自分の人生を振り返ることができるという、これまでにないユニークな時代を迎えています。しかし、それを実際にできている企業や個人は少ないといえます。もっとデータに対する意識を高めていく必要があるのではないでしょうか。一方で、いまの時代は、これだけ数多くのデータが活用されているにも関わらず、データに関する法律が原始的であり、文化といえるものが育っていないという問題点も指摘できます。人間は、自分の身体について考えれば、ダイエットをしなくてはならないことに気がつきます。しかし、データについては、そうした考えに至るところまで認識したり、熟考するような人はひと握りしかいません。データに関する法律についても単純なものに留まっており、データの権利保護まで深く踏み込んだものにはなっていません。今後のデータを取り巻く法律や権利というものは、「もはやデータは、人を形成する一部である」というような認識を持った上で作られたものでなくてはいけません。――こうした市場環境のなかで、アクロニスは、どんなメッセージを出していますか。ベロウゾフ氏:我々のメッセージはとてもシンプルです。それは、こうしたデータバックアップ市場の変化に対して、常にベストなソリューションを提供しているという点です。データを格納し、管理し、保護を簡単にできる。迅速に、信頼性のある形でデータを復旧できる。そして、データを保護する際にも、利用者が自由に選択できる環境を用意しています。他社のソリューションの場合は、ローカル環境におけるデータ保護であったり、クラウド環境への保護であったりといったように特定の方法でしか、バックアップができないという提案です。しかし、アクロニスの提案は、自分の好きな方法で、好きな場所にデータを保護し、しかも、それがいつでも変えられるという環境を実現しているわけです。データをバックアップしなくてはならない理由はいくつもあります。たとえば、ランサムウェアへの対策という点がそのひとつです。この部分にも、アクロニスは強いソリューションを持っています。そして、アクロニスの最大の特徴は、データをコントロールする機能や能力を提供している点にあります。信頼性の高いサービスを提供していますから、高いクオリティに対する期待値が高い日本のユーザーに応えることができるソリューションだと自負しています。――アクロニスの技術的な強みはどんなところにありますか。ベロウゾフ氏:アクロニスには、データに関する技術に優れた、310人の超人的な人材がいます(笑)。そのうち、博士号を持っている技術者が20人と、システムソフトウェアに精通した技術者が多い点も特徴です。コンピューティングに関しては、マイクロソフト、オラクル、IBMといった大規模企業が市場をリードしていますし、ネットワークもシスコシステムズ、ジュニパー、ファーウェイという大きな企業が市場を牽引していますが、ストレージについては、マーケットリーダーがいない状況だと私は考えています。そのような状況を捉えれば、いまの段階からエンジニアを増強して、ストレージ分野におけるマーケットリーダーを目指すのが得策です。また、当社では、すでに100以上の特許を取得しており、これも他社との差別化につながる要素だと考えています。――日本ユーザーにおけるデータの保護、データのコントロールに対する意識はどう捉えていますか。ベロウゾフ氏:日本に限ったことではないですが、日本でもデータバックアップをしていない人が多いのは事実です。とはいえ、世界各国のユーザーと比べてみると、日本のユーザーは、データ保護の意識が高い方だといっていいでしょう。しかし、日本は地震などの自然災害が多い国でもあり、日本人はデータを失ってしまいやすい環境にいるともいえます。日本人は、もっとデータ保護に関して関心を持つべきだと考えています。●アクロニスの2016年事業戦略――2016年はどんなことに取り組みますか。ベロウゾフ氏:アクロニスは、データバックアップの企業から、データの保護、管理まで網羅できる企業へと変化していき、技術的にも、ビジネス面でも、クラウドアーキテクチャーへと移行し始めています。まさに会社としての再構築、ビジネスの再構築をしている段階にあります。我々がフォーカスしているのはデータを保護し、コントロールするという部分であり、ある地域や、ある製品に特化しているというものではありません。データ保護やデータコントロールという取り組みのなかで、それを実現するのがソフトウェア・デファインド・ストレージであり、ブロックチェーン技術やモビリティ対応ということになります。データ保護については、5つのキーワードがあります。「セーフティ」、「セキュリティ」、「プライバシー」、「オーセンテック」、そして「アクセス」です。自らのデータを安全に保護し、そして、自らがコントロールできる環境を保持し、いつでも、どこからでもアクセスできる環境を実現することが大切です。アクロニスは、これらの点に力を注いでいきます。――今後の事業拡大において、M&Aはどう考えていますか。ベロウゾフ氏:具体的な戦略については開示できませんが、基本戦略はデータにフォーカスしていく姿勢に変わりません。そのなかで、様々な買収の可能性があるといえます。データの保護、管理、あるいはストレージという領域において、必要なものがあれば、自社内での開発も進めますし、買収した方がよければそれを検討していくことになります。過去36カ月の間に3社を買収していますので、平均すると1年に1社というペースになりますが、特にM&Aだけにこだわらずに拡大を検討していきます。一方で、コンサルティングサービスやプロェッショナルサービスのような領域については、パートナー各社との連携によって対応していくことになります。――日本におけるビジネスはどう成長させていきますか。ベロウゾフ氏:地域ごとの成長率は開示していないのですが、日本におけるビジネスは、非常に目覚ましい成長を遂げており、毎年、数100%の伸びをみせています。とくに、新たなアーキテクチャーを備えた製品の成長が著しいですね。高品質の製品が望まれている市場だけに、我々が成長できる余地は高いと考えています。今回、来日したのは、日本におけるパートナーとの関係をさらに強いものにすること、そして日本の組織の拡大で新たなオフィススペースへの移転を検討しており、それを見に来たのも目的のひとつです。年内には日本のオフィスの移転を考えています。――最後に、日本のユーザーに対して、メッセージをお願いします。ベロウゾフ氏:データの保護、管理およびストレージの活用は非常に重要であり、それに向けて、正しく、適切なツールを使用する必要があります。まだ適切なツールを使っていない人たちも多いですから、その点はぜひ学んでいただきたいですね。いまでもデータの保護の重要性は知られていますが、今後さらに高まっていくことになるでしょう。そうした動きに対して、アクロニスは、どんな規模の企業であっても、個人であっても、最適なツールを提供できると考えています。3月31日は、World Backup Dayと呼ばれており、アクロニスもこの活動に賛同しています。全世界で、データバックアップの大切さを知り、重要なデータや大切な思い出を、しっかりとバックアップすることの必要性を訴えていきます。日本のみなさんも、この日を機会に、データのバックアップに取り組んでいただきたいですね。その際には、ぜひアクロニスのサービスを使っていただきたいと思っています。
2016年03月29日KDDI、沖縄セルラーは22日、同社の4G LTEスマートフォン・タブレットにデータ容量をチャージできる「データチャージカード」の販売を開始した。全国のauショップから購入可能で価格は1,620円から。「データチャージカード」は1.5GB(1,620円)/3GB(3,240円)/5GB(,5400円)の3種類が用意されている。カード背面のQRコードもしくはPINコードを専用アプリ「デジラアプリ」で読み取りもしくは入力するか、「データチャージサイト」でPINコードを入力することでチャージできる。auショップでの販売を記念して、「データチャージカード」でチャージすると、データ容量が50%増量されるキャンペーンも実施する。期間は3月22日から4月30日まで。また、auショップでは、全国のスーパーやコンビニなどで利用できる「au WALLET プリペイドカード」へ入金できる「au WALLET チャージカード」の販売も開始する。こちらは1,000円/3,000円/5,000円の3種類。
2016年03月28日IDCフロンティア(IDCF)とヤフーは3月25日、大規模データセンターである福岡県北九州市の「北九州データセンター」と、福島県白河市の「白河データセンター」にそれぞれ新棟を建設することを発表した。建設規模は「北九州データセンター」が1棟約610ラック規模、「白河データセンター」が1棟70ラック・全6棟で構成される計420ラック規模となり、工期は「北九州データセンター」が2016年2月から12月中旬の約11カ月、「白河データセンター」は同年4月末から10月末の約6カ月を予定している。「北九州データセンター」の新棟となる6号棟は、ヤフーとIDCFのクラウドサービスおよび外販での利用を予定しているという。同センターは西日本地域におけるクラウドサービスの提供拠点であり、外販のハウジングサービスなどにおいては東京・大阪に集中するシステムの地理的分散や電力供給会社の分散により事業の継続や災害対策に機能を発揮している。将来は最大11棟までの増設が可能であり、拡張余力をシステム選定の条件とした企業の大規模需要にも応えるとしている。空調方式は、1~5号棟では直接外気空調が取り入れられていたが、6号棟に関しては、水冷空調システムが導入される予定となっている。「白河データセンター」の新棟となる4号棟は、2016年3月に第1期分が竣工した3号棟に引き続きヤフー向けに増設され、増加を続けるデータの格納や、ヤフーが保有するマルチビッグデータを活用するための処理基盤強化が目的だとしている。
2016年03月25日AOSデータは23日、マイナンバー対策製品の販売において明光商会と業務提携を行うことを発表した。AOSデータは、マイナンバーに対策に対応するソフトとして電子データシュレッダーを販売している。同ソフトは、グループ会社でありフォレンジック分野などにも強いAOSリーガルテックが開発しているソフトウェアで、PC上のデータを復元できない状態に廃棄・削除を行う。マイナンバーが記載されたメールを消去するメール抹消機能やあらかじめ設定した日時に自動で行えるスケジュール抹消機能なども搭載されているほか、いつ、誰が、何のファイルを抹消したのかを記録に残すレポート機能も備える。明光商会は、1960年という古くからMSシュレッダーを世に送り出してきた実績を持ち、オフィスユースを中心に個人認証型のシュレッダーから大量の機密文書の細断を行う破砕機まで、ニーズに応じたシュレッダーのラインナップを揃える。今回、明光商会が「電子データシュレッダー」の販売で提携、紙/デジタルともに徹底したデータ抹消が可能になる。なお、明光商会配布のカタログからの申し込み限定で同ソフトの60日間無料の体験版が利用できる。
2016年03月23日ビッグローブは17日、「BIGLOBE SIM」ユーザーを対象に、NTTドコモが提供する「dマーケット」の一部サービスの販売を開始した。ビッグローブが取り扱うのは、映画やドラマが見放題の「dTV」(月額500円)、音楽が聴き放題の「dヒッツ」(月額500円)、雑誌が読み放題の「dマガジン」(月額400円)。BIGLOBEのWebサイトからdアカウントを取得することでスマートフォン、タブレット、PCから利用できる。なお、利用料の支払いはクレジットカードのみとなっている。
2016年03月17日アイ・オー・データ機器は16日、データ復旧サービスが付属する外付けHDD「HDJA-UTWHQシリーズ」を発表した。容量2TBの「HDJA-UT2.0WHQ」と3TBの「HDJA-UT3.0WHQ」をそろえ、いずれも3月末に出荷する。価格は2TBモデル「HDJA-UT2.0WHQ」が税別29,900円、3TBモデル「HDJA-UT3.0WHQ」が税別34,400円。熱や振動に強いとされるウエスタンデジタル製のNAS用HDD「WD Red」を搭載するほか、独自のヒートシンク構造と冷却用ファンで冷却性能を高め、HDDの温度上昇などによる故障のリスクを低減する。付属のデータ復旧サービスは、ミスやウイルス感染によってデータが消失してしまったり、故障などによってデータ障害を起こした時に復旧をサポート。3年の保障期間保証期間内に1回のみ無料で利用で、申し込む際に購入日を証明するレシートなどが必要となる。このほか、同社のWebサイトから、ファイルの同期やアクセスの高速化などを行うことができるツール群「IO.APPs」も無料ダウンロード可能。インタフェースは、USB 3.0。電源はAC100Vで、電源ユニットを本体に内蔵するため、ACアダプタを必要としない。また、PCとの電源連動機能を備える。本体サイズは約W45×D216×H155mm、重量は約1.2kg。対応OSは、Windows Vista / 7 / RT / RT 8.1 / 8 / 8.1 / 10。Windows Server 2008 / 2008 R2 / 2012 / 2012 R2。Mac OS X 10.7~10.11。
2016年03月17日EaseUS Softwareは3月11日、Windows 10へのアップデート時にデータを損失してしまっても、安全にデータを復元、バックアップできるソフト「Data Recovery Wizard」と「Todo Backup」の最新バージョンを提供すると発表した。Windows 10へのアップデート時、ユーザーによる設定や各ソフトやアプリ、データはそのまま残るが、アップデート時にエラーが起こるとシステム上の全データが損失・消失してしまうリスクがあり、こうしたケースを防ぐためには、事前にバックアップをとっておく必要があるという。最新バージョン「Data Recovery Wizard 9.9」を利用することで、アップデート前のバックアップを容易に実行でき、Windows 10へのアップデート時に万一、データの損失や消失してしまっても、バックアップがあれば短時間かつ簡単にすべてのデータを復元、アップデート時のエラーでシステムからの起動ができなくてもすべてのデータ復元ができるとしている。アップデート時のデータ損失・消失からの復元だけでなく、システムをはじめHDD、パーティションも含めたバックアップに適しているのが「Todo Backup 9.1」。PCやHDD、外付けHDD上の全データのバックアップが可能なほか、増分や差分、自動バックアップ機能を備え、さらにクラウドバックアップ機能を使うことにより、Google Drive、OneDrive、Dropboxなどクラウド上に保存してあるすべてのデータも安全かつ便利にバックアップすることができるという。
2016年03月14日エンタープライズデータストレージ・ソリューションのプロバイダであるイスラエルのINFINIDATは3月8日、日本法人としてインフィニダット ジャパン合同会社(インフィニダット)を設立した。INFINIDATはモシェ・ヤナイ氏が2011年に設立し、2013年末にInfiniBoxの出荷を開始。これまでグローバルで主要企業のデータセンターに導入されており、投資機関のTPG GrowthとMIIVenturesから資金提供を受けている。ユーザーには金融や銀行、政府機関、ヘルスケア、エネルギー、クラウドサービスなど多様な分野のFortune 500企業が含まれているという。インフィニダットは、実証済みのエンタープライズデータストレージ・ソリューション「InfiniBox」を日本および周辺地域の企業に提供する。カントリーマネージャには岡田卓也氏が就任した。InfiniBoxは、19インチ/42Uのシングルラックで最大2PBまでの容量を使用可能であり、99.99999%の可用性、100万IOPS以上、最大12.5GB/sというスループットを実現しているという。エンドツーエンドのデータ保護、三重化冗長電源/データパス、スナップショットとレプリケーション、ホットスワップアップグレードなどを有する。こうしたストレージ性能/効率化機能により、InfiniBoxはユーザーのTCO削減を実現するとしている。
2016年03月08日米Lookoutは2月29日、プライバシー・データ保護調査を行う「Ponemon Institute」と共同で行った調査「モバイル端末からの機密データ漏えいにおける経済的リスク」の結果を公開した。同調査は、Forbesが発表する世界の公開企業上位2000のランキングリスト「Global2000」におけるIT・ITセキュリティ分野の従業員588名を対象に行っており、モバイル端末で企業情報にアクセスする際のリスクを検証して、実際にモバイルマルウェアが偉業に与える損失を測定している。これによると、モバイルマルウェアに感染した場合、感染端末すべての調査・復旧の直接費用や、コンプライアンス違反、信用喪失などの間接費用をあわせた総コストが、感染端末一台あたり「106万2320円(9485ドル)」にのぼることがわかった。なお、調査対象となった企業で利用されているモバイル端末のうち、3%(1700台)以上がマルウェアに感染している可能性があるという。こうした状況ではデータのアクセス権限管理が重要となるが、セキュリティ担当者の過半数が「社員のデータアクセスについて適切に把握している」と回答する一方で実態は大きく異なるとLookoutは指摘。例えば、顧客データへのアクセスは19%の担当者だけが「アクセスできる」と考えているのに対し、実際にアクセスしている従業員は43%にのぼった。ほかにも「個人の特定が可能な社員情報」や「連絡先リスト・名簿」「機密・極秘文書」など、従業員がセキュリティ担当者の監視の目をかいくぐり、データを利用している実態がわかった。こうした状況から、調査対象となった企業のITセキュリティ年間予算は現状が2730万ドルであるのに対し、12カ月後は3276万ドルと予算が増加傾向にある。また、モバイルセキュリティ分野においても436万8000ドルから598万4160ドルへと、各企業が予算増の見通しを立てていることが明らかとなっている。
2016年03月01日ウイングアーク1stは2月17日、NECと大規模データにおけるデータ分析基盤の協業を強化し、製造業におけるセンサーデータ収集による故障の未然防止や、金融業における取引の異常監視をはじめ、大容量のデータを蓄積できるデータ分析環境の構築を支援すると発表した。両社は、2014年2月からNECのIAサーバ「Express5800」、ストレージ「iStorage Mシリーズ」とウイングアーク1stのBI・情報活用基盤「Dr.Sum EA」を組み合わせ販売。あわせて共同で性能検証を行い、従業員数20,000名以上の大規模ユーザーや100億件以上の大容量データを保持したユーザーに最適なパフォーマンスを実現できることを検証してきた。今回新たに数億~数百億件のデータ分析を想定した性能検証を実施し、従来比で数倍~数10倍の集計スピードにおける性能向上を確認できたことから、製造業におけるセンサーデータ収集による故障の未然防止、金融業における取引の異常監視などの大規模データにおける展開を本格化。各種センサー等で収集されるライフログ分析の実証実験に着手し、ビッグデータ分析の実用化に向けた取り組みをスタートする。また両社は、今回の発表に伴い大規模データ分析のトライアルユーザーを限定募集。ハードやソフトの費用を無償で提供する(別途構築費用が発生する場合もある)。
2016年02月17日富士通は2月17日、ビッグデータの分析サービス「FUJITSU Intelligent Data Service データキュレーションサービス」(以下、データキュレーションサービス)を拡充し、教育サービス「ビッグデータ活用実践講座」「ビッグデータ分析体験ワークショップ」の2つの講座を同日より提供すると発表した。「ビッグデータ活用実践講座」は、企業内でビッグデータ活用を推進・運用できる人材を育成したい企業向けに、業務データの規模や目指すデータサイエンティスト像に合わせてカスタマイズした標準8週間の教育サービス。事業所内の環境で、実際の業務データを教材として使用し、目標設定・データ可視化・加工・モデリングなどの一連のプロセスを学習する。これにより、企業の業務に基づいた、より実践的な分析スキルを持つデータサイエンティストを育成できるという。一方、「ビッグデータ分析体験ワークショップ」は、ビッグデータの活用を検討中の企業向けに、ビッグデータ分析を1日体験できる教育サービス。ワークショップ後には、キュレーターとの個別相談会を開催し、データ活用に関する具体的な取り組みについて提案する。いずれのサービスも価格は個別見積もり。
2016年02月17日富士通は2月4日、同社のビッグデータの分析サービス「FUJITSU Intelligent Data Service データサービス「FUJITSU Intelligent Data Service データキュレーションサービス」(以下、データキュレーションサービス)において、新たな分析手法としてDeep Learningを適用し、同日より提供すると発表した。このサービスは、新ビジネスの創出や業務改革に向けて、自社で保有する画像や音声などのデータを有効活用したい顧客向けに、専門スキルを持つキュレーター(データサイエンティスト)がデータを分析し、Deep Learningを導入した場合の効果を検証するサービス。Deep Learningは、膨大なデータを機械(コンピュータ)が学習し人の判断や知識創造を助ける機械学習手法の1つ。顧客がこのサービスを活用することで、自社で分析を行うのに比べ初期投資を抑えながら短期間で検証することが可能になるという。Deep Learningを活用した「データキュレーションサービス」では、同社キュレーターが、顧客の画像・音声などのデータを預かり、目的に合わせた効果検証のフレームワークを適用。Deep Learningを用いて約2カ月でデータ分析モデルの作成と評価を行い、結果をレポートする。さらに、本サービスで作成したデータ分析モデルをビジネスに活用したい顧客には、分析モデルの提供や活用のためのコンサルティング、システム構築なども行っていくという。同社はこれまでの「データキュレーションサービス」で行っていた、機器のログや顧客・商品情報など発生した情報の分析による予測モデルの提供に加え、今回、画像や音声などのデータにDeep Learningを適用した学習・認識モデルを提供することで、ヒトの五感に対応したより精度の高いサービス開発や業務改革を支援していくという。なお同社は、コスメ・美容情報サイト「Hapicana(ハピカナ)」を運営するクーシーと連携し、新サービス開発に向けた共同プロジェクトを開始した。プロジェクトでは、顔画像データ5万点にDeep Learningを適用し顔を構成する各パーツの特徴を検出・学習することで、新たなレコメンドサービスの開発につなげていくという。
2016年02月04日IDC Japanは2月3日、国内ビッグデータソリューション市場動向の調査結果を発表した。同社は、ビッグデータ関連のテクノロジーは従来のBA(Business Analytics)のような単純なレポーティング/予測にとどまらず、リアルタイム処理を内包したアプリケーション基盤となることで、直接的に企業の収益に貢献することが期待されているが、ユーザー層の拡大という面で課題を抱えていると指摘している。その一方で、同社は業務/業種特化型のビッグデータソリューションが今後の国内ビッグデータテクノロジー/サービス市場の成長に重要な役割を果たすと見ている。国内は北米などのビッグデータ活用の先進地域に比べてビッグデータ活用やアプリケーション開発に対応した組織や人的資源を十分に持たない企業が多いため、ベンダーやSIerの提供するビッグデータソリューションの役割はきわめて重要であるという。同調査では、ユーザー企業にベンダー/SIerを挙げて、ビッグデータソリューションの提供者として強いイメージを持つ企業を聞いた。その結果、最も印象に残るベンダーとして、国内企業では富士通がトップの10.6%、NTTデータが2位で8.5%の回答を得。海外企業ではグーグルが9.3%、IBMが7.1%で続いている。同社は、富士通がトップとなった要因について、ミドルウェアやクラウドサービスも含めて独自の製品を持ち、ビッグデータイニシアティブとして包括的なソリューション体系をアピールしているためと分析している。
2016年02月04日NTTデータは2月1日、同社のデータセンターとアマゾンウェブサービス(AWS)やMicrosoft Azure(Azure)を専用線で直接接続する「マルチクラウド接続サービス」を同日より提供開始すると発表した。同社では、同社のデータセンターとAWSやAzureの間を専用線で接続し「マルチクラウド接続サービス」として同サービスを提供することで、安全性や信頼性を担保しつつ、複数のクラウドサービスや自社システムを連携させるハイブリッドクラウドやマルチクラウドを利用したいという企業のニーズに応えるとしている。同サービスでは、複数の異なるキャリア回線、ネットワーク機器を物理的に冗長化することにより、可用性の高いネットワーク環境を利用できるようになった。また、システムごとにAWSやAzureのアクセスポイントにおいて、ユーザー自身で回線の手配や追加ラック契約など追加設備の用意が不要なため、低価格でサービスを利用することが可能だ(最高速度1Gbpsまで対応)。同社は今後、顧客企業の事業パートナーとして、複数のクラウド基盤の最適化や運用管理を支援する新サービスの提供を計画中であり、順次発表していく計画。
2016年02月02日●複雑化するデータをデジタルマーケティングにどう活用するか2015年のデジタルマーケティングをめぐる動きを振り返ると、ユーザーの行動履歴をはじめとするデータの利活用は当たり前になり、スマートデバイスの普及により時間や位置情報といったデータを活用したO2Oの展開も活発になってきた。一方、テクノロジーの分野ではIoT(Internet of Things:モノのインターネット)への注目が高まり、今年は一層技術の進化が期待できるところだ。こうした動きを踏まえ、2016年のデジタルマーケティングはどうなっていくのか。その展望について、デジタル・アドバタイジング・コンソーシアム株式会社(DAC)プロダクト開発本部広告技術研究室長の永松範之氏にお話を伺った。――2015年は、アドテクノロジーにおいて一層「データドリブン」の必要性が高まったのではないでしょうか。この動きは今後どうなっていくと感じていますか?永松氏:私たち広告技術研究室では「テクノロジー」、「メディア/コンテンツ」、課金や効果指標、取引手法といった「メソッド」、そして「データ活用」という4つの領域で研究を行っていますが、近年はそれぞれの領域が複雑に絡み合い、融合してきていると感じています。データの領域について、私たちが注目しているのはロケーションデータの活用です。これまでもロケーションデータはターゲティングの手段として使われてきましたが、それに加えてスマートフォンのGPS機能によってデータが収集しやすい環境が整い、またPOI(Point Of Interest)のデータが整備されてきたことによって、「どの位置にどのような関心を持ったユーザーがいるのか」ということが見えてくるようになりました。つまり、ユーザーのロケーションデータとPOIデータを組み合わせることで、より精度の高いプロファイリングができるようになったのです。さらに、オンラインの行動履歴とリアルな位置情報を組み合わせることで、より深いターゲティングもできるようになります。――アドテクノロジーの最大の関心は「どこに潜在顧客がいるのか」ということであり、それを探すための技術ということが求められています。ロケーションデータとPOIデータの組み合わせはその答えのひとつということでしょうか?永松氏:そうですね。今のアドテクノロジーではあくまでもオンラインにおける行動をベースとしたデータの活用が盛んに行われていますが、今後はこれにリアルなロケーションデータを加えることで、よりユーザーの興味関心に応えるアプローチが可能になるのではないでしょうか。PCとモバイルといったクロスデバイスの利用シーンで、複数のデバイスを横断するユーザーに対して広告配信を最適化させる仕組みも、今年は活用していきたいと考えています。――「潜在顧客を探す」という点では、CRM=既存顧客データの活用も昨年から注目されてきています。永松氏:アドテクノロジーとマーケティングテクノロジーの融合、つまり顧客データをはじめとする企業が保有するアセットとの融合もひとつの大きなテーマですね。私たちでも、いくつかの案件でデータの連携を開始したり、LINEビジネスコネクトを活用して間接的に企業のデータをマーケティングに活用したりといった動きが出てきました。いかにして企業の保有するデータをマーケティングに活用するかという点は、重要視されてきていると感じています。まずは企業が持っている顧客のデータを解析し、それを私たちのようなサードパーティが持つデータと融合させることで、企業の顧客と近い見込み顧客がどこにいるのかを発見することができるようになる。私たちもそういった価値を提供する仕組みを用意しているので、実際に企業に活用していただき、そのメリットを実感してもらいたいと思っています。●アドブロックは“話題先行”、しかし対応を考える必要はある―― 一方で、広告を配信する技術では新しいトピックスはありますか? 広告配信では前述のターゲティング技術はもちろん、効率やコストの最適化などが求められると思いますが。永松氏:取引の仕組みについては、プライベートマーケットプレイスのようなものが拡大するのではないかと思います。私たちでも、完全オープンな広告オークションでの取引に抵抗のある企業に対して、招待制で厳選された広告主、媒体社だけが参加することができる価値の高い広告在庫のマーケットプレイスを用意しています。加えて、配信技術については、昨年から注目されてきているアドブロックに対して技術的にどう対処していくかは、少しずつ出てきているところです。例えば、「アドステッチング」という従来のコンテンツ=コンテンツサーバー、広告=アドサーバーという区別を見直して、コンテンツと広告を一体化して同じサーバーから配信するといった考え方や、「ファーストパーティー・アドサーヴィング」といって媒体社もしくは広告主のドメインで広告を配信するといった考え方が生まれています。アドブロックについては日本では話題が先行しているものの、実際のところはまだまだこれからなので早急に対応する必要はありませんが、市場の動向次第では2016年の大きなテーマになる可能性はあるので、今後対応を考えていかなければならないと感じています。○テレビとネットの融合、技術的には連携させるロジックが確立へ――民放各局が参加する「TVer」に代表される見逃し配信の拡大や、オンライン動画を活用したコンテンツマーケティングの発展などを背景に、動画に対する注目も高まってきています。このような動きはデジタルマーケティング、中でもターゲティングや効果測定にどのような影響を与えるでしょうか?永松氏:ここ最近では、テレビ広告とオンライン広告を一緒に売るという動きは浸透してきていると感じています。ただ、データという点ではテレビとオンラインはまだ繋がりが弱い状態にあって、例えばテレビを観ていない視聴者にオンライン広告を見せたいといったニーズに対しては、まだ明確なロジックが生み出されているわけではありません。テレビ広告とオンライン広告の組み合わせで“リーチを拡げる”という効果を求めようとしても、まだその方法は確立していないのです。ただ、例えば一部のスマートテレビ(ネット接続が可能なテレビ)で可能となってきた視聴ログの収集が拡大すれば、ネットの視聴ログと組み合わせて広告に活用できるのではないかと考えています。まだ研究段階の技術も多いですが、これまでありそうでなかったテレビ視聴データのデジタル化は技術的にかなり現実的になってきました。これが実用化されれば、テレビとオンラインを連動させたターゲティングのロジックとそれによるリーチの拡大も現実味を帯びてくるのではないでしょうか。○データの利活用とプライバシーの課題は“表裏一体”――ネットに繋がるシーンが増え、ユーザーとの距離も近づくと、取得できるデータも豊富になる。そうなると、やはりデータとプライバシーの問題は避けて通れないと思います。「広告はユーザーデータをどこまで収集・活用するか」という論点はまだまだ議論の余地があるのではないでしょうか?永松氏:そうですね。ユーザーにどのような配慮をしてデータを収集・活用するかという点は、改正個人情報保護法の動きなどを踏まえながら当社でも厳しくチェックをしているところです。データを取得するという場面においても、オプトアウトの選択権をユーザーに提供しています。また、当社がデータを取り扱う際も、いくら匿名データであっても細分化された様々なデータを積み上げていくと個人の特定性が高まってしまうので、常にユーザーがある複数のセグメントで固められた母集団で構成されるよう分析ロジックを工夫しているところです。この問題は、ユーザーの近いところに迫れるようになったからこそ、真剣に考えなければなりません。私たちにとって「データ」は大きな研究テーマですが、それと同じくらい「プライバシー」も重要なテーマだと位置づけており、社内では専門チームをつくり、社外では各業界団体と連携して考えているところです。●実態を伴う効果指標によってメディアと広告の新たなエコシステムを――広告手法の高度化、タッチポイントの多様化によって、広告の指標やビジネスモデルも大きく変化していくと思います。広告のビジネスモデルで今後どのような動きがあるでしょうか?永松氏:パフォーマンスを目的とした広告については、最適化のロジックや運用方法の進化はあるものの、あまり大きな動きはないと思います。一方で、ブランディング広告については大きな変化があるのではないかと思います。例えば、最近増えている動画広告については従来のような“1インプレッション”では効果を評価できない場合が出てくる。オンラインの動画広告はテレビのように15秒や30秒といった固定値とも限らない。そこで、視聴時間に応じた課金モデルである「CPH(Cost per Hour)」など新しい効果測定の手法について検討が進んでいくのではないでしょうか。――確かに、ログデータとして記録されるインプレッション数や再生回数が実態(ネット視聴者の広告接触・視聴)を伴っているかどうかについては、疑問の声が挙がっていましたね。永松氏:よりネット視聴者の利用実態に合わせた効果測定・課金のモデルの最適化が考えられていくのではないかと思います。例えば昨年は海外で、ブラウザ下部のユーザーが見えない場所に表示された広告を1インプレッションとカウントしていることへの課題意識から、バナーが視認できる場所に表示され、実際にネット視聴者がバナーを見た回数を1インプレッションとみなす「ビューアビリティ」という言葉が出てきていて、この考え方で課金する「vCPM(v=viewability)」というモデルも生まれています。これは日本でも現在検討が進んでいて、より現実に即した課金モデルが普及していくのではないでしょうか。――vCPMはとても良い発想だと思いますが、広告収益に依存しているパブリッシャーにとっては少し辛いところですね。永松氏:そこが大きな課題だと思います。アメリカではvCPMでなければ広告を買わないという広告主も多くなってきていて、GoogleやFacebookといった大手メディアも対応を始めています。他のメディアも追随せざるを得ない状況が生まれつつあります。日本ではまだそこまでではありませんが、もし同じような状況が生まれた際には、広告単価をしっかり向上させなければ広告メディアにとってのメリットがなくなってしまいます。その点には十分に注意を払っていく必要があると思います。――CPCにしても、CPMにしても、単価は右肩下がりの傾向が続いている。それはブランドの認知やトランザクションといった広告主のKGIに対して十分な費用対効果を提供できていなかったからだとも言える。それに対して、vCPMによって費用対効果を向上することができれば、広告単価は向上するのが自然だと言えますよね。永松氏:そのようなスキームに落とし込んでインターネット広告のエコシステムを活性化していくことが広告会社に課せられた使命なのではないかと思います。○新しい技術、アドテクノロジーにどう取り込むか―― 昨年はウェアラブルデバイスに対する注目が高まった年でした。デジタルマーケティングはこの動きに追随していくのでしょうか。永松氏:いくつかアドテクノロジーとして検討する方向性があるのではないかと思います。ひとつは、広告を表示するメディアとしての可能性。ただこれは、表示面の大きさが多種多様などの点から、ハードルはかなり高いのではないかと思います。一方で、広告配信のベースとなるユーザーの状態や興味関心といったデータを取得する手段として活用するという考えもあり、まずはここからウェアラブルデバイスやIoTの活用が進むのではないかと思います。――また、テクノロジーの世界ではIoTやAI(人工知能)の動きが加速しています。デジタルマーケティングはこうした技術をどのように取り込んでいくのでしょうか?永松氏:人工知能(特に機械学習やディープラーニング、認識技術等)をどうマーケティングのテクノロジーに取り込んでいくかという点は、既にターゲティングといった広告配信で活用しているものもありますが、さらに研究を進めていくところです。考えられる活動領域としては、レコメンドやターゲティング、予算配分、クリエイティブの最適化、効果検証といった分野ですが、それぞれでどのような活用が可能かを試行錯誤しています。○ネット広告とユーザーが、良い関係を築くために――AIなどは、収集したデータを基に広告をアウトプットする場面で活用できるのではないかとも思います。例えば、ユーザーはネット広告を“邪魔な存在”だと思っている場合が多い。こうした課題に対して、機械学習や人工知能の活用はネット広告とユーザーとの間に良い関係を築くためのヒントを生み出すのではないでしょうか?永松氏:それは大いにあると思います。今までは、広告会社はあまりユーザー目線でネット広告を考える立場ではなかったとも言えます。しかし、データとプライバシーの問題を例にとっても、今後はそのような立場では難しい時代になってくるのではないかと思います。広告会社・広告主とユーザーの距離がどんどん近くなってきている中で、広告とユーザーが発展的に良い関係を築くことができるような方法論を考えていくことは、非常に重要だと思います。広告会社はユーザーに対してもオープンでいなければ、立場が難しくなっていく時代になるのではないでしょうか。――ネット広告そのものに対してユーザーからの支持・信頼を得られなければ、業界全体が高まっていかないですよね。永松氏:そうですね。スマートフォンが普及したことによって、ユーザーとネットの距離がさらに縮まり、その課題はより顕在化したのではないかと思います。これまでと違って、ネットでは本当に様々な広告手法が生み出されています。様々なネット上のサービスをみても、ユーザーの支持・信頼を得ているものが継続的な成長をしていき勝者となっています。ネット広告とユーザーの間に良い関係を築くためには、考えていかなければならない重要な課題です。
2016年02月01日データビークルは1月29日、電通、アプレッソ、takram design engineeringと共同開発したデータサイエンス専用変換ツール「Data Ferry」(データフェリー)を5月9日より発売すると発表した。初めに、代表取締役 CEOを務める油野達也氏が新製品を開発した経緯を説明した。油野氏によると、データ分析がうまくいかない原因はデータの切り分け方にあり、データ切り分けにおける課題を解決する製品として、同社が昨年7月に発表したのがデータ分析ソフト「Data Diver」だ。「データ分析は、収集・分析・行動といったステップを踏む。データの切り分けがよくないパターンは2つあり、1つはIT部門が収集と分析を行い、現場が行動を行っているパターン、もう1つはIT部門が収集を行い、分析を外部のデータサイエンティストが行い、現場が行動を行っているパターン。前者の場合、現場がどのように行動するべきかわからなくなっており、後者の場合、データサイエンティストはお金と時間がかかる割には、業務についてわかっていないという問題が生じている」そこで、「Data Diver」はプログラミングの知識がなくても高度な統計技術を利用できるようにすることで、現場が分析まで踏み込めるようにした。ただし、「Data Diver」を展開する中で、「データ連携ソフトが高い」「データをタイミングよく入手できない」といったデータ連携やデータ整備における課題が見えてきたという。こうした課題を解決するため開発されたのが「Data Ferry」だ。油野氏には、データ分析を行うデータサイエンティストには専用機が必要であると考え、「素性のよいエンジン」を探していたところ、アプレッソに行き着いたと語った。「『高度な改善要求に耐えられる製品を持っていること』『共に戦えるエンジニアがいること』『海外で実績を持つファクトリー体制があること』という要素がそろっているエンジンを探していたが、正にアプレッソがそうだった」(油野氏)「Data Ferry」にエンジンを提供するアプレッソの代表取締役社長を務める小野和俊氏も説明会に登壇した。小野氏は代表取締役社長という立場ながら、根っからの"技術者"ということで、今でもアプレッソの製品のエンジニアリングに関わっているという。小野氏は、油野氏が挙げた「素性のよいエンジン」の条件を引き合いに出し、同社の技術力の高さをアピールした。「これまで、各所からコンサルティングも提供してはどうかとの声もいただいてきたが、一貫してプロダクトの開発に注力してきた。また、ビッグデータの分析に対するニーズの高まりなどを踏まえ、大量のデータを高速処理できる機構も独自で開発しているほか、Javaエンジニアも多数そろっており、技術力には自信がある。また、エンジニアについても、新規の戦略アライアンスなどに対応できる開発体制を構築しており、開発生産性を最大化するための環境への投資も積極的に行っている。製品のグローバルかも着実に進めており、販売に加え、シンガポールに開発拠点を設けたり、英語・中国語でサポートを提供したりするなど、力を入れている」「Data Ferry」の機能については、製品企画担当の藤田大地氏が説明を行った。藤田氏は、「Data Ferry」のコンセプトについて、「分析に特化したツールであり、基本となるEAIは安定した国産エンジンを搭載している。ターゲットはIT部門以外としているため、設定はすべて自然言語で行える思い通りに、ユーザー自身がデータを加工できるような仕組みを用意している」と語った。「Data Ferry」の技術面におけるキモは専用ストレージ「Analytical Source Lake」だ。各種データソースを統一されたデータセットに変換し、分析可能な形で醸成・蓄積することができる。Analytical Source Lakeに蓄積されたデータについて集計、テーブル統合、サンプリング、クレンジングが行われる。加えて、藤田氏は「Data Ferry」の特徴として「完全なプログラムレス」「データベース内蔵」「分析に関する処理をすべて自動化」「オンプレミスとクラウドを双方向で接続」「データのマスキングによるセキュリティ対策」を挙げた。「Data Ferry」はクラウドサービスとして提供され、利用料は月額40万円から(1ユーザーID、初期データ容量は1TBまで)。オンプレミスの販売については、国内のSIベンダーと協業を進めているところだという。
2016年01月29日アシストは1月28日、データウェアハウス最適化のための中核ソリューションとして、データクレンジングに必要なソフトウェアとハードウェアをパッケージとして提供する「ビッグデータ・クレンジングパッケージ」を提供開始した。「ビッグデータ・クレンジングパッケージ」は、分析用データを蓄積する基盤として活用が広がっている「MapR Enterprise Edition(M5)」、IAサーバ「HP ProLiant DLシリーズ」、ETLツール「SyncsortDMX-h」、各種技術支援サービスを組み合わせて提供するもの。同パッケージは、データベースのライセンスコストおよびストレージコスト、データ収集や加工といったデータクレンジングに要するコストを低減する。同社は、同パッケージの提供開始に合わせ、1月21日より「MapR版Syncsort DMX-h Sandbox(トライアルキット)」のダウンロード提供を開始している。これは、「Syncsort DMX-h」と「MapR」を同梱したVMWarePlayer用仮想マシン。自社にHadoop環境がなくても、Hadoop上でビッグデータをクレンジングするためのETL処理の開発と実行が体験できる、トライアルキットに含まれるサンプルのデータとアプリケーションで、売上集計、差分抽出、Webログ集計、文字列カウントの4つのジョブをチュートリアルに沿って実行することも可能。
2016年01月29日インフォテリアは1月28日、トレジャーデータが提供するクラウド型のデータマネジメントサービス「トレジャーデータサービス」とのデータ連携に、インフォテリアのEAI/ESB製品であるASTERIAシリーズの「ASTERIAWARP(アステリアワープ)」が対応し、双方で検証が完了したことを発表した。トレジャーデータサービスは、各種データベースやファイルシステムからデータを抽出する機能とクラウド上に保存する機能を備える。最近ではIoT(Internet of Things)の利活用を検討している企業が増加し、大量のデータをクラウドで集計・管理を行うトレジャーデータサービスへの注目も高まっている。しかし、多くの国内企業では既存システムや、さまざまなクラウドサービス、インターネット上のデータを分析の対象とする要望が数多く存在しているという。一方、ASTERIAWARPは異なるコンピューターシステムのデータをノンプログラミングで連携できるミドルウェア。メインフレームやクラウド上のサーバーから表計算ソフトまで、さまざまなシステム間の接続とデータの変換を行うロジックを複雑なプログラミングなしで行い、既存システムから最新のサービスまで連携することができる。今回の連携によるメリットは、トレジャーデータサービスで各種データベースやファイルシステムから抽出したデータに対して、ASTERIAWARPが既存システム、クラウドサービスなどのデータを統合し、送付することでデータの見える化を推進するものだという。また、データの集計結果を帳票とする際にもASTERIA WARPを利用してExcelの帳票とすることが可能なためきめ細やかな帳票出力に対応し、互いのメリットを活かせる協力関係を築くことができるという。インフォテリアでは今後もASTERIAWARPの多様なデータソースとの連携機能を駆使し、最新のクラウド環境に対応するなど社内業務のクラウド化による利便性を引き出せるITソリューションを構築していく方針だ。
2016年01月29日矢野経済研究所が1月27日に発表した「小売業のビッグデータ活用に関する調査結果2015」によると、国内の大手小売業者が今後データ利用したいと考えている業務領域では、既存客の来店頻度向上が最多であり、以下、マーチャンダイジング(商品政策)、客単価の向上の順だったという。同調査は同社が2015年11月~12月にかけて、日本国内の売上高上位の小売業者(百貨店・スーパーマーケット・専門店・生協など)を対象として電話によるヒアリングにより実施したものであり、有効回答数は173社。それによると、今後データ利用をしたい業務領域は、上位から、既存客の来店頻度向上が61.8%、マーチャンダイジング(商品政策)が53.2%、客単価の向上が50.3%の順だったという。一方、O2O(Online to Offline)は11.0%、オムニチャネルの実現は15.6%と、将来的なデータ活用の課題についての回答率は低かった。小売業がデータ利用したい業務領域としては、将来よりも日々の課題、中でも集客に対する強いニーズがあるという結果になったと同社は分析する。今後のビッグデータ活用への取り組みを尋ねると、「積極的に取り組んでいる」と回答した企業は6.9%であり、取り組みは遅れているのが実情だ。また、「未だ取り組んではいないが、今後の重要な課題である」と捉えている企業も20.2%に留まっている。逆に、「課題ではあるが優先度は低い」という企業が42.8%であり、「取り組む予定は無し」の28.9%と合わせると、全体の7割以上が現状ではビッグデータの活用にさほど積極的ではないと同社は見ている。業態別に見ると、ビッグデータの活用に最も積極的に取り組んでいるのは生協であり、2 割弱の企業が「積極的に取り組んでいる」と回答しており、「今後の重要課題である」という認識も3割近くに達した。一方で「取り組む予定は無し」が1割を下回っており、他の業態と比較すると、相対的に関心が高いと同社は見る。生協は組合員の情報を正確にストックしていると考えられ、他の業態と比較して、顧客の顔が見えていることが分析のニーズを高めている可能性があると同社は考えている。百貨店については、「今後の重要課題である」という回答比率が29.2%と全業態の中で最も高いものの、「課題ではあるが優先度は低い」という企業の比率も50.0%と最も割合が高い。最もネガティブな意見が多いのはスーパーマーケットであり、取扱品目が近い生協と比較すると、その差が極めて大きいと同社は指摘する。小売業者におけるビッグデータへの取り組みは遅れている状況であり、「積極的に取り組んでいる」と回答した企業においても、一般的にビッグデータと言われるような非構造化データよりも、従来から社内に多数ストックしているPOSデータや顧客関連データなどを積極的に利用しようとする取り組みが、現状においてはビッグデータ分析の中心になっていると同社は見る。小売業でのITによるデータ利用については、まだまだこれからの発展の余地が大きいと、同社は推測している。
2016年01月28日NTTデータグローバルソリューションズ(NTTデータGSL)と日本マイクロソフトは1月26日、Microsoft Azureをクラウド基盤として利用したSAPソリューション・マイグレーション・サービスで協業すると発表した。NTTデータGSLは、Microsoft Azureの特性を生かした形で、SAPソリューションの移行・運用ベストプラクティスの検証・開発・展開を行う。SAPソリューションがどのデータベースを利用していてもAzure上に展開でき、ライセンス移管および保守サービスの継続提供も可能だという。東日本・西日本の2つのデータセンターリージョンおよびグローバル・ネットワークを持つAzureの特性を生かし、ディザスタ・リカバリをクラウドサービスとして提供することができる。また、Azure Site Recovery(ASR)を利用して、オンプレミスからクラウドへのディザスタ・リカバリ設計を、SAPソリューションのシステム構成に最適化してベストプラクティス化する。システム監視にはNTTデータのオープンソース監視ソフトウェアである「Hinemos」を採用するほか、インシデント管理には「SAP Solution Manager」を利用し、新たなソフトウェアを構築することなく運用プロセスの効率化を実現する。両社は今後、Azure上でのSAPソリューションの拡販に向けてバーチャル・チームを組織し、共同でターゲット顧客の選定と共同提案を行うとしている。日本マイクロソフトは、同バーチャル・チームを通じ、米マイクロソフトの開発部門が実施するSAP認証取得の中で得た技術情報を共有し、ユーザー企業への展開に際してトラブルを最小化した展開が可能となるよう技術情報の拡充も図っていくとしている。両社はすでに連携しており、不動産市場向けのクラウドサービスを提供するいい生活の基幹業務システムであるSAP ERPをMicrosoft Azureに移行した事例を公開している。
2016年01月27日暗号化はデータの損失や窃盗から保護するための最善策であり、サイバー攻撃や偶発的なデータ漏えいの最後の砦となるものだ。今回ソフォスは、6カ国、1700人のIT意思決定者を対象に調査を行い、その結果を「The State of Encryption Today(暗号化の現状)」としてまとめた。この調査によると、多くの企業が顧客のデータ保護は真剣に考えているものの、従業員のデータは同レベルで保護していないことがわかった。例えば、企業の31%が従業員の銀行口座情報を常時暗号化しておらず、43%が人事記録についても常時暗号化していなかった。また、ヘルスケア関連では比率が47%に上った。○暗号化の範囲が不明瞭な企業も従業員だけでなく、企業のデータもリスクにさらされている。30%の企業が自社の財務情報を暗号化しておらず、41%は重要な知財を含むファイルをきちんと暗号化していなかった。これは産業スパイのリスクを増加させることになる。また、暗号化の種類にはハードディスクをまるごと暗号化する「フルディスク暗号化」とファイル単位の暗号化があるが、これらの違いを正確に理解していない企業もあり、両方を利用している企業は36%だった。近年採用が進むクラウド・ソリューションだが、84%の企業がクラウドに保存しているデータの安全性に懸念を抱いていることがわかった。それでも80%がストレージ目的でクラウドを利用しており、そのうちクラウドにあるファイルをすべて暗号化していると回答した企業は39%にとどまった。では、なぜ企業の多くが全種類のデータを、格納場所に関係なく、暗号化を常時行えないのだろうか?企業に暗号化ソリューションを導入する際の障害を尋ねたところ、「予算」や「(実利用上の利便性といった)性能劣化の心配」「実装知識の欠如」が多く挙がった。ソフォスは「暗号化の実装はとても複雑で高価だという認識が多いものの、最新の暗号化ソリューションは簡単に実装できてコスト効果も高い」としている。
2016年01月26日NTTデータとスペインの子会社であるeveris(エヴェリス)グループは1月15日、Andalusian Health Service(アンダルシアンヘルスサービス)、Virgen del Rocio University Hospital in Seville(ヴァーゲン・デル・ロシオ大学セビリア病院)と集中治療室(ICU)向けの医療データ分析ソリューションの実証実験を開始すると発表した。実証実験はICU向け医療データ分析ソリューションの開発に向けた共同研究の一環として、1月27日~3月31日の期間で医師などの協力によりICUにおける有用性を評価する。同ソリューションは、均一かつ迅速な医療を目的に治療手順にのっとり、電子カルテやモニタリングデータなどの情報を一元化して提示することで医師のリアルタイムな意思決定をサポート。将来的には患者の症状推移の予測情報を提供することを目指しており、2017年にエヴェリスを軸にスペイン、ラテンアメリカにおいて同ソリューションを「ehCOS Smart ICU」として提供開始。その後、グローバルに展開しているNTTデータグループ会社を通じて、欧米諸国などへのサービスの提供を予定している。これまでNTTデータとエヴェリスは医師の意思決定の効率化や精度の改善を目的にICUで用いられている各種医療機器から得られる情報を1つのプラットフォームに集約し、患者の状態を示すデータとして一元化したうえで提示していたほか、これらのデータを分析することで症状推移の予測情報を提供するソリューションの開発を目指し、共同研究を行ってきた。今回、プロトタイプのシステムが完成したことから、実証実験を行い、実際の医療現場における声を反映させることで、2017年をめどに同ソリューションの完成を目指す。同ソリューションはICUの医師に対し、治療に関する注意喚起情報や症状推移の予測情報など患者の状態、治療状況に関する情報を一元的に提供することを目指しており、エヴェリスの電子カルテを中心とした病院向けソリューション「ehCOS」に、NTTデータ技術開発本部で開発を進めているビッグデータ分析ソリューションを組み合わせて開発。ビッグデータ分析ソリューションは、オープンソースを活用したものであり、大量のストリーミングデータに対するリアルタイムなデータ分析を可能とする。なお、実証実験はVirgen del Rocio University Hospital in Sevilleで実施し、プロトタイプシステムを用いて医師への治療手順伝達手法の検証やデータ収集プラットフォームの性能検証、患者の症状推移の予測技術開発などを進める。
2016年01月15日オプトは1月14日、Googleアナリティクスで取得できるデータと、オプトのアプリプロモーション支援プラットフォーム「Spin App」にて取得できるデータを活用し、iPhone・Androidアプリ解析サービスの提供を開始した。同サービスでは、ユーザー属性やアプリ内でのユーザー行動、ユーザー通知の開封数などアプリ独自の解析が可能。これにより、アプリを運営する企業は、ユーザーの傾向を把握・分析することができる。また、オプトでは、解析に必要な情報を的確に取得できるよう導入支援も行うため、導入企業はアプリ解析に関する一連のサービスを総合的に受けることが可能だ。
2016年01月15日情報通信研究機構(NICT)は1月14日、大量のデータを暗号化したまま複数のグループに分類できるビッグデータ向け解析技術を開発したと発表した。今回、データを暗号化した状態でロジスティック回帰分析を高速に行う手法を世界で初めて開発した。新技術はNICTが開発していた準同型暗号技術である「SPHERE(スフィア)」と機械学習の1つであるロジスティック回帰分析技術を組み合わせることで実現。新技術は暗号化した状態でデータを分類できるため、個人情報などの機微な情報を安全に効率よく分類することが可能になる。応用例の1つとして、新技術を用いて健康診断などのデータから病気の判定を行う際にデータ処理を行う第三者にデータの内容を開示することなく、プライバシーを保護できるようになると期待されている。また、大量のデータを暗号化したまま複数のグループに分類することを可能とし、高速化の要となる技術は関数の近似とデータ処理の分割の2点となる。最初にNICTはロジスティック回帰分析中に含まれる複雑な関数を単純な多項式で近似し、準同型暗号と組み合わせることで現実的な時間で動作する方式を考案。次にロジスティック回帰分析に含まれる計算をデータ加工処理と集計処理の2つの部分に分割し、データ加工をあらかじめデータ提供者側で行うことで高速化を進めた。これら2点の改良と同機構が開発したSPHEREを組み合わせることで、大量のデータを暗号化したままでロジスティック回帰分析を行うことが可能となり、シミュレーションではサーバ上で1億件のデータを30分以内で分析可能であることが確認できた。さらに、米UCI機械学習リポジトリ(カルフォルニア大学アーバイン校のWebサイトで公開されているデータベース)で公開されている実験用データを用い、新技術によりデータを暗号化したままロジスティック回帰分析を行った結果と、暗号化せずに分析した結果がほぼ一致することを確認した。新技術を用いることで、クラウドサーバなどを用いてデータの分類を行う際、データに含まれるプライバシー情報がサーバ管理者に漏えいすることを防ぐことができるという。
2016年01月14日Microsoftは1月12日(米国時間)、「Making R the Enterprise Standard for Cross-Platform Analytics, Both On-Premises and in the Cloud - Machine Learning - Site Home - TechNet Blogs」において、統計計算や予測分析などに利用できるビッグデータ解析プラットフォーム「Microsoft R Server」を公開したと伝えた。ほかのエンタープライズ向けプロダクトと同様のサポートサービスも提供されることになる。「Microsoft R Server」はこれまでは「Revolution R Enterprise」という製品としてRevolution Analyticsによって販売されていたプロダクト。Microsoftは1年ほど前にRevolution Analyticsの買収を発表。以後、プログラミング言語RおよびRevolution Analyticsの技術をMicrosoftの製品ラインにマージする開発に取り組み、今回の公開となった。提供されるエディションは以下のとおり。R Server for Red Hat Linux→64ビット版Red Hat Enterprise Linux (or CentOS) 5.x or 6.xで動作R Server for SUSE Linux→64ビットSUSE Linux Enterprise Server 11 SP2 or SP3で動作R Server for Hadoop on Red Hat→Cloudera CDH 5.0-5.4 on RHEL 6.x、Hortonworks HDP 2.0-2.3 on RHEL 6.x、MapR M3/5/7 3.x, 4.0-4.1 on RHEL 6.xで動作R Server for Teradata DB→Teradata Database 14.10, 15.00, 15.10 on SLES 10.x or 11.xで動作MicrosoftはMicrosoft R Serverを提供することでWindowsプラットフォームを統計データの計算や予測分析などのプラットフォームとして推進したい狙いがある。今回公開されたMicrosoft R ServerではRのバージョン3.2.2がサポートされているほか、Microsoftが他のエンタープライズ向けプロダクトに提供しているのと同じレベルのサポートサービスが提供されている。プログラミング言語Rはデータ分析や解析の分野で広く使われており、近年その注目度を増やしている。これまでRevolution Analyticsによって「Revolution R Open」と呼ばれてきたプロダクトは「Microsoft R Open」として提供されるほか、今後も継続してオープンソースのRプロジェクトをサポートするとの説明がある。
2016年01月14日