富士通は2月4日、同社のビッグデータの分析サービス「FUJITSU Intelligent Data Service データサービス「FUJITSU Intelligent Data Service データキュレーションサービス」(以下、データキュレーションサービス)において、新たな分析手法としてDeep Learningを適用し、同日より提供すると発表した。このサービスは、新ビジネスの創出や業務改革に向けて、自社で保有する画像や音声などのデータを有効活用したい顧客向けに、専門スキルを持つキュレーター(データサイエンティスト)がデータを分析し、Deep Learningを導入した場合の効果を検証するサービス。Deep Learningは、膨大なデータを機械(コンピュータ)が学習し人の判断や知識創造を助ける機械学習手法の1つ。顧客がこのサービスを活用することで、自社で分析を行うのに比べ初期投資を抑えながら短期間で検証することが可能になるという。Deep Learningを活用した「データキュレーションサービス」では、同社キュレーターが、顧客の画像・音声などのデータを預かり、目的に合わせた効果検証のフレームワークを適用。Deep Learningを用いて約2カ月でデータ分析モデルの作成と評価を行い、結果をレポートする。さらに、本サービスで作成したデータ分析モデルをビジネスに活用したい顧客には、分析モデルの提供や活用のためのコンサルティング、システム構築なども行っていくという。同社はこれまでの「データキュレーションサービス」で行っていた、機器のログや顧客・商品情報など発生した情報の分析による予測モデルの提供に加え、今回、画像や音声などのデータにDeep Learningを適用した学習・認識モデルを提供することで、ヒトの五感に対応したより精度の高いサービス開発や業務改革を支援していくという。なお同社は、コスメ・美容情報サイト「Hapicana(ハピカナ)」を運営するクーシーと連携し、新サービス開発に向けた共同プロジェクトを開始した。プロジェクトでは、顔画像データ5万点にDeep Learningを適用し顔を構成する各パーツの特徴を検出・学習することで、新たなレコメンドサービスの開発につなげていくという。
2016年02月04日IDC Japanは2月3日、国内ビッグデータソリューション市場動向の調査結果を発表した。同社は、ビッグデータ関連のテクノロジーは従来のBA(Business Analytics)のような単純なレポーティング/予測にとどまらず、リアルタイム処理を内包したアプリケーション基盤となることで、直接的に企業の収益に貢献することが期待されているが、ユーザー層の拡大という面で課題を抱えていると指摘している。その一方で、同社は業務/業種特化型のビッグデータソリューションが今後の国内ビッグデータテクノロジー/サービス市場の成長に重要な役割を果たすと見ている。国内は北米などのビッグデータ活用の先進地域に比べてビッグデータ活用やアプリケーション開発に対応した組織や人的資源を十分に持たない企業が多いため、ベンダーやSIerの提供するビッグデータソリューションの役割はきわめて重要であるという。同調査では、ユーザー企業にベンダー/SIerを挙げて、ビッグデータソリューションの提供者として強いイメージを持つ企業を聞いた。その結果、最も印象に残るベンダーとして、国内企業では富士通がトップの10.6%、NTTデータが2位で8.5%の回答を得。海外企業ではグーグルが9.3%、IBMが7.1%で続いている。同社は、富士通がトップとなった要因について、ミドルウェアやクラウドサービスも含めて独自の製品を持ち、ビッグデータイニシアティブとして包括的なソリューション体系をアピールしているためと分析している。
2016年02月04日NTTデータは2月1日、同社のデータセンターとアマゾンウェブサービス(AWS)やMicrosoft Azure(Azure)を専用線で直接接続する「マルチクラウド接続サービス」を同日より提供開始すると発表した。同社では、同社のデータセンターとAWSやAzureの間を専用線で接続し「マルチクラウド接続サービス」として同サービスを提供することで、安全性や信頼性を担保しつつ、複数のクラウドサービスや自社システムを連携させるハイブリッドクラウドやマルチクラウドを利用したいという企業のニーズに応えるとしている。同サービスでは、複数の異なるキャリア回線、ネットワーク機器を物理的に冗長化することにより、可用性の高いネットワーク環境を利用できるようになった。また、システムごとにAWSやAzureのアクセスポイントにおいて、ユーザー自身で回線の手配や追加ラック契約など追加設備の用意が不要なため、低価格でサービスを利用することが可能だ(最高速度1Gbpsまで対応)。同社は今後、顧客企業の事業パートナーとして、複数のクラウド基盤の最適化や運用管理を支援する新サービスの提供を計画中であり、順次発表していく計画。
2016年02月02日AOSデータは1月29日、マイナンバー定期検査ツール「マイナンバーファインダー」の提供を、2月24日より開始すると発表した。同製品は、フォレンジック調査(証拠調査)の技術を使って開発されており、PCの中に保存されているマイナンバーなどの個人情報を検出し、暗号化したり、不要なデータを消去するツール。同製品によって、PCの個人情報検査や、ドキュメントファイルを別の拡張子に変更して検出する「拡張子改ざん調査」が行えるようになっている。また、特定のドライブのみを選択して個人情報を検査したり、削除されたファイルの表示、不完全に削除されているファイルの完全削除なども可能となっている。さらに、PCセキュリティ検査によって、使用しているPCのセキュリティ上の問題を分析し、検査した項目のレポート作成も行えるという。同製品が検出する個人情報は、個人番号、法人番号、マイナンバーの記載された支払調書や源泉徴収票といった「特定個人情報」と、クレジットカード、携帯電話番号、電子メール、パスポート番号、運転免許証、電話番号、口座番号などの「個人情報」。検出対象となるファイルは、「.TXT、.CSV、.XML、.HTMLなどの25種類の文書ファイル」「.DBX、.PST、.EML、.MSG、.OFT、.NSFの6種類の電子メールファイル」「.ZIP、.RAR、.LZH、.GZ、.7Z、.TARの6種類の圧縮ファイル」「.MDB、.ACCDB、.DBFの3種類のデータベースファイル」。価格は、20ライセンス1年版が98,000円(税別)。
2016年02月01日●複雑化するデータをデジタルマーケティングにどう活用するか2015年のデジタルマーケティングをめぐる動きを振り返ると、ユーザーの行動履歴をはじめとするデータの利活用は当たり前になり、スマートデバイスの普及により時間や位置情報といったデータを活用したO2Oの展開も活発になってきた。一方、テクノロジーの分野ではIoT(Internet of Things:モノのインターネット)への注目が高まり、今年は一層技術の進化が期待できるところだ。こうした動きを踏まえ、2016年のデジタルマーケティングはどうなっていくのか。その展望について、デジタル・アドバタイジング・コンソーシアム株式会社(DAC)プロダクト開発本部広告技術研究室長の永松範之氏にお話を伺った。――2015年は、アドテクノロジーにおいて一層「データドリブン」の必要性が高まったのではないでしょうか。この動きは今後どうなっていくと感じていますか?永松氏:私たち広告技術研究室では「テクノロジー」、「メディア/コンテンツ」、課金や効果指標、取引手法といった「メソッド」、そして「データ活用」という4つの領域で研究を行っていますが、近年はそれぞれの領域が複雑に絡み合い、融合してきていると感じています。データの領域について、私たちが注目しているのはロケーションデータの活用です。これまでもロケーションデータはターゲティングの手段として使われてきましたが、それに加えてスマートフォンのGPS機能によってデータが収集しやすい環境が整い、またPOI(Point Of Interest)のデータが整備されてきたことによって、「どの位置にどのような関心を持ったユーザーがいるのか」ということが見えてくるようになりました。つまり、ユーザーのロケーションデータとPOIデータを組み合わせることで、より精度の高いプロファイリングができるようになったのです。さらに、オンラインの行動履歴とリアルな位置情報を組み合わせることで、より深いターゲティングもできるようになります。――アドテクノロジーの最大の関心は「どこに潜在顧客がいるのか」ということであり、それを探すための技術ということが求められています。ロケーションデータとPOIデータの組み合わせはその答えのひとつということでしょうか?永松氏:そうですね。今のアドテクノロジーではあくまでもオンラインにおける行動をベースとしたデータの活用が盛んに行われていますが、今後はこれにリアルなロケーションデータを加えることで、よりユーザーの興味関心に応えるアプローチが可能になるのではないでしょうか。PCとモバイルといったクロスデバイスの利用シーンで、複数のデバイスを横断するユーザーに対して広告配信を最適化させる仕組みも、今年は活用していきたいと考えています。――「潜在顧客を探す」という点では、CRM=既存顧客データの活用も昨年から注目されてきています。永松氏:アドテクノロジーとマーケティングテクノロジーの融合、つまり顧客データをはじめとする企業が保有するアセットとの融合もひとつの大きなテーマですね。私たちでも、いくつかの案件でデータの連携を開始したり、LINEビジネスコネクトを活用して間接的に企業のデータをマーケティングに活用したりといった動きが出てきました。いかにして企業の保有するデータをマーケティングに活用するかという点は、重要視されてきていると感じています。まずは企業が持っている顧客のデータを解析し、それを私たちのようなサードパーティが持つデータと融合させることで、企業の顧客と近い見込み顧客がどこにいるのかを発見することができるようになる。私たちもそういった価値を提供する仕組みを用意しているので、実際に企業に活用していただき、そのメリットを実感してもらいたいと思っています。●アドブロックは“話題先行”、しかし対応を考える必要はある―― 一方で、広告を配信する技術では新しいトピックスはありますか? 広告配信では前述のターゲティング技術はもちろん、効率やコストの最適化などが求められると思いますが。永松氏:取引の仕組みについては、プライベートマーケットプレイスのようなものが拡大するのではないかと思います。私たちでも、完全オープンな広告オークションでの取引に抵抗のある企業に対して、招待制で厳選された広告主、媒体社だけが参加することができる価値の高い広告在庫のマーケットプレイスを用意しています。加えて、配信技術については、昨年から注目されてきているアドブロックに対して技術的にどう対処していくかは、少しずつ出てきているところです。例えば、「アドステッチング」という従来のコンテンツ=コンテンツサーバー、広告=アドサーバーという区別を見直して、コンテンツと広告を一体化して同じサーバーから配信するといった考え方や、「ファーストパーティー・アドサーヴィング」といって媒体社もしくは広告主のドメインで広告を配信するといった考え方が生まれています。アドブロックについては日本では話題が先行しているものの、実際のところはまだまだこれからなので早急に対応する必要はありませんが、市場の動向次第では2016年の大きなテーマになる可能性はあるので、今後対応を考えていかなければならないと感じています。○テレビとネットの融合、技術的には連携させるロジックが確立へ――民放各局が参加する「TVer」に代表される見逃し配信の拡大や、オンライン動画を活用したコンテンツマーケティングの発展などを背景に、動画に対する注目も高まってきています。このような動きはデジタルマーケティング、中でもターゲティングや効果測定にどのような影響を与えるでしょうか?永松氏:ここ最近では、テレビ広告とオンライン広告を一緒に売るという動きは浸透してきていると感じています。ただ、データという点ではテレビとオンラインはまだ繋がりが弱い状態にあって、例えばテレビを観ていない視聴者にオンライン広告を見せたいといったニーズに対しては、まだ明確なロジックが生み出されているわけではありません。テレビ広告とオンライン広告の組み合わせで“リーチを拡げる”という効果を求めようとしても、まだその方法は確立していないのです。ただ、例えば一部のスマートテレビ(ネット接続が可能なテレビ)で可能となってきた視聴ログの収集が拡大すれば、ネットの視聴ログと組み合わせて広告に活用できるのではないかと考えています。まだ研究段階の技術も多いですが、これまでありそうでなかったテレビ視聴データのデジタル化は技術的にかなり現実的になってきました。これが実用化されれば、テレビとオンラインを連動させたターゲティングのロジックとそれによるリーチの拡大も現実味を帯びてくるのではないでしょうか。○データの利活用とプライバシーの課題は“表裏一体”――ネットに繋がるシーンが増え、ユーザーとの距離も近づくと、取得できるデータも豊富になる。そうなると、やはりデータとプライバシーの問題は避けて通れないと思います。「広告はユーザーデータをどこまで収集・活用するか」という論点はまだまだ議論の余地があるのではないでしょうか?永松氏:そうですね。ユーザーにどのような配慮をしてデータを収集・活用するかという点は、改正個人情報保護法の動きなどを踏まえながら当社でも厳しくチェックをしているところです。データを取得するという場面においても、オプトアウトの選択権をユーザーに提供しています。また、当社がデータを取り扱う際も、いくら匿名データであっても細分化された様々なデータを積み上げていくと個人の特定性が高まってしまうので、常にユーザーがある複数のセグメントで固められた母集団で構成されるよう分析ロジックを工夫しているところです。この問題は、ユーザーの近いところに迫れるようになったからこそ、真剣に考えなければなりません。私たちにとって「データ」は大きな研究テーマですが、それと同じくらい「プライバシー」も重要なテーマだと位置づけており、社内では専門チームをつくり、社外では各業界団体と連携して考えているところです。●実態を伴う効果指標によってメディアと広告の新たなエコシステムを――広告手法の高度化、タッチポイントの多様化によって、広告の指標やビジネスモデルも大きく変化していくと思います。広告のビジネスモデルで今後どのような動きがあるでしょうか?永松氏:パフォーマンスを目的とした広告については、最適化のロジックや運用方法の進化はあるものの、あまり大きな動きはないと思います。一方で、ブランディング広告については大きな変化があるのではないかと思います。例えば、最近増えている動画広告については従来のような“1インプレッション”では効果を評価できない場合が出てくる。オンラインの動画広告はテレビのように15秒や30秒といった固定値とも限らない。そこで、視聴時間に応じた課金モデルである「CPH(Cost per Hour)」など新しい効果測定の手法について検討が進んでいくのではないでしょうか。――確かに、ログデータとして記録されるインプレッション数や再生回数が実態(ネット視聴者の広告接触・視聴)を伴っているかどうかについては、疑問の声が挙がっていましたね。永松氏:よりネット視聴者の利用実態に合わせた効果測定・課金のモデルの最適化が考えられていくのではないかと思います。例えば昨年は海外で、ブラウザ下部のユーザーが見えない場所に表示された広告を1インプレッションとカウントしていることへの課題意識から、バナーが視認できる場所に表示され、実際にネット視聴者がバナーを見た回数を1インプレッションとみなす「ビューアビリティ」という言葉が出てきていて、この考え方で課金する「vCPM(v=viewability)」というモデルも生まれています。これは日本でも現在検討が進んでいて、より現実に即した課金モデルが普及していくのではないでしょうか。――vCPMはとても良い発想だと思いますが、広告収益に依存しているパブリッシャーにとっては少し辛いところですね。永松氏:そこが大きな課題だと思います。アメリカではvCPMでなければ広告を買わないという広告主も多くなってきていて、GoogleやFacebookといった大手メディアも対応を始めています。他のメディアも追随せざるを得ない状況が生まれつつあります。日本ではまだそこまでではありませんが、もし同じような状況が生まれた際には、広告単価をしっかり向上させなければ広告メディアにとってのメリットがなくなってしまいます。その点には十分に注意を払っていく必要があると思います。――CPCにしても、CPMにしても、単価は右肩下がりの傾向が続いている。それはブランドの認知やトランザクションといった広告主のKGIに対して十分な費用対効果を提供できていなかったからだとも言える。それに対して、vCPMによって費用対効果を向上することができれば、広告単価は向上するのが自然だと言えますよね。永松氏:そのようなスキームに落とし込んでインターネット広告のエコシステムを活性化していくことが広告会社に課せられた使命なのではないかと思います。○新しい技術、アドテクノロジーにどう取り込むか―― 昨年はウェアラブルデバイスに対する注目が高まった年でした。デジタルマーケティングはこの動きに追随していくのでしょうか。永松氏:いくつかアドテクノロジーとして検討する方向性があるのではないかと思います。ひとつは、広告を表示するメディアとしての可能性。ただこれは、表示面の大きさが多種多様などの点から、ハードルはかなり高いのではないかと思います。一方で、広告配信のベースとなるユーザーの状態や興味関心といったデータを取得する手段として活用するという考えもあり、まずはここからウェアラブルデバイスやIoTの活用が進むのではないかと思います。――また、テクノロジーの世界ではIoTやAI(人工知能)の動きが加速しています。デジタルマーケティングはこうした技術をどのように取り込んでいくのでしょうか?永松氏:人工知能(特に機械学習やディープラーニング、認識技術等)をどうマーケティングのテクノロジーに取り込んでいくかという点は、既にターゲティングといった広告配信で活用しているものもありますが、さらに研究を進めていくところです。考えられる活動領域としては、レコメンドやターゲティング、予算配分、クリエイティブの最適化、効果検証といった分野ですが、それぞれでどのような活用が可能かを試行錯誤しています。○ネット広告とユーザーが、良い関係を築くために――AIなどは、収集したデータを基に広告をアウトプットする場面で活用できるのではないかとも思います。例えば、ユーザーはネット広告を“邪魔な存在”だと思っている場合が多い。こうした課題に対して、機械学習や人工知能の活用はネット広告とユーザーとの間に良い関係を築くためのヒントを生み出すのではないでしょうか?永松氏:それは大いにあると思います。今までは、広告会社はあまりユーザー目線でネット広告を考える立場ではなかったとも言えます。しかし、データとプライバシーの問題を例にとっても、今後はそのような立場では難しい時代になってくるのではないかと思います。広告会社・広告主とユーザーの距離がどんどん近くなってきている中で、広告とユーザーが発展的に良い関係を築くことができるような方法論を考えていくことは、非常に重要だと思います。広告会社はユーザーに対してもオープンでいなければ、立場が難しくなっていく時代になるのではないでしょうか。――ネット広告そのものに対してユーザーからの支持・信頼を得られなければ、業界全体が高まっていかないですよね。永松氏:そうですね。スマートフォンが普及したことによって、ユーザーとネットの距離がさらに縮まり、その課題はより顕在化したのではないかと思います。これまでと違って、ネットでは本当に様々な広告手法が生み出されています。様々なネット上のサービスをみても、ユーザーの支持・信頼を得ているものが継続的な成長をしていき勝者となっています。ネット広告とユーザーの間に良い関係を築くためには、考えていかなければならない重要な課題です。
2016年02月01日データビークルは1月29日、電通、アプレッソ、takram design engineeringと共同開発したデータサイエンス専用変換ツール「Data Ferry」(データフェリー)を5月9日より発売すると発表した。初めに、代表取締役 CEOを務める油野達也氏が新製品を開発した経緯を説明した。油野氏によると、データ分析がうまくいかない原因はデータの切り分け方にあり、データ切り分けにおける課題を解決する製品として、同社が昨年7月に発表したのがデータ分析ソフト「Data Diver」だ。「データ分析は、収集・分析・行動といったステップを踏む。データの切り分けがよくないパターンは2つあり、1つはIT部門が収集と分析を行い、現場が行動を行っているパターン、もう1つはIT部門が収集を行い、分析を外部のデータサイエンティストが行い、現場が行動を行っているパターン。前者の場合、現場がどのように行動するべきかわからなくなっており、後者の場合、データサイエンティストはお金と時間がかかる割には、業務についてわかっていないという問題が生じている」そこで、「Data Diver」はプログラミングの知識がなくても高度な統計技術を利用できるようにすることで、現場が分析まで踏み込めるようにした。ただし、「Data Diver」を展開する中で、「データ連携ソフトが高い」「データをタイミングよく入手できない」といったデータ連携やデータ整備における課題が見えてきたという。こうした課題を解決するため開発されたのが「Data Ferry」だ。油野氏には、データ分析を行うデータサイエンティストには専用機が必要であると考え、「素性のよいエンジン」を探していたところ、アプレッソに行き着いたと語った。「『高度な改善要求に耐えられる製品を持っていること』『共に戦えるエンジニアがいること』『海外で実績を持つファクトリー体制があること』という要素がそろっているエンジンを探していたが、正にアプレッソがそうだった」(油野氏)「Data Ferry」にエンジンを提供するアプレッソの代表取締役社長を務める小野和俊氏も説明会に登壇した。小野氏は代表取締役社長という立場ながら、根っからの"技術者"ということで、今でもアプレッソの製品のエンジニアリングに関わっているという。小野氏は、油野氏が挙げた「素性のよいエンジン」の条件を引き合いに出し、同社の技術力の高さをアピールした。「これまで、各所からコンサルティングも提供してはどうかとの声もいただいてきたが、一貫してプロダクトの開発に注力してきた。また、ビッグデータの分析に対するニーズの高まりなどを踏まえ、大量のデータを高速処理できる機構も独自で開発しているほか、Javaエンジニアも多数そろっており、技術力には自信がある。また、エンジニアについても、新規の戦略アライアンスなどに対応できる開発体制を構築しており、開発生産性を最大化するための環境への投資も積極的に行っている。製品のグローバルかも着実に進めており、販売に加え、シンガポールに開発拠点を設けたり、英語・中国語でサポートを提供したりするなど、力を入れている」「Data Ferry」の機能については、製品企画担当の藤田大地氏が説明を行った。藤田氏は、「Data Ferry」のコンセプトについて、「分析に特化したツールであり、基本となるEAIは安定した国産エンジンを搭載している。ターゲットはIT部門以外としているため、設定はすべて自然言語で行える思い通りに、ユーザー自身がデータを加工できるような仕組みを用意している」と語った。「Data Ferry」の技術面におけるキモは専用ストレージ「Analytical Source Lake」だ。各種データソースを統一されたデータセットに変換し、分析可能な形で醸成・蓄積することができる。Analytical Source Lakeに蓄積されたデータについて集計、テーブル統合、サンプリング、クレンジングが行われる。加えて、藤田氏は「Data Ferry」の特徴として「完全なプログラムレス」「データベース内蔵」「分析に関する処理をすべて自動化」「オンプレミスとクラウドを双方向で接続」「データのマスキングによるセキュリティ対策」を挙げた。「Data Ferry」はクラウドサービスとして提供され、利用料は月額40万円から(1ユーザーID、初期データ容量は1TBまで)。オンプレミスの販売については、国内のSIベンダーと協業を進めているところだという。
2016年01月29日アシストは1月28日、データウェアハウス最適化のための中核ソリューションとして、データクレンジングに必要なソフトウェアとハードウェアをパッケージとして提供する「ビッグデータ・クレンジングパッケージ」を提供開始した。「ビッグデータ・クレンジングパッケージ」は、分析用データを蓄積する基盤として活用が広がっている「MapR Enterprise Edition(M5)」、IAサーバ「HP ProLiant DLシリーズ」、ETLツール「SyncsortDMX-h」、各種技術支援サービスを組み合わせて提供するもの。同パッケージは、データベースのライセンスコストおよびストレージコスト、データ収集や加工といったデータクレンジングに要するコストを低減する。同社は、同パッケージの提供開始に合わせ、1月21日より「MapR版Syncsort DMX-h Sandbox(トライアルキット)」のダウンロード提供を開始している。これは、「Syncsort DMX-h」と「MapR」を同梱したVMWarePlayer用仮想マシン。自社にHadoop環境がなくても、Hadoop上でビッグデータをクレンジングするためのETL処理の開発と実行が体験できる、トライアルキットに含まれるサンプルのデータとアプリケーションで、売上集計、差分抽出、Webログ集計、文字列カウントの4つのジョブをチュートリアルに沿って実行することも可能。
2016年01月29日インフォテリアは1月28日、トレジャーデータが提供するクラウド型のデータマネジメントサービス「トレジャーデータサービス」とのデータ連携に、インフォテリアのEAI/ESB製品であるASTERIAシリーズの「ASTERIAWARP(アステリアワープ)」が対応し、双方で検証が完了したことを発表した。トレジャーデータサービスは、各種データベースやファイルシステムからデータを抽出する機能とクラウド上に保存する機能を備える。最近ではIoT(Internet of Things)の利活用を検討している企業が増加し、大量のデータをクラウドで集計・管理を行うトレジャーデータサービスへの注目も高まっている。しかし、多くの国内企業では既存システムや、さまざまなクラウドサービス、インターネット上のデータを分析の対象とする要望が数多く存在しているという。一方、ASTERIAWARPは異なるコンピューターシステムのデータをノンプログラミングで連携できるミドルウェア。メインフレームやクラウド上のサーバーから表計算ソフトまで、さまざまなシステム間の接続とデータの変換を行うロジックを複雑なプログラミングなしで行い、既存システムから最新のサービスまで連携することができる。今回の連携によるメリットは、トレジャーデータサービスで各種データベースやファイルシステムから抽出したデータに対して、ASTERIAWARPが既存システム、クラウドサービスなどのデータを統合し、送付することでデータの見える化を推進するものだという。また、データの集計結果を帳票とする際にもASTERIA WARPを利用してExcelの帳票とすることが可能なためきめ細やかな帳票出力に対応し、互いのメリットを活かせる協力関係を築くことができるという。インフォテリアでは今後もASTERIAWARPの多様なデータソースとの連携機能を駆使し、最新のクラウド環境に対応するなど社内業務のクラウド化による利便性を引き出せるITソリューションを構築していく方針だ。
2016年01月29日矢野経済研究所が1月27日に発表した「小売業のビッグデータ活用に関する調査結果2015」によると、国内の大手小売業者が今後データ利用したいと考えている業務領域では、既存客の来店頻度向上が最多であり、以下、マーチャンダイジング(商品政策)、客単価の向上の順だったという。同調査は同社が2015年11月~12月にかけて、日本国内の売上高上位の小売業者(百貨店・スーパーマーケット・専門店・生協など)を対象として電話によるヒアリングにより実施したものであり、有効回答数は173社。それによると、今後データ利用をしたい業務領域は、上位から、既存客の来店頻度向上が61.8%、マーチャンダイジング(商品政策)が53.2%、客単価の向上が50.3%の順だったという。一方、O2O(Online to Offline)は11.0%、オムニチャネルの実現は15.6%と、将来的なデータ活用の課題についての回答率は低かった。小売業がデータ利用したい業務領域としては、将来よりも日々の課題、中でも集客に対する強いニーズがあるという結果になったと同社は分析する。今後のビッグデータ活用への取り組みを尋ねると、「積極的に取り組んでいる」と回答した企業は6.9%であり、取り組みは遅れているのが実情だ。また、「未だ取り組んではいないが、今後の重要な課題である」と捉えている企業も20.2%に留まっている。逆に、「課題ではあるが優先度は低い」という企業が42.8%であり、「取り組む予定は無し」の28.9%と合わせると、全体の7割以上が現状ではビッグデータの活用にさほど積極的ではないと同社は見ている。業態別に見ると、ビッグデータの活用に最も積極的に取り組んでいるのは生協であり、2 割弱の企業が「積極的に取り組んでいる」と回答しており、「今後の重要課題である」という認識も3割近くに達した。一方で「取り組む予定は無し」が1割を下回っており、他の業態と比較すると、相対的に関心が高いと同社は見る。生協は組合員の情報を正確にストックしていると考えられ、他の業態と比較して、顧客の顔が見えていることが分析のニーズを高めている可能性があると同社は考えている。百貨店については、「今後の重要課題である」という回答比率が29.2%と全業態の中で最も高いものの、「課題ではあるが優先度は低い」という企業の比率も50.0%と最も割合が高い。最もネガティブな意見が多いのはスーパーマーケットであり、取扱品目が近い生協と比較すると、その差が極めて大きいと同社は指摘する。小売業者におけるビッグデータへの取り組みは遅れている状況であり、「積極的に取り組んでいる」と回答した企業においても、一般的にビッグデータと言われるような非構造化データよりも、従来から社内に多数ストックしているPOSデータや顧客関連データなどを積極的に利用しようとする取り組みが、現状においてはビッグデータ分析の中心になっていると同社は見る。小売業でのITによるデータ利用については、まだまだこれからの発展の余地が大きいと、同社は推測している。
2016年01月28日NTTデータグローバルソリューションズ(NTTデータGSL)と日本マイクロソフトは1月26日、Microsoft Azureをクラウド基盤として利用したSAPソリューション・マイグレーション・サービスで協業すると発表した。NTTデータGSLは、Microsoft Azureの特性を生かした形で、SAPソリューションの移行・運用ベストプラクティスの検証・開発・展開を行う。SAPソリューションがどのデータベースを利用していてもAzure上に展開でき、ライセンス移管および保守サービスの継続提供も可能だという。東日本・西日本の2つのデータセンターリージョンおよびグローバル・ネットワークを持つAzureの特性を生かし、ディザスタ・リカバリをクラウドサービスとして提供することができる。また、Azure Site Recovery(ASR)を利用して、オンプレミスからクラウドへのディザスタ・リカバリ設計を、SAPソリューションのシステム構成に最適化してベストプラクティス化する。システム監視にはNTTデータのオープンソース監視ソフトウェアである「Hinemos」を採用するほか、インシデント管理には「SAP Solution Manager」を利用し、新たなソフトウェアを構築することなく運用プロセスの効率化を実現する。両社は今後、Azure上でのSAPソリューションの拡販に向けてバーチャル・チームを組織し、共同でターゲット顧客の選定と共同提案を行うとしている。日本マイクロソフトは、同バーチャル・チームを通じ、米マイクロソフトの開発部門が実施するSAP認証取得の中で得た技術情報を共有し、ユーザー企業への展開に際してトラブルを最小化した展開が可能となるよう技術情報の拡充も図っていくとしている。両社はすでに連携しており、不動産市場向けのクラウドサービスを提供するいい生活の基幹業務システムであるSAP ERPをMicrosoft Azureに移行した事例を公開している。
2016年01月27日暗号化はデータの損失や窃盗から保護するための最善策であり、サイバー攻撃や偶発的なデータ漏えいの最後の砦となるものだ。今回ソフォスは、6カ国、1700人のIT意思決定者を対象に調査を行い、その結果を「The State of Encryption Today(暗号化の現状)」としてまとめた。この調査によると、多くの企業が顧客のデータ保護は真剣に考えているものの、従業員のデータは同レベルで保護していないことがわかった。例えば、企業の31%が従業員の銀行口座情報を常時暗号化しておらず、43%が人事記録についても常時暗号化していなかった。また、ヘルスケア関連では比率が47%に上った。○暗号化の範囲が不明瞭な企業も従業員だけでなく、企業のデータもリスクにさらされている。30%の企業が自社の財務情報を暗号化しておらず、41%は重要な知財を含むファイルをきちんと暗号化していなかった。これは産業スパイのリスクを増加させることになる。また、暗号化の種類にはハードディスクをまるごと暗号化する「フルディスク暗号化」とファイル単位の暗号化があるが、これらの違いを正確に理解していない企業もあり、両方を利用している企業は36%だった。近年採用が進むクラウド・ソリューションだが、84%の企業がクラウドに保存しているデータの安全性に懸念を抱いていることがわかった。それでも80%がストレージ目的でクラウドを利用しており、そのうちクラウドにあるファイルをすべて暗号化していると回答した企業は39%にとどまった。では、なぜ企業の多くが全種類のデータを、格納場所に関係なく、暗号化を常時行えないのだろうか?企業に暗号化ソリューションを導入する際の障害を尋ねたところ、「予算」や「(実利用上の利便性といった)性能劣化の心配」「実装知識の欠如」が多く挙がった。ソフォスは「暗号化の実装はとても複雑で高価だという認識が多いものの、最新の暗号化ソリューションは簡単に実装できてコスト効果も高い」としている。
2016年01月26日NTTデータとスペインの子会社であるeveris(エヴェリス)グループは1月15日、Andalusian Health Service(アンダルシアンヘルスサービス)、Virgen del Rocio University Hospital in Seville(ヴァーゲン・デル・ロシオ大学セビリア病院)と集中治療室(ICU)向けの医療データ分析ソリューションの実証実験を開始すると発表した。実証実験はICU向け医療データ分析ソリューションの開発に向けた共同研究の一環として、1月27日~3月31日の期間で医師などの協力によりICUにおける有用性を評価する。同ソリューションは、均一かつ迅速な医療を目的に治療手順にのっとり、電子カルテやモニタリングデータなどの情報を一元化して提示することで医師のリアルタイムな意思決定をサポート。将来的には患者の症状推移の予測情報を提供することを目指しており、2017年にエヴェリスを軸にスペイン、ラテンアメリカにおいて同ソリューションを「ehCOS Smart ICU」として提供開始。その後、グローバルに展開しているNTTデータグループ会社を通じて、欧米諸国などへのサービスの提供を予定している。これまでNTTデータとエヴェリスは医師の意思決定の効率化や精度の改善を目的にICUで用いられている各種医療機器から得られる情報を1つのプラットフォームに集約し、患者の状態を示すデータとして一元化したうえで提示していたほか、これらのデータを分析することで症状推移の予測情報を提供するソリューションの開発を目指し、共同研究を行ってきた。今回、プロトタイプのシステムが完成したことから、実証実験を行い、実際の医療現場における声を反映させることで、2017年をめどに同ソリューションの完成を目指す。同ソリューションはICUの医師に対し、治療に関する注意喚起情報や症状推移の予測情報など患者の状態、治療状況に関する情報を一元的に提供することを目指しており、エヴェリスの電子カルテを中心とした病院向けソリューション「ehCOS」に、NTTデータ技術開発本部で開発を進めているビッグデータ分析ソリューションを組み合わせて開発。ビッグデータ分析ソリューションは、オープンソースを活用したものであり、大量のストリーミングデータに対するリアルタイムなデータ分析を可能とする。なお、実証実験はVirgen del Rocio University Hospital in Sevilleで実施し、プロトタイプシステムを用いて医師への治療手順伝達手法の検証やデータ収集プラットフォームの性能検証、患者の症状推移の予測技術開発などを進める。
2016年01月15日オプトは1月14日、Googleアナリティクスで取得できるデータと、オプトのアプリプロモーション支援プラットフォーム「Spin App」にて取得できるデータを活用し、iPhone・Androidアプリ解析サービスの提供を開始した。同サービスでは、ユーザー属性やアプリ内でのユーザー行動、ユーザー通知の開封数などアプリ独自の解析が可能。これにより、アプリを運営する企業は、ユーザーの傾向を把握・分析することができる。また、オプトでは、解析に必要な情報を的確に取得できるよう導入支援も行うため、導入企業はアプリ解析に関する一連のサービスを総合的に受けることが可能だ。
2016年01月15日情報通信研究機構(NICT)は1月14日、大量のデータを暗号化したまま複数のグループに分類できるビッグデータ向け解析技術を開発したと発表した。今回、データを暗号化した状態でロジスティック回帰分析を高速に行う手法を世界で初めて開発した。新技術はNICTが開発していた準同型暗号技術である「SPHERE(スフィア)」と機械学習の1つであるロジスティック回帰分析技術を組み合わせることで実現。新技術は暗号化した状態でデータを分類できるため、個人情報などの機微な情報を安全に効率よく分類することが可能になる。応用例の1つとして、新技術を用いて健康診断などのデータから病気の判定を行う際にデータ処理を行う第三者にデータの内容を開示することなく、プライバシーを保護できるようになると期待されている。また、大量のデータを暗号化したまま複数のグループに分類することを可能とし、高速化の要となる技術は関数の近似とデータ処理の分割の2点となる。最初にNICTはロジスティック回帰分析中に含まれる複雑な関数を単純な多項式で近似し、準同型暗号と組み合わせることで現実的な時間で動作する方式を考案。次にロジスティック回帰分析に含まれる計算をデータ加工処理と集計処理の2つの部分に分割し、データ加工をあらかじめデータ提供者側で行うことで高速化を進めた。これら2点の改良と同機構が開発したSPHEREを組み合わせることで、大量のデータを暗号化したままでロジスティック回帰分析を行うことが可能となり、シミュレーションではサーバ上で1億件のデータを30分以内で分析可能であることが確認できた。さらに、米UCI機械学習リポジトリ(カルフォルニア大学アーバイン校のWebサイトで公開されているデータベース)で公開されている実験用データを用い、新技術によりデータを暗号化したままロジスティック回帰分析を行った結果と、暗号化せずに分析した結果がほぼ一致することを確認した。新技術を用いることで、クラウドサーバなどを用いてデータの分類を行う際、データに含まれるプライバシー情報がサーバ管理者に漏えいすることを防ぐことができるという。
2016年01月14日IDC Japanは1月6日、国内のデータセンター(DC)の保守運用コストに関する調査結果を発表した。この調査では、データセンターの規模や設備仕様の違いが、保守運用コストにどのような影響を与えているのかを分析している。調査対象としたコストの範囲は、データセンター設備の保守や運用管理にかかる人件費、データセンター内に設置するIT機器監視のための人件費、およびデータセンターで使用する電気代。IT機器上で稼働するソフトウェアの運用人件費や土地、建物の賃料/管理費は含まれていない。また、分析はコスト総額の比較ではなく、サーバラック1台あたりのコストの比較によって分析を行っている。今回の調査結果によると、データセンターが大きくなるほど、サーバラックあたりの保守運用コストは減少することが判明した。これはデータセンターの規模が大きいほど、大量のIT機器、空調設備、非常用電源設備などの運用を集中して行うことができるようになるためという。現在、国内において大規模なデータセンターが次々と新設され、小規模なセンターが統廃合されているのは、こうした理由によるものとしている。しかし、ある一定の規模よりもデータセンターが大きくなると、スケールメリットによるコスト削減効果は次第に小さくなることも判明した。具体的には、サーバラックの収容可能台数ベースで1,000台を超えるような規模に達すると、規模をさらに大きくしてもサーバラックあたりの保守運用コストの削減効果は限定的になる。こうした大規模なデータセンターにおいては、運用効率を改善するため、さらなるスケールメリットを追求することはあまり意味がない、ということになるという。国内データセンターサービス市場は競争が激しくなっており、データセンター事業者間での事業統合や買収なども目立つ。2015年12月にはエクイニクスがビットアイルの買収を完了したほか、電力コスト値上がりの懸念、建設コストの高止まりなどの要因により、データセンター投資は次第に投資効果を厳しく問われるようになっている。結果として、データセンター事業者が生き残るためには大規模データセンターにおける運用効率の改善の取り組みが必須になっているという。IDC Japan ITサービスリサーチマネージャーの伊藤未明氏は「大規模データセンターにおいて保守運用コストを削減するためには、電力コストの圧縮が重要である。電力管理システムの整備、電気設備や空調設備の省エネ運転システムの導入などが進むだろう」と指摘している。
2016年01月06日NTTデータとSassorは、エネルギーマネジメントサービス分野で協業することで合意したと発表した。同協業では、NTTデータが提供する電力事業者向けアプリケーションプラットフォーム「ECONO-CREA」とSassorのIoTアプリケーションおよびサービスを連携させ、エネルギーマネジメントサービスを提供することを目的としている。「ECONO-CREA」は、電力データや分電盤データなどのIoTデータのみならず、仕様の異なるさまざまなデータを一元的に収集・保管・マイニングを行い、サービスプロバイダーにAPIを提供するプラットフォームとなる。今回の協業の第一弾では、2016年1月より、Sassorの「Energy Literacy Platform(ELP)」を、ECONO-CREAのアプリケーションに追加し、提供する予定となっている。今回の協業における各社の役割として、NTTデータでは、ECONO-CREAのアプリケーションプラットフォームを提供し、データの収集・保管・マイニングおよびAPIをサービスプロバイダーとなるSassorに提供し、Sassorは、ECONO-CREAを活用してELPサービスを電力需要家や企業などのユーザーに提供する。なお、協業後は、両社の分析ノウハウを組み合わせて、需要家の使用電力に関するデータ分析サービスを提供する予定だという。
2015年12月21日データ・アプリケーション(DAL)は、異なるシステム間のデータ連携・移行を簡単なマッピングだけでノンプログラミングで実現できるデータハンドリングプラットフォーム「RACCOON」の最新版となる「RACCOON V.1.4」を、2015年12月21日より発売すると発表した。最新版では、Excelデータを入出力する際のデータ位置指定方法が増えたほか、データ量に応じた罫線の位置が変更できるようになるなど、さまざまなデータ操作機能が追加・拡張されており、これによりツールの機能に制約されず、ユーザの設計したExcelデータを簡単に生成・変換することが可能となった。また、各種文字コードの代表的な拡張漢字とUnicodeとの対応表を同梱。これにより、拡張漢字の外字定義作成にかかる工数の削減が可能となった。さらに、新たにIBM DB2 for iのデータベースへの接続を可能とし、動作環境の適用範囲も向上させたという。価格は、従来版と同じStandard Editionが300万円(税別)で、タームライセンスは、月額125,000円(同)で、最低利用期間は3カ月となっている。また、Developer Edition(商用利用不可)は200万円(同)となっている。なお、2016年3月末まで、トライアルキャンペーンとして、Standard Editionをキャンペーン価格200万円(同)で提供するという。
2015年12月18日弥生は12月14日、「弥生給与 16」「やよいの給与計算 16」をNTTデータのマイナンバーの収集・保管サービス「データ管理の達人」と連携することを発表した。またあわせて、クラウドストレージ「弥生ドライブ」の安全管理措置への対応など、スモールビジネスのマイナンバー収集・保管のサポートを強化する。「データ管理の達人」は、マイナンバーなどのマスターデータを一元的に登録・編集する機能を持つソフトウェア。「弥生給与 16」「やよい給与計算 16」と連携することで、マイナンバーの収集・保管・利用・提供・廃棄までをセキュアな環境で実現することができるようになる。「データ管理の達人」のサービス提供開始時期は2016年1月4日予定で、弥生製品との連携開始は2016年4月予定となっている。価格(税別)は、4万9800円/年(Professional Edition ダウンロード版)。
2015年12月14日NTTデータ・グローバル・テクノロジー・サービス・ジャパン(NTTデータGTSJ)は12月1日、NTT DATA Thaiと連携し、Microsoft Dynamics AXが標準対応として備えるローカライゼーション機能に加え、独自の帳票類を取りそろえた「アジア向けローカライゼーションパック」を同日より提供開始することを発表した。同社では、日本企業の海外進出に伴い、グローバル展開可能なERPとしてMicrosoft Dynamics AXの導入機会が増加していることを受け、アジア各国への導入にあたって、カスタマイズが必要となる機会が多いローカル税制要件/帳票類において、あらかじめこれらをパックとして提供することで、要件定義工程を容易化し、全体のプロジェクト工数を削減することができるとしている。また、独自の短期導入方法論とセットにすることで、プロジェクト開始から4カ月でシステムの稼働を開始することも可能となっている。NTTデータGTSJでは、アジア各国向けのローカライズを取りまとめ、まずはインド、タイ、インドネシアの3カ国から同ソリューションを提供する。
2015年12月03日NTTデータとPivotalジャパンは12月2日、アジャイル開発ソリューションの提供について協業することで合意したと発表した。両社は、すでにNTTデータのアジャイル開発基盤とPivotalのオープンクラウド基盤「「Pivotal Cloud Foundry」を統合する取り組みを進め、その開発が完了した。新ソリューションは「ビジネス仮説の検証を支援する機能」「迅速なシステムの開発を支援する機能」「柔軟なシステム運用を支援する機能」を提供する。検証支援機能においては、NTTデータのユーザー行動分析ツール群を、顧客のシステムへ組み込むことを可能にする。例えば、A/Bテストツールを組み込むことで、システムのユーザーに対してランダムに異なるデザインの画面を表示し、デザインごとのアクセス数の変化を計測することが実現する。開発支援機能においては、NTTデータのシステム開発・管理支援ツール群およびPCFに搭載される各種ミドルウエア・フレームワークを利用可能な環境を即時に提供する。運用支援機能においては、「Pivotal Cloud Foundry」が提供する高度なクラウド基盤の管理機能が提供される。例えば、システム負荷に応じたシステムを構成するサーバ数の自動増減や、一部のユーザーにのみ新機能を搭載したシステムを開放するようなシステム構成を実現できる。同ソリューションは2016年2月より提供が開始される予定。両社は提供に向けて、導入コンサルティングや開発、運用・保守などのサービスメニュー整備を行う。
2015年12月03日慶應義塾大学SFC研究所データビジネス創造・ラボ(慶應SFC研究所)と日本マイクロソフトは11月26日、「第4回 データビジネス創造コンテスト ~データと想像力で子育てに笑顔を!Dig Parenting Insight(データビジネス創造コンテスト)」を開催すると発表した。両社は、「データサイエンティスト」の育成を目的としてコンテストの開催を行う。これにより、2020年に25万人不足するといわれているビッグデータを活用した分析、ビジネスイノベーションの創出、情報戦略を実働できる新たなIT人材の育成を進めていく。データビジネス創造コンテストでは、さまざまなオープンデータと、マイクロソフトが提供するMicrosoft Azure、Power BI(Excel)などの分析に必要なIT環境を活用し、全国の高校生から大学院生たちが、政府の少子化対策として挙げている5つの重点課題(1.子育て支援施策を一層充実、2.若い年齢での結婚・出産の希望の実現、3.多子世帯へ一層の配慮、4.男女の働き方改革、5.地域の実情に即した取り組み強化)を解決するデータ分析力とビジネスアイデアを競う。参加チームは、「データと創造力で、子育てに笑顔を!」をテーマに、自ら情報収集・分析し、少子化問題への理解を深めるとともに、データ分析から導きだされるビジネスアイデアの提案を行う。募集期間は、2015年11月26日~2016年2月12日で、最終選考・表彰式は、2016年3月26日。データビジネス創造コンテストの期間中、第1回~第3回までのコンテストの実績をもとに、新たに統計の知識がないことを前提とした応募学生向けのデータ活用オンライン・オフラインセミナーを実施するほか、応募者専用のデータコンシェルジェを設置し、期間中のデータの活用方法やツールの使い方をサポートする。ほかにも、子育てに関するエキスパートからの勉強会とアドバイスを行っていく。
2015年11月27日Lookoutは11月23日、IT責任者の3/4がデータ漏えいの被害経験があると回答したという調査結果を同社ブログで公開した。ニュースで報じられる大企業のデータ漏えい事件からもわかるように、脅威ベクターの発生源は必ずしも同じではなく、Sonyの場合はPC経由で、Targetの場合はPOSシステムから、J.P モルガンは(おそらく)保護されていないサーバーインフラ経由、IRSは「ゲット・トランスクリプト」というアプリ経由でハッキングされた。LookoutとIDGリサーチがIT責任者100人を対象に行なった調査レポートでは、モバイルセキュリティ対策を原因とするデータ漏えいが自社で発生したことがあると回答した人は74%にのぼるという。データ漏えいが及ぼす影響は広いが、攻撃を受けるまで気付かない組織が多く、回答者の1人は、「自社のデータ漏えい事件が発生した当初は、業務に携わる悪意ある社員が権限のない相手に機密情報を漏えいした」と考えたが、実際は、モバイル端末が不正アクセスされたことが原因だったと回答している。調査によると、データ漏えいの主な原因は、セキュリティの脆弱性を抱えるアプリ(38%)やマルウェアが混入したモバイルアプリ(36%)、安全性が確認できないWi-Fi接続(30%)で、このような攻撃ポイントは現行のMDMやEMMでは十分な対策ができない現状があるという。企業では、82%のユーザーが、モバイル端末を使用してアクセスできる企業データは全体の以上であると回答しており、企業データは持ち出し可能であることがわかる。このような、企業データを持ち歩いたり、そこにリーチできる端末に潜むセキュリティリスクを把握することが、IT・セキュリティ責任者に求められていると同社は指摘する。また回答者はアプリの利用状況の可視化について懸念を深めており、マルウェアを含むアプリ(73%)、機密データにアクセスまたは転送するアプリ(66%)、セキュリティ脆弱性を含むアプリ(64%)と、いずれも高い数字が並ぶ。また、モバイル端末に保存されるデータ、もしくは端末からアクセスされるデータが増加することにより、セキュリティ侵害の危険性が高まると95%が考えていた。これらの結果から90%の回答者が、今後12カ月のうちにモバイルセキュリティへの投資を優先的に増加することを決定しているという。モバイル端末利用の拡大によって社用端末が私物化されることで、社員が端末に無料ゲームをダウンロードしたり、無料Wi-Fiに接続することもありうるが、このような一見安全なアクティビティが企業データを危険にさらす可能性がある。Lookoutでは、これらの調査結果から、モバイルセキュリティ技術を社員教育に取り入れることの重要性が高まっていると、警鐘を鳴らしている。
2015年11月25日カゴヤ・ジャパンは11月25日、同社のデータセンターが「東京都中小規模事業所のクラウド利用による省エネ支援事業」が対象とする「環境に優しいデータセンター」に認定されたと発表した。制度は、東京都の中小規模事業所(原油換算エネルギー使用量1,500kL未満/年)を対象にした助成制度。東京都と日本データセンター協会(JDCC)の両方から認定を受けた企業は、エネルギー効率の高いデータセンターを利用したクラウドサービスを利用する方法へ移行する際に、移行に必要な経費の一部を助成金として受け取れる。認定の条件は、「対象となる情報システムなどはオンプレミスであること」や「クラウドサービスに移行することで事業所のエネルギー使用量が削減されること」「申請時までに、当該年度分の地球温暖化対策報告書を都に提出していること」「使用するデータセンターは『環境に優しいデータセンター』又は『環境配慮型データセンター』として公表されたものであること」となっており、同社は条件をすべて満たした。認定内容は「環境に優しいデータセンター」で認定番号が「JDCC-E0058」、認定レベルが1、有効期限が平成29年3月31日まで。専用サーバーFLEX、マネージド専用サーバー、マネージドクラウド for WEBが対象となる。経費と認められるのは、移行作業費(設計費、システム構築費)、物品・サービス費(クラウドサービス初期費用、インフラ利用料など)と定められており、助成対象経費の6分の1以内(限度額750万円)を受け取れる。
2015年11月25日KDDI、沖縄セルラー電話は、「データチャージサイト」や「デジラアプリ」からデータ容量を購入し、友人や家族に贈れる新サービス「データプレゼント」の提供を27日より開始する。「データプレゼント」は、購入したデータ容量を指定した相手に贈ることができるサービス。贈られた側が利用するには、「データチャージサイト」もしくはデータ容量管理アプリ「デジラアプリ」から有効期間内にチャージする必要がある。同サービスの提供開始を記念して、「デジラアプリ」ユーザー全員に0.3GB分のデータ容量をプレゼントするキャンペーンを合わせて実施する。データ容量は、0.5GB単位もしくは1.0GB単位から購入可能。価格は、0.5GBが税別(以下同)550円、1.0GBが1,000円。有効期限は、チャージ日より62日間。利用するにあたって、申し込みなどは必要ない。
2015年11月24日情報処理推進機構(IPA)は11月16日、『組込みソフトウェア開発データ白書 2015』および『組込みソフトウェア向け プロジェクトマネジメントガイド[定量データ活用編]』を公開したと発表した。『組込みソフトウェア開発データ白書 2015』は、2013年4月~2015年3月までの2年間に、組込み分野におけるソフトウェア開発企業10社から提供を受けた総計174件のプロジェクトデータを分析したもので、収集データのプロファイルと、組込みソフトウェア開発プロジェクトの規模・工数・工期の関係や、生産性・信頼性などの分析結果を掲載している。A4変形判の180ページで、価格は1852円(税抜)。また、『組込みソフトウェア向け プロジェクトマネジメントガイド[定量データ活用編]』は、組込みソフトウェア開発企業などにおいて新たに定量データ活用の取組みを開始しようとしている経営者層に向け、経営者の視点で定量データ活用による利点を紹介し、定量データ管理の導入を支援する位置付けのガイドブックとなっている。A5判の86ページで、価格は463円(税抜)。
2015年11月17日アドビ システムズは、同社のコーポレート・コミュニケーションブログ「Adobe Japan Corporate Communications Blog」にて、データ管理プラットフォーム(DMP)である「Adobe Audience Manager」において、新たなデータ交換を可能にする「Audience Marketplace」を発表した。「Audience Marketplace」は、企業が持つオンラインとオフラインのデータを統合し、ビジネス要件に合わせたオーディエンスセグメントを構築して広告出稿やターゲティングの最適化を実現する同社のオーディエンス管理ソリューション「Adobe Audience Manager」で新たなデータ交換を可能にするもの。広告主と媒体社とをつなぐ専用のデータのマーケットプレイスとして、個別契約の手間をかけることなくセカンドパーティやサードパーティのデータの売買が可能になるという。これにより企業は、自社にとって価値の高いオーディエンスセグメントを特定し、あらゆるマーケティングチャネルにおいて、ターゲットを絞りパーソナライズされたコンテンツを提供できるようになるということだ。データパートナーの広範なネットワークから価値の高いオーディエンスデータを大量に取得し、正確で効果的なインサイトを得られるため、データの流通に関わる手続きの煩わしさから開放されるとしている。また、広告主と媒体社の拡張性によって正確なオーディエンスセグメントを確立できるよういなったのに加え、自社の所有するファーストパーティデータと他のソースから購入・集計した統計情報データを、セカンドパーティデータ(共有可能な他社のファーストパーティデータ)と統合できることで、例えば航空会社やホテルなど類似する顧客を持つ企業間で顧客のデータ交換が可能になるとのことだ。Audience Marketplaceは、オーディエンスデータの販売と購入において、柔軟な価格オプションとシームレスで透明性の高いデータ共有を実現するインフラを提供するとともに、データ交換はオーディエンスセグメントの行動に関するインサイトをリアルタイムで提供し、マーケティングROIの最大化を図るとしている。アドビのデータマネジメント部門ゼネラルマネージャーであるアミット アフジャ氏は、「Audience Marketplaceは、マーケットチャネル全体においてマーケターによるオーディエンスの管理、活性化、収益化の方法を再定義します。当社は、他社とは異なり、データ交換自体でデータを収益化しようとするのではなく、お客様とデータプロバイダーをつなぎたいと考えています。」と述べている。
2015年11月12日Commvault Systemsは、次世代のデータ管理に関するビジョンを示すことを目的とし、変化するテクノロジー、リソース要求の引き締め、拡大し続けるデータ量といった課題に直面しているCIOやテクノロジー/ビジネスリーダーが必要とする新たに発生している顧客ニーズをとりまとめたと発表した。今回取りまとめられたのは、以下の6つ。オープンで標準規格に準拠したインフラストラクチャ:顧客は、コモディティインフラストラクチャのコストメリットと優れた柔軟性を活かしたいと思っている新しいリカバリ要求:顧客は基幹アプリケーションのデータ損失をますます許容できなくなっており、リカバリウィンドウをなくしたいと思っている拡張可能な分析機能の搭載:顧客は、検索/可視化/グラフィカル/コリレーションツールが、データ管理ソリューションに搭載されていること、もしくはサードパーティ製の標準クエリ言語から利用できることを望んでいるアクセス & コラボレーション:ユーザーは、データがいつ、どこで作成されても、すべてのデータのコピーにシームレスにユニバーサルアクセスが行え、他の人とセキュアにデータを共有することで、データを再利用しその価値を解き放つことを望んでいるエンド ツー エンドのガバナンス:企業はすべてのデータを管理しコントロール下に置く必要がある。それには、可視性、セキュリティ、アクセス、コンプライアンスが必要となる従来のバックアップでは追いつけないデータ増加:データ量が従来のバックアップソリューションの能力を超え、今日のバックアップ要求やRPO目標を満たすことができなくなっているこれらの要求については、同社が開発を進めている次世代「Simpana」となるバージョン11において具体化されるとのことで、例えば、「常時稼働、常時利用」 という新しいリカバリ要求に対するアプローチについては、Commvaultプラットフォームに置かれたすべてのデータのコピーを、ストレージに最適化された状態からネイティブに読み込み可能なデータとしてすぐに提供することができるようになるとしている。また、同社が現代のデータ管理の主要件と呼んでいる以下の7つの要件については、将来に備えデータ管理ストラテジーを前進させたいすべての顧客に必携の機能チェックリストになるはずとしている。標準規格に準拠したプラットフォーム アクセス:システムの老朽化やプロバイダ ロックインをなくすことで、顧客のインフラストラクチャロードマップに対する将来のテクノロジーの関係性とリスクを守ること統合データセキュリティ:転送中/保存済/アクセス中のデータのセキュアな保護 - 転送/保存/使用中のデータは暗号化、キー管理、テクノロジー人員ごとのロールベースのコントロールでセキュアなコミュニケーションが確保され、すべてのデータ保存場所を対象としたコンプライアンス監視のための監査コントロールやレポート機能が標準で使用できることダイレクトネイティブアクセス:データはネイティブのフォーマットで利用できること。ネイティブまたはオンデマンドのデータ配信サービスは、アプリケーションから要求されたフォーマットで、ほぼ瞬時の対話型アクセス(リカバリポイント)を提供すること。これにより、運用に掛かる労力、時間、リスクを削減すること拡張可能な検索/クエリ:データのインデックス化/分析/視覚化/最適化- 複数のデータソリューションアプリケーションや保存場所に対し(仮想レポジトリやSaaSでの提供、クラウド ソリューションを含む)、シームレスでパワフルな検索クエリを提供することで、現在/過去のデータをアクティベートし解放することユニバーサルアクセス & コラボレーション:アプリケーション/ファイル/情報を安全に共有 & 同期 - データがいつ、どこで作られても、ユーザーは自分のすべてのデータのコピーへシームレスにユニバーサル アクセスが行えること。そして、生産性とコラボレーションが向上できること。さらに、ユーザー/アプリケーションを問わずデータを安全に共有することができることデータ生成時点からのガバナンス:データを生まれたときから管理 - データが生成された瞬間から管理することで、可視性、セキュリティを持って企業がデータを管理コントロール下に置き、データの違反、損失、盗難、コンプライアンス非準拠といった問題を劇的に減らすこと増分データの取得:リカバリポイントの頻度を増やすことで、ストレージとネットワークの効率性を向上 - 変更ブロックのトラッキングで、データ保護オペレーションの際のワークロードに対するインパクトを劇的に減らす機会を与えること。同時にネットワークやストレージ利用において下流へのデータ転送が効率的に行えること。変更ブロックのみを読込み移動し、ユニークな変更ブロックのみを保存すること。これにより、現在行っているリカバリ オペレーションに必要な帯域幅とストレージ要件を下げ、RPOとRTOが短縮できること
2015年11月12日日立製作所は11月11日、Hitachi Virtual Storage Platform(VSP)ファミリーのラインアップにビッグデータの高速分析を支えるデータアクセス性能と信頼性を備えたオールフラッシュアレイ「Hitachi Virtual Storage Platform VSP F400」「Hitachi Virtual Storage Platform VSP F600」「Hitachi Virtual Storage Platform VSP F800」(VSP Fシリーズ) の3機種を追加し、全世界で販売を開始した。各製品の出荷開始は同月17日を予定している。VSP Fシリーズは、データアクセス性能やデータ容量を強化したフラッシュモジュールの「Hitachi Accelerated Flash DC2(HAF DC2)」を採用し、システムの導入や運用にかかるコストを抑えつつ、データ分析に必要となるデータアクセス性能と信頼性を実現するオールフラッシュアレイ。HAF DC2に独自のデータ圧縮機能を新たに搭載することで、高いデータアクセス性能を維持しながら大量データの効率的な格納が可能となるため、搭載フラッシュモジュール台数を抑え、導入コストの軽減を図るとともに、消費電力や設置スペースを削減することができる。また、ストレージ基本ソフトウェアにはハイエンド向けストレージシステムを含むVSPファミリー全製品で採用する「Hitachi Storage Virtualization Operating System(SVOS)」を搭載し、データの欠損を防ぐデータ保護機能を備えている。大量データへの高速アクセスを実現することで、顧客の新たなサービス開発や業務改善などに向けたビッグデータの利活用が可能だ。各製品ともに物理容量は6.4TB~、ファイバチャネルは16Gbps×4ポート~、キャッシュはVSP F400で128GB、VSP F600で256GB、VSP F800で256GB~となる。価格はいずれも税別でVSP F400が1740万円~、VSP F600が2490万円~、VSP F800が4060万円~。なお、HAF DC2はディスクアレイシステムの「VSP Gシリーズ」にも搭載が可能。ハイエンドからミッドレンジまで幅広く対応するVSP Gシリーズにシステムの規模や用途に応じて組み合わせて利用することができるという。
2015年11月11日NTTデータは11月10日より、「Twitterデータ提供サービス」の商品ラインナップを拡充し、新たに「データ解析オプション」「システム開発ソリューション」の提供を開始すると発表した。同社は2012年9月に米Twitter社とTwitterデータ再販のFirehose契約を締結し、2012年12月より「Twitterデータ提供サービス」を提供してきた。2015年10月8日からは、「Twitterデータ提供サービス」の全言語に対応したサービスを開始。今回の機能拡充は、Twitterデータを、顧客の業務に近いかたちにしたソリューションを提供するためのオプションサービスとなる。「データ解析オプション」は、「訪日外国人動態調査」、「地域情報分析」、「画像抽出」、「災害情報分析」など、目的別に7種類のデータの抽出・解析・レポートを提供する。一方の「システム開発ソリューション」では、「クローリングシステム」、「ノイズフィルター」といった、インターネット上の情報収集・整理を簡単に行うことができるプロダクトの提供を行う。今後、NTTデータは、Twitterデータの提供のみならず、ソーシャルメディアのデータを含むさまざまな情報が、企業活動に対して、さらに貢献できるシステム開発やソリューションの提供を推進し、2020年度までに50億円の売り上げを目指すという。
2015年11月11日エクスペリアンジャパンはこのたび、消費者セグメンテーション・データ「Experian Mosaic Japan (以下、Mosaic)」が、Nearの「Allspark」に第三者データとして実装したされたことを発表した。Allsparkとは、スマートフォンアプリから利用者の許諾を得て取得した位置情報のデータとそのほかの第三者データなどを掛け合わせ、モバイル・オーディエンスを構築できるというプラットフォーム。一方Mosaicは、郵便番号などの居住地情報から、家族構成や年収レベル、居住状況、オンライン・リテラシー、車所有状況など各種のライフスタイル情報を可視化できるというセグメンテーション・データだ。AllsparkにMosaicを第三者データとして組み込むことにより、Allspark上にてオーディエンス構築を行う際に、位置情報に加えライフスタイル情報を利用できるようになる。これにより、より消費者の気持ちに寄り添ったターゲティングと広告出稿、メッセージ設定、コンテンツの配信を実現するほか、Mosaicの利用によりLook-Alikeモデリング(オーディエンス拡張)が実現できるため、潜在顧客へのアプローチなども可能となる。同社によると、たとえば、カー用品の販促施策として、行楽シーズンに合わせたタイヤのディスカウント・キャンペーンを展開する場合、店舗の半径1km以内のターゲット・オーディエンスに対しキャンペーン告知バナーを表示するという条件に、ライフスタイル情報による推計を加えると、所有車種や家族構成による推定ターゲットの絞り込みや、メッセージの変更ができるという。
2015年10月30日