データ・アプリケーション(DAL)は、異なるシステム間のデータ連携・移行を簡単なマッピングだけでノンプログラミングで実現できるデータハンドリングプラットフォーム「RACCOON」の最新版となる「RACCOON V.1.4」を、2015年12月21日より発売すると発表した。最新版では、Excelデータを入出力する際のデータ位置指定方法が増えたほか、データ量に応じた罫線の位置が変更できるようになるなど、さまざまなデータ操作機能が追加・拡張されており、これによりツールの機能に制約されず、ユーザの設計したExcelデータを簡単に生成・変換することが可能となった。また、各種文字コードの代表的な拡張漢字とUnicodeとの対応表を同梱。これにより、拡張漢字の外字定義作成にかかる工数の削減が可能となった。さらに、新たにIBM DB2 for iのデータベースへの接続を可能とし、動作環境の適用範囲も向上させたという。価格は、従来版と同じStandard Editionが300万円(税別)で、タームライセンスは、月額125,000円(同)で、最低利用期間は3カ月となっている。また、Developer Edition(商用利用不可)は200万円(同)となっている。なお、2016年3月末まで、トライアルキャンペーンとして、Standard Editionをキャンペーン価格200万円(同)で提供するという。
2015年12月18日弥生は12月14日、「弥生給与 16」「やよいの給与計算 16」をNTTデータのマイナンバーの収集・保管サービス「データ管理の達人」と連携することを発表した。またあわせて、クラウドストレージ「弥生ドライブ」の安全管理措置への対応など、スモールビジネスのマイナンバー収集・保管のサポートを強化する。「データ管理の達人」は、マイナンバーなどのマスターデータを一元的に登録・編集する機能を持つソフトウェア。「弥生給与 16」「やよい給与計算 16」と連携することで、マイナンバーの収集・保管・利用・提供・廃棄までをセキュアな環境で実現することができるようになる。「データ管理の達人」のサービス提供開始時期は2016年1月4日予定で、弥生製品との連携開始は2016年4月予定となっている。価格(税別)は、4万9800円/年(Professional Edition ダウンロード版)。
2015年12月14日NTTデータ・グローバル・テクノロジー・サービス・ジャパン(NTTデータGTSJ)は12月1日、NTT DATA Thaiと連携し、Microsoft Dynamics AXが標準対応として備えるローカライゼーション機能に加え、独自の帳票類を取りそろえた「アジア向けローカライゼーションパック」を同日より提供開始することを発表した。同社では、日本企業の海外進出に伴い、グローバル展開可能なERPとしてMicrosoft Dynamics AXの導入機会が増加していることを受け、アジア各国への導入にあたって、カスタマイズが必要となる機会が多いローカル税制要件/帳票類において、あらかじめこれらをパックとして提供することで、要件定義工程を容易化し、全体のプロジェクト工数を削減することができるとしている。また、独自の短期導入方法論とセットにすることで、プロジェクト開始から4カ月でシステムの稼働を開始することも可能となっている。NTTデータGTSJでは、アジア各国向けのローカライズを取りまとめ、まずはインド、タイ、インドネシアの3カ国から同ソリューションを提供する。
2015年12月03日NTTデータとPivotalジャパンは12月2日、アジャイル開発ソリューションの提供について協業することで合意したと発表した。両社は、すでにNTTデータのアジャイル開発基盤とPivotalのオープンクラウド基盤「「Pivotal Cloud Foundry」を統合する取り組みを進め、その開発が完了した。新ソリューションは「ビジネス仮説の検証を支援する機能」「迅速なシステムの開発を支援する機能」「柔軟なシステム運用を支援する機能」を提供する。検証支援機能においては、NTTデータのユーザー行動分析ツール群を、顧客のシステムへ組み込むことを可能にする。例えば、A/Bテストツールを組み込むことで、システムのユーザーに対してランダムに異なるデザインの画面を表示し、デザインごとのアクセス数の変化を計測することが実現する。開発支援機能においては、NTTデータのシステム開発・管理支援ツール群およびPCFに搭載される各種ミドルウエア・フレームワークを利用可能な環境を即時に提供する。運用支援機能においては、「Pivotal Cloud Foundry」が提供する高度なクラウド基盤の管理機能が提供される。例えば、システム負荷に応じたシステムを構成するサーバ数の自動増減や、一部のユーザーにのみ新機能を搭載したシステムを開放するようなシステム構成を実現できる。同ソリューションは2016年2月より提供が開始される予定。両社は提供に向けて、導入コンサルティングや開発、運用・保守などのサービスメニュー整備を行う。
2015年12月03日慶應義塾大学SFC研究所データビジネス創造・ラボ(慶應SFC研究所)と日本マイクロソフトは11月26日、「第4回 データビジネス創造コンテスト ~データと想像力で子育てに笑顔を!Dig Parenting Insight(データビジネス創造コンテスト)」を開催すると発表した。両社は、「データサイエンティスト」の育成を目的としてコンテストの開催を行う。これにより、2020年に25万人不足するといわれているビッグデータを活用した分析、ビジネスイノベーションの創出、情報戦略を実働できる新たなIT人材の育成を進めていく。データビジネス創造コンテストでは、さまざまなオープンデータと、マイクロソフトが提供するMicrosoft Azure、Power BI(Excel)などの分析に必要なIT環境を活用し、全国の高校生から大学院生たちが、政府の少子化対策として挙げている5つの重点課題(1.子育て支援施策を一層充実、2.若い年齢での結婚・出産の希望の実現、3.多子世帯へ一層の配慮、4.男女の働き方改革、5.地域の実情に即した取り組み強化)を解決するデータ分析力とビジネスアイデアを競う。参加チームは、「データと創造力で、子育てに笑顔を!」をテーマに、自ら情報収集・分析し、少子化問題への理解を深めるとともに、データ分析から導きだされるビジネスアイデアの提案を行う。募集期間は、2015年11月26日~2016年2月12日で、最終選考・表彰式は、2016年3月26日。データビジネス創造コンテストの期間中、第1回~第3回までのコンテストの実績をもとに、新たに統計の知識がないことを前提とした応募学生向けのデータ活用オンライン・オフラインセミナーを実施するほか、応募者専用のデータコンシェルジェを設置し、期間中のデータの活用方法やツールの使い方をサポートする。ほかにも、子育てに関するエキスパートからの勉強会とアドバイスを行っていく。
2015年11月27日カゴヤ・ジャパンは11月25日、同社のデータセンターが「東京都中小規模事業所のクラウド利用による省エネ支援事業」が対象とする「環境に優しいデータセンター」に認定されたと発表した。制度は、東京都の中小規模事業所(原油換算エネルギー使用量1,500kL未満/年)を対象にした助成制度。東京都と日本データセンター協会(JDCC)の両方から認定を受けた企業は、エネルギー効率の高いデータセンターを利用したクラウドサービスを利用する方法へ移行する際に、移行に必要な経費の一部を助成金として受け取れる。認定の条件は、「対象となる情報システムなどはオンプレミスであること」や「クラウドサービスに移行することで事業所のエネルギー使用量が削減されること」「申請時までに、当該年度分の地球温暖化対策報告書を都に提出していること」「使用するデータセンターは『環境に優しいデータセンター』又は『環境配慮型データセンター』として公表されたものであること」となっており、同社は条件をすべて満たした。認定内容は「環境に優しいデータセンター」で認定番号が「JDCC-E0058」、認定レベルが1、有効期限が平成29年3月31日まで。専用サーバーFLEX、マネージド専用サーバー、マネージドクラウド for WEBが対象となる。経費と認められるのは、移行作業費(設計費、システム構築費)、物品・サービス費(クラウドサービス初期費用、インフラ利用料など)と定められており、助成対象経費の6分の1以内(限度額750万円)を受け取れる。
2015年11月25日KDDI、沖縄セルラー電話は、「データチャージサイト」や「デジラアプリ」からデータ容量を購入し、友人や家族に贈れる新サービス「データプレゼント」の提供を27日より開始する。「データプレゼント」は、購入したデータ容量を指定した相手に贈ることができるサービス。贈られた側が利用するには、「データチャージサイト」もしくはデータ容量管理アプリ「デジラアプリ」から有効期間内にチャージする必要がある。同サービスの提供開始を記念して、「デジラアプリ」ユーザー全員に0.3GB分のデータ容量をプレゼントするキャンペーンを合わせて実施する。データ容量は、0.5GB単位もしくは1.0GB単位から購入可能。価格は、0.5GBが税別(以下同)550円、1.0GBが1,000円。有効期限は、チャージ日より62日間。利用するにあたって、申し込みなどは必要ない。
2015年11月24日情報処理推進機構(IPA)は11月16日、『組込みソフトウェア開発データ白書 2015』および『組込みソフトウェア向け プロジェクトマネジメントガイド[定量データ活用編]』を公開したと発表した。『組込みソフトウェア開発データ白書 2015』は、2013年4月~2015年3月までの2年間に、組込み分野におけるソフトウェア開発企業10社から提供を受けた総計174件のプロジェクトデータを分析したもので、収集データのプロファイルと、組込みソフトウェア開発プロジェクトの規模・工数・工期の関係や、生産性・信頼性などの分析結果を掲載している。A4変形判の180ページで、価格は1852円(税抜)。また、『組込みソフトウェア向け プロジェクトマネジメントガイド[定量データ活用編]』は、組込みソフトウェア開発企業などにおいて新たに定量データ活用の取組みを開始しようとしている経営者層に向け、経営者の視点で定量データ活用による利点を紹介し、定量データ管理の導入を支援する位置付けのガイドブックとなっている。A5判の86ページで、価格は463円(税抜)。
2015年11月17日アドビ システムズは、同社のコーポレート・コミュニケーションブログ「Adobe Japan Corporate Communications Blog」にて、データ管理プラットフォーム(DMP)である「Adobe Audience Manager」において、新たなデータ交換を可能にする「Audience Marketplace」を発表した。「Audience Marketplace」は、企業が持つオンラインとオフラインのデータを統合し、ビジネス要件に合わせたオーディエンスセグメントを構築して広告出稿やターゲティングの最適化を実現する同社のオーディエンス管理ソリューション「Adobe Audience Manager」で新たなデータ交換を可能にするもの。広告主と媒体社とをつなぐ専用のデータのマーケットプレイスとして、個別契約の手間をかけることなくセカンドパーティやサードパーティのデータの売買が可能になるという。これにより企業は、自社にとって価値の高いオーディエンスセグメントを特定し、あらゆるマーケティングチャネルにおいて、ターゲットを絞りパーソナライズされたコンテンツを提供できるようになるということだ。データパートナーの広範なネットワークから価値の高いオーディエンスデータを大量に取得し、正確で効果的なインサイトを得られるため、データの流通に関わる手続きの煩わしさから開放されるとしている。また、広告主と媒体社の拡張性によって正確なオーディエンスセグメントを確立できるよういなったのに加え、自社の所有するファーストパーティデータと他のソースから購入・集計した統計情報データを、セカンドパーティデータ(共有可能な他社のファーストパーティデータ)と統合できることで、例えば航空会社やホテルなど類似する顧客を持つ企業間で顧客のデータ交換が可能になるとのことだ。Audience Marketplaceは、オーディエンスデータの販売と購入において、柔軟な価格オプションとシームレスで透明性の高いデータ共有を実現するインフラを提供するとともに、データ交換はオーディエンスセグメントの行動に関するインサイトをリアルタイムで提供し、マーケティングROIの最大化を図るとしている。アドビのデータマネジメント部門ゼネラルマネージャーであるアミット アフジャ氏は、「Audience Marketplaceは、マーケットチャネル全体においてマーケターによるオーディエンスの管理、活性化、収益化の方法を再定義します。当社は、他社とは異なり、データ交換自体でデータを収益化しようとするのではなく、お客様とデータプロバイダーをつなぎたいと考えています。」と述べている。
2015年11月12日Commvault Systemsは、次世代のデータ管理に関するビジョンを示すことを目的とし、変化するテクノロジー、リソース要求の引き締め、拡大し続けるデータ量といった課題に直面しているCIOやテクノロジー/ビジネスリーダーが必要とする新たに発生している顧客ニーズをとりまとめたと発表した。今回取りまとめられたのは、以下の6つ。オープンで標準規格に準拠したインフラストラクチャ:顧客は、コモディティインフラストラクチャのコストメリットと優れた柔軟性を活かしたいと思っている新しいリカバリ要求:顧客は基幹アプリケーションのデータ損失をますます許容できなくなっており、リカバリウィンドウをなくしたいと思っている拡張可能な分析機能の搭載:顧客は、検索/可視化/グラフィカル/コリレーションツールが、データ管理ソリューションに搭載されていること、もしくはサードパーティ製の標準クエリ言語から利用できることを望んでいるアクセス & コラボレーション:ユーザーは、データがいつ、どこで作成されても、すべてのデータのコピーにシームレスにユニバーサルアクセスが行え、他の人とセキュアにデータを共有することで、データを再利用しその価値を解き放つことを望んでいるエンド ツー エンドのガバナンス:企業はすべてのデータを管理しコントロール下に置く必要がある。それには、可視性、セキュリティ、アクセス、コンプライアンスが必要となる従来のバックアップでは追いつけないデータ増加:データ量が従来のバックアップソリューションの能力を超え、今日のバックアップ要求やRPO目標を満たすことができなくなっているこれらの要求については、同社が開発を進めている次世代「Simpana」となるバージョン11において具体化されるとのことで、例えば、「常時稼働、常時利用」 という新しいリカバリ要求に対するアプローチについては、Commvaultプラットフォームに置かれたすべてのデータのコピーを、ストレージに最適化された状態からネイティブに読み込み可能なデータとしてすぐに提供することができるようになるとしている。また、同社が現代のデータ管理の主要件と呼んでいる以下の7つの要件については、将来に備えデータ管理ストラテジーを前進させたいすべての顧客に必携の機能チェックリストになるはずとしている。標準規格に準拠したプラットフォーム アクセス:システムの老朽化やプロバイダ ロックインをなくすことで、顧客のインフラストラクチャロードマップに対する将来のテクノロジーの関係性とリスクを守ること統合データセキュリティ:転送中/保存済/アクセス中のデータのセキュアな保護 - 転送/保存/使用中のデータは暗号化、キー管理、テクノロジー人員ごとのロールベースのコントロールでセキュアなコミュニケーションが確保され、すべてのデータ保存場所を対象としたコンプライアンス監視のための監査コントロールやレポート機能が標準で使用できることダイレクトネイティブアクセス:データはネイティブのフォーマットで利用できること。ネイティブまたはオンデマンドのデータ配信サービスは、アプリケーションから要求されたフォーマットで、ほぼ瞬時の対話型アクセス(リカバリポイント)を提供すること。これにより、運用に掛かる労力、時間、リスクを削減すること拡張可能な検索/クエリ:データのインデックス化/分析/視覚化/最適化- 複数のデータソリューションアプリケーションや保存場所に対し(仮想レポジトリやSaaSでの提供、クラウド ソリューションを含む)、シームレスでパワフルな検索クエリを提供することで、現在/過去のデータをアクティベートし解放することユニバーサルアクセス & コラボレーション:アプリケーション/ファイル/情報を安全に共有 & 同期 - データがいつ、どこで作られても、ユーザーは自分のすべてのデータのコピーへシームレスにユニバーサル アクセスが行えること。そして、生産性とコラボレーションが向上できること。さらに、ユーザー/アプリケーションを問わずデータを安全に共有することができることデータ生成時点からのガバナンス:データを生まれたときから管理 - データが生成された瞬間から管理することで、可視性、セキュリティを持って企業がデータを管理コントロール下に置き、データの違反、損失、盗難、コンプライアンス非準拠といった問題を劇的に減らすこと増分データの取得:リカバリポイントの頻度を増やすことで、ストレージとネットワークの効率性を向上 - 変更ブロックのトラッキングで、データ保護オペレーションの際のワークロードに対するインパクトを劇的に減らす機会を与えること。同時にネットワークやストレージ利用において下流へのデータ転送が効率的に行えること。変更ブロックのみを読込み移動し、ユニークな変更ブロックのみを保存すること。これにより、現在行っているリカバリ オペレーションに必要な帯域幅とストレージ要件を下げ、RPOとRTOが短縮できること
2015年11月12日日立製作所は11月11日、Hitachi Virtual Storage Platform(VSP)ファミリーのラインアップにビッグデータの高速分析を支えるデータアクセス性能と信頼性を備えたオールフラッシュアレイ「Hitachi Virtual Storage Platform VSP F400」「Hitachi Virtual Storage Platform VSP F600」「Hitachi Virtual Storage Platform VSP F800」(VSP Fシリーズ) の3機種を追加し、全世界で販売を開始した。各製品の出荷開始は同月17日を予定している。VSP Fシリーズは、データアクセス性能やデータ容量を強化したフラッシュモジュールの「Hitachi Accelerated Flash DC2(HAF DC2)」を採用し、システムの導入や運用にかかるコストを抑えつつ、データ分析に必要となるデータアクセス性能と信頼性を実現するオールフラッシュアレイ。HAF DC2に独自のデータ圧縮機能を新たに搭載することで、高いデータアクセス性能を維持しながら大量データの効率的な格納が可能となるため、搭載フラッシュモジュール台数を抑え、導入コストの軽減を図るとともに、消費電力や設置スペースを削減することができる。また、ストレージ基本ソフトウェアにはハイエンド向けストレージシステムを含むVSPファミリー全製品で採用する「Hitachi Storage Virtualization Operating System(SVOS)」を搭載し、データの欠損を防ぐデータ保護機能を備えている。大量データへの高速アクセスを実現することで、顧客の新たなサービス開発や業務改善などに向けたビッグデータの利活用が可能だ。各製品ともに物理容量は6.4TB~、ファイバチャネルは16Gbps×4ポート~、キャッシュはVSP F400で128GB、VSP F600で256GB、VSP F800で256GB~となる。価格はいずれも税別でVSP F400が1740万円~、VSP F600が2490万円~、VSP F800が4060万円~。なお、HAF DC2はディスクアレイシステムの「VSP Gシリーズ」にも搭載が可能。ハイエンドからミッドレンジまで幅広く対応するVSP Gシリーズにシステムの規模や用途に応じて組み合わせて利用することができるという。
2015年11月11日NTTデータは11月10日より、「Twitterデータ提供サービス」の商品ラインナップを拡充し、新たに「データ解析オプション」「システム開発ソリューション」の提供を開始すると発表した。同社は2012年9月に米Twitter社とTwitterデータ再販のFirehose契約を締結し、2012年12月より「Twitterデータ提供サービス」を提供してきた。2015年10月8日からは、「Twitterデータ提供サービス」の全言語に対応したサービスを開始。今回の機能拡充は、Twitterデータを、顧客の業務に近いかたちにしたソリューションを提供するためのオプションサービスとなる。「データ解析オプション」は、「訪日外国人動態調査」、「地域情報分析」、「画像抽出」、「災害情報分析」など、目的別に7種類のデータの抽出・解析・レポートを提供する。一方の「システム開発ソリューション」では、「クローリングシステム」、「ノイズフィルター」といった、インターネット上の情報収集・整理を簡単に行うことができるプロダクトの提供を行う。今後、NTTデータは、Twitterデータの提供のみならず、ソーシャルメディアのデータを含むさまざまな情報が、企業活動に対して、さらに貢献できるシステム開発やソリューションの提供を推進し、2020年度までに50億円の売り上げを目指すという。
2015年11月11日エクスペリアンジャパンはこのたび、消費者セグメンテーション・データ「Experian Mosaic Japan (以下、Mosaic)」が、Nearの「Allspark」に第三者データとして実装したされたことを発表した。Allsparkとは、スマートフォンアプリから利用者の許諾を得て取得した位置情報のデータとそのほかの第三者データなどを掛け合わせ、モバイル・オーディエンスを構築できるというプラットフォーム。一方Mosaicは、郵便番号などの居住地情報から、家族構成や年収レベル、居住状況、オンライン・リテラシー、車所有状況など各種のライフスタイル情報を可視化できるというセグメンテーション・データだ。AllsparkにMosaicを第三者データとして組み込むことにより、Allspark上にてオーディエンス構築を行う際に、位置情報に加えライフスタイル情報を利用できるようになる。これにより、より消費者の気持ちに寄り添ったターゲティングと広告出稿、メッセージ設定、コンテンツの配信を実現するほか、Mosaicの利用によりLook-Alikeモデリング(オーディエンス拡張)が実現できるため、潜在顧客へのアプローチなども可能となる。同社によると、たとえば、カー用品の販促施策として、行楽シーズンに合わせたタイヤのディスカウント・キャンペーンを展開する場合、店舗の半径1km以内のターゲット・オーディエンスに対しキャンペーン告知バナーを表示するという条件に、ライフスタイル情報による推計を加えると、所有車種や家族構成による推定ターゲットの絞り込みや、メッセージの変更ができるという。
2015年10月30日エヌ・ティ・ティ・データ(以下、NTTデータ)は22日、家計簿アプリなどの個人資産管理(PFM)サービスやクラウド会計サービスなどのFintechサービスと、NTTデータが金融機関に提供する共同利用型の個人向けインターネットバンキングサービス「AnserParaSOL」を接続するAPI連携サービスを2015年度中に提供開始すると発表した。○ネットバンキング利用者の拡大を期待同サービスは、利用者がインターネットバンキングのIDとパスワードをFintechサービスに登録することなく、銀行取引データ等の連携を可能とするもの。これにより、利用者はより安全にFintechサービスを利用できるようになる。また、Fintechサービス利用者を新たに取り込むことで、金融機関はインターネットバンキング利用顧客の拡大が期待できるという。第1弾として、個人向けインターネットバンキングサービス「AnserParaSOL」での対応から開始し、第2弾として、法人向けインターネットバンキングサービス「AnserBizSOL」への展開も検討していく。NTTデータ広報は「新サービスではこれまでより安全・便利に活用してもらえるよう、企業や個人をターゲットとして提供していく」と話している。今後は、マネーフォワードとfreeeの両社と共同で2015年中にサービス提供を開始。さらに、NTTコミュニケーションズや弥生が提供するFintechサービスとの連携も予定しているという。
2015年10月23日ビッグデータ分析とマーケティング・アプリケーションを扱う、米テラデータ・コーポレーション(テラデータ)は10月7日(現地時間)、データウェアハウジングおよび分析ソリューションであるTeradata DatabaseをAWS上でクラウド配備で提供し、本番環境のワークロードをサポートすることを発表した。Teradata Database on AWSの最初のバージョンは、数テラバイトに対応する多様な個々の仮想サーバーであるAmazon Elastic Compute Cloud(EC2)インスタンス上で、AWSがサポートされている国・地域において、AWS Marketplaceより提供される予定だ。Teradata Database on AWSは、テスト/開発、品質保証、データ・マート、障害回復、本番分析などで利用できる。テラデータのデータウェアハウスおよび分析ソリューションの利用用途の拡大や、クラウド上のデータ・ソースおよびクラウド内で提供されているパートナー・ソフトウェアに近い位置でのデータベースの利用、システム規模の変更が容易で、セルフサービスによるプロビジョニングと時間単位の従量制課金での利用といったことが、顧客企業の主なメリットとなる。さらに、Teradata Production and Advisory Servicesというサービスも提供される。これは、同社のプロフェッショナル・サービス部門が、新規および既存の顧客企業を対象に、Teradataデータベースのプロビジョニング、統合、管理、微調整などを、あらゆる配備オプションを通じて提供するもの。Teradata Database on AWSの最初のバージョンは、2016年第1四半期に全世界で、数テラバイトに対応する多様な個々のAmazon EC2インスタンス・タイプにおいて、AWS Marketplaceから提供される予定だ。EC2はWebベースのサービスなのでビジネス用途で利用する顧客は、Amazonのコンピューティング環境内で、従量制課金でアプリケーション・プログラムを実行可能だ。利用環境は、AWS上での単独展開、もしくはオンプレミスまたはTeradata Cloudの環境の3つから選ぶことができる。
2015年10月16日マクロミルは10月13日、早稲田大学データサイエンス研究所と共同研究を開始することを発表した。同研究は、「統計学及びマーケティングにおける非集計データの高次利用」がテーマとなっており、マクロミル保有の購買データならびに意識調査データをもとに「データ・サイエンスに関する教材の開発」「数理統計学・機械学習の理論並び実証研究」「消費者行動のモデル化に関する実証研究」「マーケティング実務における意思決定支援のためのデータ活用に関する研究」といった項目が実施される。一部の研究においては、マクロミルのアナリストやリサーチャーが関わり、知見を活かすことで可能性の拡大を目指していくとしている。
2015年10月14日NTTデータは10月8日、「Twitterデータ提供サービス」をすべての言語に対応させたと発表した。同社は、2012年9月に米TwitterとTwitterデータ再販契約を締結し、2012年12月より「Twitterデータ提供サービス」を提供することと並行し、企業などでのソーシャルデータの利活用の推進を検討してきた。これまでは、提供データの対象言語を「日本語のみ」としていたが、Twitterとの新たなパートナーシップ契約を締結することで、日本語以外の言語を含むすべてのデータを使った分析活用とシステム開発が可能となり、顧客からの要望の高い訪日外国人動態調査でのデータ利用や、ブランドモニタリングのためのグローバルBIでの活用など、Twitterデータのさらなる利用用途拡大が可能となった。なお、価格は、提供データの対象範囲や分析の方法などによって、個別の見積もりとなる。今後、同社ではTwitterデータの提供と、ソーシャルデータを含む顧客社外の情報を活用することで、顧客企業活動に貢献できるシステムやソリューションの開発を推進し、関連ソリューション含めて、2020年度までに50億円の売り上げを目指すとしている。
2015年10月09日トランスコスモスは10月7日、データフィードサービス「t-eams for Data Feed Bid Manage (チィームス・フォー・データフィード・ビッドマネ ジャー)」の提供を開始し、運用型広告サービスの拡充を図ることを発表した。同サービスでは、広告媒体の特徴に合わせ「ブランド名」「色」「サイズ」「説明文」などの商品情報を追加・置換・削除し、最適な入稿データを自動生成。媒体および商品ごとに入札調整を行い、季節のトレンド商品や販売強化商品の広告効果を向上させるほか、商品単位の効果検証により、広告対象商品を絞り込むことで、無駄な配信コストを削減できる。同社によると、ECや不動産、旅行などの業界を筆頭に、Webサイト上で多数の商品・サービスを取り扱う企業が増加するに伴い、商品リスト広告やアフィリエイト広告、レコメンド広告など、広告の種類も急増。広告効果を最大化するため、データフィードを用いた広告運用ニーズが高まっているという。
2015年10月07日人工知能を駆使したビッグデータ解析事業を手がけるUBICは10月1日、業務上のメールや日報などの電子データを解析し、潜在的なチャンスやリスクを人工知能が知らせる、ビジネスデータ分析支援システム「Lit i View AI助太刀侍(AI助太刀侍)」の提供を開始すると発表した。「AI助太刀侍」は、ビジネス上の膨大なデジタルコミュニケーションの中から、たとえば「最近お忙しそうですね?」と営業担当者の来訪を緩やかに期待する顧客からのメールのような、まだ顕在化していない「予兆」をいち早く人工知能が捉えることでビジネスチャンスの獲得と機会損失の防止、リスクの回避など行うもの。まず、顧客の経験や暗黙知に基づいて、検知が必要か不要かに仕分けられた一定数のデータを「教師データ」として「AI助太刀侍」に学習させ、次に同社のクラウド環境「Intelligence Cloud」上の「AI助太刀侍」に、顧客のメールサーバーやファイルサーバーからメール、日報などの調べたい電子データをインポートする。その電子データを「AI助太刀侍」で解析し、検知したい教師データとの関連性が高い順にスコアリングして、上位から順に表示。一定のスコアを超えたデータが発生した場合は、「AI助太刀侍」からその顧客の管理者に自動でアラートを出したり、高スコアのデータの詳細を表示させる。さらに、検知状況の統計レポートや、今後の発生を予測する分析レポートも作成する。再学習による人工知能の強化も可能で、「AI助太刀侍」の「Central Linkage(セントラルリンケージ)」の機能では、より深く調査したい対象者について、「誰から誰に宛ててメールが送られ、誰にCC:されているか?」などを相関図で表示することができ、情報が渡る経路や、送られるべき人に情報が出ていなかったり共有すべき情報が共有されていないケースなどを把握できる。今後、APIの提供による、外部のシステムと「AI助太刀侍」との連携を行う予定があり、販売代理店が独自に開発したレポートの出力、分析機能との連携も可能になるという。
2015年10月02日さくらインターネットは、北海道石狩市にある郊外型大規模データセンターである石狩データセンターを拡張し、新しいコンセプトをもつ3号棟の建設を決定したと発表した。竣工時期は2016年冬を予定している。3号棟では、既存棟の直接外気冷房方式から空調コンセプトを変更し、室外機と空調機の間を循環する冷媒を外気で冷やしてサーバルームを冷却する、間接外気冷房方式を導入。外気を室内に導入しないため湿度変動がなく、除湿器・加湿器、加湿のための給水などが不要となり、ランニングコストをさらに削減できるという。また、サーバルーム内の空調には、新たに上部壁吹き出し方式を採用し、送風ロスの低減と作業空間の快適性を両立する。設備面では、将来的な大型機器の導入や大量搬入に対応するために、搬入口からサーバルームまで電動フォークリフトでの走行を可能とし、あらかじめラックにサーバを搭載した状態で納品を受ける、セットアップラックへの対応も可能。配電設備においては、従来のケーブル方式ではなくプラグイン分岐機構をもつバスダクト方式を全面的に採用し、ラック増設、供給電力変更時などの電気工事を不要とする。さらに、3号棟の収容ラック数、スペース効率が大幅に向上し、従来棟比で約1.6倍のラック収容密度を実現、最大収容ラック数は1,900ラックとなり、既存棟をあわせた石狩データセンター全体での最大ラック数は、3,000ラックになるという。
2015年09月30日富士通は9月24日、ビッグデータの分析サービス「FUJITSU Intelligent Data Service データキュレーションサービス」の分析基盤において、スーパーコンピュータの開発・提供を通じて培ったハイパフォーマンスコンピューティング(HPC)技術を用い、テラバイト以上の超大規模データの分析処理時間を従来比30倍(実測値での速度比較。同社調べ)に高速化したと発表した。同データキュレーションサービスを同日から新基盤に移行し、活用を開始する。販売価格は個別見積(税別)。同社は顧客のデータをキュレーター(データサイエンティスト)が分析し、標準8週間でデータ活用のモデル作成を行うサービスであるデータキュレーションサービスを2012年4月から提供している。同サービスにより、ビッグデータ分析を始める際の設備投資やデータサイエンティストの準備などのコストを抑えつつ、本格的なデータ活用の可能性を検証することができる。また、データキュレーションサービスはデータそのものに着目し、業種・業態に制限されないため、多様な顧客の様々な課題に対してサービスの提供が可能となっている。今回、データキュレーションサービス用に、自社データセンター内にビッグデータ分析専用のHPCクラスタを構築。HPCクラスタは、複数のPCサーバ「FUJITSU Server PRIMERGY(プライマジー)」を高速なインターコネクトで接続したもので、専用の並列処理ライブラリを適用することにより1000コアを越えるCPUの並列処理ができる。ハードウェアとソフトウェア両面の強化により、従来と比較し約30倍の超大規模データ高速処理を可能とした。また、既存の豊富なオープンソースソフトウェア(RやPythonで書かれたアプリケーション、Hadoop、Spark、DeepLearning系フレームワークなど)の変更なしに運用が可能な高い汎用性を有している。高速処理技術を搭載した分析基盤を用いることで、従来1週間を要していた数千個の属性データを持つ数百万人分の顧客データなどの超大規模データに対する分析を数時間に短縮。これにより、ビッグデータ活用が実用・商用フェーズに入り、より膨大なデータの分析を必要する顧客においても、分析結果をビジネスへいち早く反映することが可能となる。
2015年09月24日ヤフーとグループ会社のIDCフロンティア(IDCF)は9月17日、福島県白河市の環境対応型大規模データセンター「白河データセンター」に新しく3号棟を建設すると発表した。1棟50ラック・全6棟で構成される計300ラック規模で、10月1日着工、2016年2月末の竣工を予定している。白河データセンター3号棟は、増加するデータの格納や、Yahoo! JAPANが保有するマルチビッグデータを活用するための処理基盤強化を目的として、Yahoo! JAPAN向けに提供する。データセンターで、さまざまな企業が各種のIT機器を利用する場合と比べ、1社専用とすることで、設置する機器の画一化と動作環境を絞り込むことが可能となり、建物の工期短縮と効率の高いサーバーの収容を実現するという。ネットワークの伝送路を直線距離に極力近づける最短経路で設計し、中継ノードも可能な限り少なくすることにより、東京-白河間のレイテンシは、東京近郊に位置するデータセンターと同等の3.5ミリ秒前後の応答速度を実現。物理的な距離に比例しない高速なネットワーク環境を提供する。また、サーバーから出る排熱を冷やすための空調ユニットには、外気を導入して空調効率を高める間接外気空調方式を採用。空調ユニットはサーバールームのモジュールに直接接続され、白河の冷涼な気候を最大限活用して年間のPUEは設計値で約1.2を見込む。
2015年09月18日データの増加とどこからでもアクセスしたいというニーズを受けて、データセキュリティ戦略の第一歩としての暗号化に注目が集まっている。セキュリティベンダーのソフォスが、選ぶためのポイントを同社ブログでアドバイスしている。暗号化というと実装が複雑すぎる、管理が面倒などの共通認識があるようだが、正しい暗号化ソリューションを利用すればそのような問題はないはずだ。以下に、自社にとって正しい暗号化ソリューションを選択する際のポイントを挙げたい。○使い勝手複雑すぎて使用できないセキュリティ製品は、しかるべきセキュリティ機能を提供しない。暗号化ソリューションは包括的かつシンプルである必要性がある。データがどこにあってもそれを保護し、実装や管理にあたってITのリソースを必要としないものがよい。○マルチプラットフォームWindows、Mac、Android、iOSなどさまざまなOSをサポートし、かつさまざまな種類の暗号化技術に対応するものを。○ワークフローに合う日常の作業の支障にならない形でデータを保護できるというのが理想的だ。暗号化ソリューションは自社のワークフローにあったものを選択すべきだ。暗号化ソリューションにワークフローを合わせると決してうまくいかない。○評判をチェック意思決定を下す前に、その製品についての評判や評価をチェックしたい。業界アナリストやレビュー専門家、そして顧客の声は参考になるはずだ。○拡張性組織の成長に合わせて拡張できる暗号化ソリューションを。○規制遵守データが漏洩するという最悪の事態が起きたとき、暗号化対策を講じておくことでデータ窃盗者の手に渡ったとしてもデータは読むことができず、何の利用価値もないものとなる。垂直業界や固有のデータ保護法や規制のある地域にいる場合、監査担当はデータが暗号化されていたという証拠が必要だ。
2015年09月17日さて、第3回まででデータを入力するテーブルが完成したので、今回は実際にデータを入力/変更/追加して第1回の表1を再現していきましょう。○データの入力(INSERT文)まずは、1人目の佐藤一郎君のデータを挿入します。直接端末に命令を打ち込むよりも、ご利用のテキストエディタに入力してコピー&ペーストすると見通しがよくなります。mysql> insert into first>(name, jpn, math, eng, created, modified) values>(’佐藤一郎’, 94, 87, 60, now(), now());Query OK, 1 row affected (0.00 sec)データの挿入にはINSERT文を使います。「insert into first」という命令を和訳すると、「テーブルfirstに以下の情報を挿入せよ」となります。2行目以降を見ると、テーブルfirstの各フィールドであるname, jpn, math……などを指定した上で、個別の値を入力していることがわかると思います。valuesの前後で各データが対応していないと正しく入力されませんので、エラーが生じた場合には、「nameと佐藤一郎、jpnと94、……」というように、各フィールドと各データの1対1対応をチェックしてみてください。それでは残りのメンバーのデータも入力していきましょう。以下のように一気に入力することができます。各メンバーの情報を区切るときには「, (カンマ)」を、最後のメンバーの情報の後に「; (セミコロン)」を付けることを忘れないようにしてください。mysql> insert into first>(name, jpn, math, eng, created, modified) values>(’鈴木二郎’, 62, 80, 49, now(), now()),>(’高橋三郎’, 40, 77, 90, now(), now()),>(’田中四郎’, 78, 59, 42, now(), now()),>(’伊藤五郎’, 45, 87, 56, now(), now());Query OK, 4 rows affected (0.01 sec)Records: 4 Duplicates: 0 Warnings: 0ここに「id」が書かれていないことに気付かれた方もいるのではないかと思います。オプションで自動連番(auto_increment)を設定したため、各フィールドが追加される度に自動でidが割り振られています。また、now()は現在時刻を入力する関数です。○データの選択(SELECT文)果たして、無事にデータは挿入できたのでしょうか。ここではテーブルに入力されたデータを操るためのSELECT文をご紹介します。SELECT文の基本パターン先ほど挿入したデータの内容を確認するためには、「select * from first」を実行します。すると、入力したデータがテーブルの形で表示されます。mysql> select * from first;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 1 | 佐藤一郎| 94 | 87 | 60 | 2015-05-14 04:49:07 | 2015-05-14 04:49:07 || 2 | 鈴木二郎| 62 | 80 | 49 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 3 | 高橋三郎| 40 | 77 | 90 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 4 | 田中四郎| 78 | 59 | 42 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 5 | 伊藤五郎| 42 | 87 | 56 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 |+-------------------------------------------------------------------------------+5 rows in set (0.00 sec)「select * from first;」は「first という名前のテーブルからすべてのデータ(*)を表示しなさい」という意味です。この「*(アスタリスク)」の意味を理解するために、以下の命令を実行してみます。mysql> select name from first;+-------------+| name |+-------------+| 佐藤一郎|| 鈴木二郎|| 高橋三郎|| 田中四郎|| 伊藤五郎|+-------------+5 rows in set (0.00 sec)これは、「firstという名前のテーブルから氏名のデータ(name)を表示しなさい」という意味です。また、氏名と国語の得点を表示したい場合には、以下の命令を実行します。mysql> select name, jpn from first;+-------------+------+| name | jpn |+-------------+------+| 佐藤一郎| 94 || 鈴木二郎| 62 || 高橋三郎| 40 || 田中四郎| 78 || 伊藤五郎| 42 |+-------------+------+5 rows in set (0.00 sec)また、「order by」を利用することでデータを昇順(あるいは降順)に並び替えることができます。mysql> select * from first order by jpn;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 3 | 高橋三郎| 40 | 77 | 90 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 5 | 伊藤五郎| 42 | 87 | 56 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 2 | 鈴木二郎| 62 | 80 | 49 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 4 | 田中四郎| 78 | 59 | 42 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 1 | 佐藤一郎| 94 | 87 | 60 | 2015-05-14 04:49:07 | 2015-05-14 04:49:07 |+-------------------------------------------------------------------------------+5 rows in set (0.00 sec)この場合、「order by jpn」ですので、国語の成績を昇順(小さい値から順番に並べること)で並び替えることになります。「order by jpn desc」とすることで降順(大きい値から順番に並べること)になります。このように、SELECT文を使うことで、テーブル内のデータを自由に取り出したり並び替えたりすることができます。SELECT文の応用パターン(条件付き抽出)今回は、計5名の試験結果のみをテーブルに格納してあるので気になりませんが、たとえば、10,000人の受験者を抱える試験などの場合、全員分のデータを一覧表示しても有益な情報は得られません。そこで重要になるのが、条件付き抽出を行うための「where句」の利用です。たとえば、国語で90点以上の成績を収めた人物のみを呼び出すためには、以下の命令を実行します。mysql> select * from first where jpn >= 90;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 1 | 佐藤一郎| 94 | 87 | 60 | 2015-05-14 04:49:07 | 2015-05-14 04:49:07 |+-------------------------------------------------------------------------------+1 row in set (0.00 sec)「select * from first where jpn >= 90」を和訳すると、「firstという名前のテーブルから国語で90点以上獲得した人物の全データを抽出せよ」ということになります。where以下で「90点以下の人物だけを抽出」という条件を課しているということです。90点以下の人物を呼び出す場合は、不等号を逆にすることで同様に呼び出すことができます。また、国語でちょうど90点を獲得した学生のみを呼び出すための命令は以下のようになります。mysql> select * from first where jpn = 90;Empty set (0.00 sec)該当者がいない場合には、Empty setというメッセージが表示されます。「=(イコール)」の代わりに「!=(ノットイコール)」をすると、90点ではないすべての人物を抽出できます。文字列を呼び出す場合には、必ず「’(シングル・クオテーション)」で囲むようにしてください。たとえば、高橋三郎君の成績を呼び出す場合は、以下のような命令になります。mysql> select * from first where name = ‘高橋三郎’;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 3 | 高橋三郎| 40 | 77 | 90 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 |+-------------------------------------------------------------------------------+1 row in set (0.00 sec)しかし、すべての学生のフルネームを覚えているとは限りません。苗字しか覚えておらず高橋一郎なのか二郎なのか三郎なのか……というように悩んだ場合には、以下のように命令すれば呼び出すことができます。mysql> select * from first where name like ‘高橋%’;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 3 | 高橋三郎| 40 | 77 | 90 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 |+-------------------------------------------------------------------------------+1 row in set (0.00 sec)%は任意の文字列を表しているため、テーブルに高橋六郎君、高橋七郎君の情報が登録されている場合には、この二名も同時に呼び出されることになります。逆に、名前しか覚えていなくて佐藤三郎君なのか山田三郎君なのか高橋三郎君なのか…というように悩んだ場合には、上記の「高橋%」を「%三郎」にすることで呼び出すことができます。ほかにも、さまざまな命令を使いデータを絞り込むことができます。たとえば、国語の得点が40点~70点の範囲の学生を呼び出す場合には「between」を使います。mysql> select * from first where jpn between 40 and 70;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 2 | 鈴木二郎| 62 | 80 | 49 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 3 | 高橋三郎| 40 | 77 | 90 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 5 | 伊藤五郎| 42 | 87 | 56 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 |+-------------------------------------------------------------------------------+3 rows in set (0.00 sec)また、「or」を使うと、国語あるいは英語の得点が90点以上の人物を呼び出したりすることもできます。mysql> select * from first where jpn >= 90 or eng >= 90;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 1 | 佐藤一郎| 94 | 87 | 60 | 2015-05-14 04:49:07 | 2015-05-14 04:49:07 || 3 | 高橋三郎| 40 | 77 | 90 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 |+-------------------------------------------------------------------------------+2 rows in set (0.00 sec)上記の「or」を「and」に変えれば、国語と英語の両方の得点が90点以上の人物を呼び出せます。以上は一例ではありますが、where句を利用することで、自分の思いどおりのデータを引き出せるようになるイメージは湧いたのではないかと思います。○データの修正(UPDATE文)データベースに修正を加える場合には、UPDATE文を利用します。たとえば、高橋三郎君の国語の得点を40点から80点に変更する場合、以下のような命令になります。mysql> update first set jpn = 80 where id = 3;Query OK, 1 row affected (0.01 sec)Rows matched: 1 Changed: 1 Warnings: 0ここで使われた命令「update first set jpn = 80 where id = 3」を和訳すると、「firstという名前のテーブルのid=3(高橋三郎君)の国語の得点を80点に更新せよ」ということになります。この場合、英語や数学の得点などほかのデータは特に変更することはありません。もし、2つ以上のデータを更新したい場合には、以下のように「, (カンマ)」でつなぐと正しく変更することができます。国語の得点を降順で表示すると、修正事項が反映されていることがわかります。mysql> select * from first order by jpn desc;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 1 | 佐藤一郎| 94 | 87 | 60 | 2015-05-14 04:49:07 | 2015-05-14 04:49:07 || 3 | 高橋三郎| 80 | 90 | 70 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 4 | 田中四郎| 78 | 59 | 42 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 2 | 鈴木二郎| 62 | 80 | 49 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 5 | 伊藤五郎| 42 | 87 | 56 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 |+-------------------------------------------------------------------------------+5 rows in set (0.00 sec)○データの削除(DELETE文)データを削除する場合には、DELETE文を使います。mysql> delete from first where id = 3;Query OK, 1 row affected (0.00 sec)「delete from first where id = 3」を和訳すると、「firstという名前のテーブルのid=3(高橋三郎君)のデータを削除せよ」となります。where句以下を書かないとテーブル内のすべてのデータが消えることになるので、気をつけてください。降順で表示すると、修正事項が反映されていることがわかります。mysql> select * from first order by jpn desc;+-------------------------------------------------------------------------------+| id | name | jpn | math | eng | created | modified |+-------------------------------------------------------------------------------+| 1 | 佐藤一郎| 94 | 87 | 60 | 2015-05-14 04:49:07 | 2015-05-14 04:49:07 || 4 | 田中四郎| 78 | 59 | 42 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 2 | 鈴木二郎| 62 | 80 | 49 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 || 5 | 伊藤五郎| 42 | 87 | 56 | 2015-05-14 04:56:38 | 2015-05-14 04:56:38 |+-------------------------------------------------------------------------------+4 rows in set (0.00 sec)○フィールドの追加(ALTER文)最後に、新しいフィールドを追加する場合を考えます。例えば、国語、数学、英語に加えて、理科の得点を加えたい場合の命令は、以下のようになります。mysql> alter table first add sci int after eng;Query OK, 4 row affected (0.04 sec)Records; 4 Duplicates: 0 Warnings: 0「alter table first add sci int after eng」を和訳すると、「firstという名前のテーブルのフィールドengの後ろにデータ型intのフィールドsciを追加せよ」となります。テーブルの構造を「desc first」で確認してみると、たしかに追加されていることがわかります。mysql> desc first;+-----------------------------------------------------------------+| Field | Type | Null | Key | Default | Extra |+-----------------------------------------------------------------+| id | int | NO | PRI | NULL | auto_increment || name | varchar(255) | YES | | NULL | || jpn | int | YES | | NULL | || math | int | YES | | NULL | || eng | int | YES | | NULL | || sci | int | YES | | NULL | || created | datetime | YES | | NULL | || modified | datetime | YES | | NULL | |+-----------------------------------------------------------------+7 rows in set (0.00 sec)また、テーブル内のフィールド名やデータ型を変更したい場合には、以下のような命令を使います。mysql> alter table first change jpn phys int;Query OK, 0 row affected (0.01 sec)Records; 0 Duplicates: 0 Warnings: 0フィールド名「jpn」をデータ型intのフィールド名「phys」に変更したということです。
2015年09月09日データアーティスト代表取締役の山本覚です。前回は、マーケターを対象に、データサイエンスの最新トレンド「ディープラーニング」について、その基礎と活用法を紹介しました。今回は、アンケート調査について解説します。○アンケート調査は、今も昔も重要な手法アンケート調査とは、ご存じの通り、古くからあるマーケティング手法の1つ。モニターに一定の選択肢を提示し回答をもらうことで、ノイズを含まない、リサーチャーが知りたい情報をダイレクトに仕入れることが可能です。同手法の起源は、紀元前3,000年頃までさかのぼります。記録によると、古代エジプトではピラミッド建設のために人民の慣習や信条を調査したようです。現代では、たとえば、製品開発前に行う顧客の意識調査や、広告接触後のブランドに対する意識変化の調査などに用いられていますね。本連載のテーマ「想像力を掻き立てる」という視点で見ると、アンケート調査は、データに基づき顧客像を特定したのち、施策の立案などに想像力のリソースを集中するために有効な手法だと言えます。2014年12月、マクロミルが蘭メトリックスラボを買収する際、同社の小西氏が「マーケティングリサーチ市場は国内で1,800億円、海外ではなんと4兆円にものぼる」と語っています。マーケティングリサーチには、アンケートのほか、グループインタビューやデプスインタビュー(1対1)、覆面調査など数多くの手法があり、その中でもアンケートは、定量的なデータが比較的容易に集められるため、評価指標や次の一手を見出すために実施する企業が多いです。最近ではネット上で簡易にアンケートが実施できるネットリサーチが登場し、市場の約3分の1を占めるなど、まだまだ今後も成長する市場だと感じます。○一方で、課題もあるこのように利点が多いアンケート調査ですが、課題もあります。アンケートの結果はあくまで調査結果で、そこから直接的な施策につながりにくいという点です。例えば、「ある保険サービスの広告メッセージを設計するためにアンケート調査を行った」というケースを思い浮かべてください。アンケートの質問項目として、「申込みを検討中」や「どういうサービスかわからない」というような選択肢を設ければ、商品への興味関心の度合いを知ることができます。ここでは、「申込みを検討中」と回答した人を「顕在層」、「どういうサービスかわからない」と回答した人を「潜在層」と定義します。調査後、顕在層が60%、潜在層が40%だということが明らかになったとします。顕在層には申し込みを後押しするため、類似商品との比較やその優位性を訴求するとよいです。一方、潜在層には商品理解を促すため、コンセプトの説明などが効果的だと判断できます。このように、本来であればアンケート調査の回答を参考に、個人にフォーカスしたメッセージを送るべきですが、実際には多数決のように、調査結果で最も多い「顕在層」にのみメッセージを打ち出しているケースを度々見かけます。これでは、せっかくの調査結果と実際の施策が乖離してしまい、効果が薄くなってしまいます。回答者すべてに効果のある施策を打ち出すため、アンケートの集計時に時期や時間帯、性別、年代別といったセグメントで顧客をグルーピングし、「ある時期は20代顕在層からの相談が多く、ある時期には潜在層女性の相談が増える」というように、施策を打つタイミングを分けるという方法があります。しかし、これは、アンケート結果を集計しながら少しずつ顧客の特徴を揃えていくため、精度を高めることが難しく、どうしても別々の層の顧客が混ざってしまいます。このように、アンケートの結果を顧客の興味関心に合わせて細かく仕分けていく作業は、とても手間がかかります。そのため、集計作業に時間や頭のリソースがとられてしまい、本来行うべき施策の立案、クリエイティブ的な視点で言えば「メッセージコピーの設計」にリソースをさけなくなってしまうわけです。○解決策は、アンケート結果とWebサイトの訪問者を紐づけることしかし、このような課題は、DMP(データマネジメントプラットフォーム)の出現により、急速に解決されることになりました。DMPとは、Webページの閲覧情報や商品の購買履歴といったユーザー情報を、マーケティング活動において利用しやすい形式で蓄積できる情報基盤のことです。2013年以降、マーケティング業界において急速にその認知が拡大しました。DMPは、基本的に、各ベンダーが発行するプログラム(タグ)をWebサイトに設置することで利用できます。これにより、Webサイトに訪れたユーザーのcookieや閲覧コンテンツ、検索キーワードなどから、デモグラフィックスや嗜好情報までを抽出・貯蓄することができるようになります。さて、このユーザーIDですが、DMPのプログラムをネットリサーチサービスのWebサイトに埋め込むことで、アンケートの回答と紐付けることができます。先ほどの例であれば、商品への興味関心がわかる回答をユーザーIDにラベルし、「回答に合わせて適した広告を表示させること」も実現可能です。つまり、アンケート調査の結果と施策を直接関連付けることができるというわけです。○データに基づき、アンケートの回答を拡張するここでもう一つ問題が発生します。「Web上のアンケートを、自社のすべての顧客が行ってくれるわけではない」ということです。実際、アンケートに回答してくれる顧客は一部に留まります。つまり、ターゲットとなる顧客すべてにラベリングを行うことは不可能となるのです。そこで、アンケートを取れなかった顧客に関しては、アンケート結果が取れたユーザーとの類似性をもとに、「この顧客がもしアンケートに答えていれば、きっと顕在層だろう」というようにアンケートの答えを類推していきます。これは、過去のアンケートと比較し、ユーザーごとのビッグデータをWeb上において取得していることから実現する仕組みです。例えば、ユーザーによっては過去の検索キーワードを数万件というレベルでストックしています。その中から、アンケート結果の類推に役立つデータを抽出・分析することで、(アンケート上のデモグラフィックスから推測するより)はるかに高精度に、顧客の嗜好を予測することができます。この技術は、アドテクノロジーの分野においてオーディエンス拡張などのソリューションとして用いられており、そのコア技術として機械学習の分類機を活用しています。本連載の第一回で解説したディープラーニングも、今後はこのようなオーディエンス拡張のなかでどんどん取り込まれていくと考えています。最後に、実際にアンケート結果の拡張を行う際に使用されるデータを紹介します。下の図表は、インティメートマージャーがマーケティングアプリケーションの保険に関するアンケート結果とユーザーIDの連携を行い、アンケートの回答結果ごとに、回答者が普段Web上で検索しているキーワードを集計した結果の一部となります。この図から分かるように、顕在層は「医療」や「貯金」に関するキーワード群を検索しやすい傾向にあり、特に「入院」というキーワードの検索数は潜在層と比較し4倍以上の確率で検索しています。これらのキーワード群の違いから、アンケート結果のないユーザーであっても、アンケート結果を予測することが可能となるわけです。さて今回は、従来から存在するマーケティング手法「アンケート調査」において新たなテクノロジ―「DMP」を活用することで、調査結果と施策が直結しないというこれまでの課題が解決できることを紹介しました。これにより、マーケターは、顧客が商品にどれくらい興味関心を抱いているかを、性別や居住地、年収といったデモグラフィックスに基づきセグメントしていく作業から解放され、各顧客層に対しどのようなメッセージを伝えるかというクリエイティブな部分に集中できるようになるのです。○執筆者紹介山本 覚 (やまもと さとる)東京大学 博士課程 在籍時に松尾豊准教授の研究室で人工知能を専攻。その後、アイオイクス株式会社のLPO事業にプロダクトマネージャーとして参画し、導入者数400社超のLPOツール「DLPO」の全アルゴリズムを開発する。データマイニングを用いたWebページの改善実績は100社以上。「論理化されたものはシステムで処理し、人が人にしかできない営みに集中する環境を作る」ことを理念とし、データアーティスト株式会社 代表取締役社長に就任、現在に至る。
2015年09月08日ジーニーは9月3日、クロス・マーケティンググループのディーアンドエム(D&M)と共同で、「Geniee DMP」を用いたオーディエンスデータ提供サービスを開始した。同サービスは、リーチしたい生活者をターゲティングするための軸として、属性情報や意識データなどのオーディエンスデータを提供するものとなる。D&Mでは、アンケートを通じて許諾を取った会員のCookie情報に紐づいたさまざまな属性情報や意識データを取得しており、性別、年齢など基本的な属性情報に加え、趣味・嗜好などによるターゲット層の抽出が可能なユーザーデータを利用したオーディエンスデータの提供が可能。また、広告配信時のターゲティングだけでなく、自社で保有しているCRMデータへ結合することで顧客層の可視化にも利用できるという。
2015年09月04日データアーティストは9月2日、同社の提供するLPOツール「DLPO」とPtmindが提供するデータアナリティクス「Ptengine」を連携したことを発表した。Ptengineは、PCやスマートフォン、タブレットなど訪問者が利用するデバイスを問わず、クリックや視線集中度、スクロール到着度といったデータを取得しサーモグラフィー表示する分析ツール。一方、DLPOは、A/Bテストや多変量テスト、ターゲッティングを行うことによりCVR向上を実現するLPOツールとなる。今回の連携により、訪問者の動線・目線の動きをより細かく把握し、デバイスや目的にとらわれることなく効果の高いWebサイトの構築と企画提案が可能になるという。具体的には、広告のリンク先としてDLPO タグを設置したリダイレクト元ページを用意し、A/Bテストを設定。ユーザーが広告をクリックし、リダイレクト元ページを訪問すると設置されたDLPO タグが読み込まれ、DLPO が各パターンページへのリダイレクトスクリプトを出力する。その際、Ptengine 解析用にURLへパターンを識別するためのパラメーターを付与。Ptengineが同パラメーターをもとに解析を実行する仕組みだ。
2015年09月03日データ・アプリケーションは、統合EDI(電子データ交換)製品「ACMS(エーシーエムエス)シリーズ」の最新版(バージョン4.3)を販売開始した。発売するのは、企業内外のシステムおよびアプリケーションを連携するB2Bインテグレーション・サーバ「ACMS E2X(イーツーエックス)」、および、企業間のデータ交換を行う環境を構築するB2Bサーバ「ACMS B2B」の2製品。最新バージョンでは、プロセスや稼働記録、データ送受信要求などを監視し、プロセス障害やデータ送受信の遅延や滞留などを運用担当者にメール通知し、安定的なEDI業務を支援する「ACMS運用監視機能」を提供。また、2GB以上の大容量ファイル送受信を可能にするなど、通信機能や運用機能を強化しているという。「ACMS運用監視機能」は、監視や障害検知機能を強化するためオープンソースの運用管理ソフトウェア「Hinemos」を採用。ACMSの稼働記録やプロセス、データ送受信要求の滞留などを監視し、障害が発生した場合やしきい値を超えた際、運用担当者にメール通知する。また、Webベースの運用画面上で時間帯別の利用回線数やデータ送受信要求の滞留数などをグラフで確認できる。さらに、指定期間のデータ送受信の一覧や通信記録の集計しCSV出力できる。販売価格(税別)は、ACMS E2X 150万円 (基本機能)~、ACMS B2B 50万円 (基本機能)~、 ACMS運用監視機能(オプション)50万円~。
2015年09月03日アクシバルは8月28日、意識・購買・メディア接触データを統合した同社独自のデータベース「3Dデータベース」の意識データを用いてユーザーを分類した新しいDMP「MindDMP」を開発したと発表した。これまでデジタルメディアを使ったターゲティングは、サイトに登録された性年代情報を使った「デモグラフィックターゲティング」、過去のサイト訪問履歴などの行動データを使った「行動ターゲティング」、自社サイトへの訪問履歴を使った「リターゲティング」が使われてきた。これに対し、MindDMPはターゲティングの方法に、ユーザーがどのような価値観を持っているかという“人となり”の視点を加えた。リターゲティングでは、顕在化した顧客をターゲティングするが、MindDMPはまだ需要が顕在化していない見込み顧客を判別する視点として利用できる。「何を購入しているのか(購入履歴)」がログで分析できる「3Dデータベース」を使って、自社商品のユーザーの意識・価値観の特徴から見込み顧客の意識・価値観を特定。特定した意識・価値観を持った人に広告配信を可能にするのがもっとも大きな特徴となっている。3Dデータベースでは、生活者が「何を見ているか(メディア接触)」ということもわかるため、これまで分断されがちだったマスメディアとデジタルメディアのプランニングを統合することも可能になるという。
2015年08月31日オプティムは8月27日、ドローン、IoT、ウェアラブルのデジタルビッグデータを統合管理し、「ビッグデータ解析」、「画像解析」、「遠隔制御」を行うドローン対応ビッグデータ解析プラットフォーム「SkySight」を発表した。同プラットフォームは、スキャニングデータ、センシングデータ、デジタル作業ログデータを組み合わせて、複合的な情報による判断や新たな発見をすることが可能。また、過去データをさかのぼって解析を行うことも可能であり、経過比較による情報の判断や新たな発見を行うことを可能とする。また、ビッグデータとして蓄積したデジタルデータに対して、各産業の専門的な知見(アルゴリズム)を組み込むことで、自動解析を実施することも可能。さらに、同社の有するリモートテクノロジーにより、ウェアラブルデバイスを遠隔地から制御を行うことも可能としている。具体的な機能としては、「ドローンによるスキャニングデータのマッピング」、「ウェアラブルデバイスによるデジタルデータのマッピング」、「各種センサデータのマッピング」、「ドローンによるスキャニングデータの画像解析と異常検知」などが挙げられるという。なお、同社は同日、佐賀大学農学部ならびに佐賀県生産振興部と、佐賀県が世界1位のIT農業県となることを目指し、連携協定を締結。この取り組みの中で、デジタルスキャニングビッグデータを活用した、農業ITの研究・実践を行っていくとしている。
2015年08月28日