エーザイは5月21日、研究者向けに臨床試験データの公開を開始したと発表した。この取組は外部ウェブサイトを利用して行われており、研究者が臨床試験データへのアクセスをリクエストすると、エーザイが関与しない独立審査委員会による審査が行われる仕組みとなっている。審査でリクエストが承認されると、匿名化された臨床試験データへのアクセス権が研究者に付与される。対象となっている臨床試験データは2014年1月1日以降に米国、欧州に申請し、承認され製品になったもの。なお、同ウェブサイトでは臨床試験の情報が英語で掲載されている。エーザイは「臨床試験に関する情報およびその結果をより広く公開することは、医学、科学の発展につながり、公衆衛生の向上に寄与するものと考えています」とコメントしている。
2015年05月21日サイオステクノロジーは、すでに5月26日と6月4日に、クラウド型データマネジメントサービス「Treasure Data」及び人気のデータビジュアライゼーションツール「Tableau」を中心に、ユーザーが利用体験できる、無料ハンズオンセミナーを実施すると発表したが、好評につき、6月16日と6月24日にも追加で実施すると発表した。○セミナー概要日時:5月26日(火)、6月4日(木)、6月16日(火)、6月23日(火)時間はいずれも 15:00~17:30(受付14:30~)会場:サイオステクノロジー本社 3F 「SIOS Learning」ルーム[Map]東京都港区南麻布2-12-3サイオスビル定員:各回10名まで講演内容:・ビッグデータサービスの紹介・Treasure Dataのクライアントを使った基本操作・Tableau Desktop を使ったデータの基本操作(バージョンは9.0を使用)参加費:無料締切:開催日の2営業日前まで注意事項:参加に際して、自身のノートパソコンを持参する申込/詳細:こちら
2015年05月21日Talendとデータキュレーションは5月19日、オープンソースソフトウェア版である Talend Open Studio(TOS)の普及と技術支援、および共同マーケティングに関する協業を開始したと発表した。データおよびビッグデータ統合ツールを提供するTalendと、社内外の多様なデータを、最適なタイミングで、必要な人やシステムにデータキュレーション(データ選別)して提供できるデータキュレーションが連携することで、さまざまな課題がある企業を支援していく考えだ。両社はTOSの普及と商用版の拡販を目的とした共同マーケティングを展開していく予定。
2015年05月20日サイオステクノロジーは、5月26日と6月4日に、クラウド型データマネジメントサービス「Treasure Data」及び人気のデータビジュアライゼーションツール「Tableau」を中心に、ユーザーが利用体験できる、無料ハンズオンセミナーを実施すると発表した。○セミナー概要日時:5月26日(火)および6月04日(木) 15:00~17:30(受付14:30~)会場:サイオステクノロジー本社 3F 「SIOS Learning」ルーム[Map]東京都港区南麻布2-12-3サイオスビル定員:各回10名まで講演内容:・ビッグデータサービスの紹介・Treasure Dataのクライアントを使った基本操作・Tableau Desktop を使ったデータの基本操作(バージョンは9.0を使用)参加費:無料締切:開催日の2営業日前まで注意事項:参加に際して、自身のノートパソコンを持参する申込/詳細:こちら
2015年05月18日ALBERTは5月13日、エム・データが生成、保有するテレビ放送データ(TVメタデータ)と関連するビッグデータを統合的に分析し、データマネジメントプラットフォーム(DMP)を通じて企業のOtoOtoO施策を支援する新たなサービスを開始すると発表した。「OtoOtoO」とは、オフライン(またはオンエアー)・ツー・オンライン・ツー・オフラインの略称で、特にテレビ放送との連係においてはT2O2O(テレビ・ツー・オンライン・ツー・オフライン)と呼ぶこともある。放送やデジタルサイネージなど、オフラインにおけるコミュニケーションから消費者を一旦Webサイトやスマートフォンアプリなどのオンラインに誘導して動機付けをしたうえで、さらに店舗やイベントなどのオフラインに誘導する施策やコミュニケーションの方法を表す言葉だ。両社は、エム・データが生成、保有するTVメタデータを活用し、ALBERTが開発した「smarticA!DMP」を経由して、店舗やイベント、デジタルサイネージやスマートフォンアプリなどを連係したOtoOtoO施策の実行を支援。また、TVメタデータとテレビ視聴ログおよび関連するビッグデータを連係して分析するコンサルティングサービスも提供する。ALBERTは、音声による自動コンテンツ認識(ACR)技術に強みを持つエヴィクサーとの資本業務提携を2015年3月24日に発表した。このエヴィクサーのACR技術により「誰が、どの放送を視聴しているか」をリアルタイムに把握できるうえ、そこにエム・データのTVメタデータが加わることで「誰が、どんな放送を」視聴しているかという情報も加味した分析が可能となった。
2015年05月14日観光庁は5月1日、訪日外国人旅行者数2,000万人の達成に向け、ビッグデータを活用した訪日外国人観光客の行動・ニーズ調査を開始すると発表した。同調査では、訪日外国人旅行者のTwitterやWeiboなどのSNSにおける投稿(英語、中国語、韓国語)から、興味・関心や満足度、今後改善すべき受入体制などについて情報を抽出。対象地域は、韓国、中国、台湾、香港、アメリカで、10万人/月を目標数としてデータを分析するという。また、GPS地図アプリ「NAVITIME for Japan Travel」を使って、訪日外国人旅行者の位置情報を5月中旬(予定)以降に収集し、日本全体のマクロな動態や、大都市・地方におけるミクロな動態などについて調査する。調査分析結果は、地方公共団体や観光関係者に公表される予定だ。
2015年05月01日NTTデータおよびNTTデータ数理システムは4月27日、データウェアハウス(DWH)に蓄積されるより大量なデータに対してより高速にデータ分析を行うためのIn-Database Analytics技術を共同で開発し、HPC(High Performance Computing)環境において大規模ベンチマークを実施した結果、従来比1000倍以上の件数の高速データ分析に成功したと発表した。両社は、従来のデータ分析技術ではビッグデータを対象とした場合、処理速度や扱えるデータ量に限界があるとして、分析処理(=Analytics)をデータベースの中で(=In-Database)実施する技術開発(以下、In-Database Analytics技術)に取り組んできた。今回の大規模ベンチマークでは、In-Database Analytics技術をSAPのDWH「SAP IQ」に適用し、インテル製最新プロセッサを搭載した業界標準サーバの環境において分析処理性能を測定した。その結果、R言語などの従来の分析ツールや既存製品の処理限界量に比べ、1000倍以上のデータ件数が分析可能になり、単位時間内における処理速度も大幅に向上することを確認したという。また、1000並列以上という大規模環境においてもサーバ数やコア数に合わせて性能向上する、高い性能拡張性を確認。そのほか、HPC環境においてノード数を1ノードから10ノード、20ノードに増加させた場合、SAP IQの卓越した並列分散処理に相乗して、10ノードで約5倍、20ノードで約10倍と線形的に処理性能が向上する高いスケールアウト効果が確認された。
2015年04月28日アイレップは4月20日、リスティング広告・ディスプレイ広告向けデータアナリティクス(DA)サービスを開始したと発表した。同サービスの主な対象は、データアナリストやデータサイエンティストなどのスペシャリストを有しない企業や、データ活用がデジタルマーケティング戦略に組み込まれていない企業。多変量解析・データマイニングといった数理アプローチの実践により、運用型広告のリスティング広告/ディスプレイ広告の成果を改善できる企業を増やしていくために、まずはβ版において、広告施策の「正確性」「客観性」「効率性・効果性」向上の検証を進めていくという。リスティング広告・ディスプレイ広告向けDAサービス概要(β版)は、次のとおり。○ディスプレイ広告向け今後は、更なる巨大化・複雑化が予測されるデータに、よりスピーディーに対応できるよう、ルールや知識抽出を自動化する機械学習のアプローチも採用していく予定。
2015年04月21日米Gnipが4月11日に発表したTwitterデータ再販の独占的な取り扱いについて、国内における再販パートナーのNTTデータが外れるとの報道が一部で行われていた。15日にTwitter Japanは、国内における取り扱いについてブログで説明を行っている。米Gnipは2014年5月、米Twitterに買収された。TwitterはSNSのデータ収集を行い、企業に提供する再販業者にデータ提供を行っているが、そのうちの一つであるGnipを買収した。データ提供は「Firehose」と呼ばれているが、日本ではNTTデータが取り扱いを行っている。今回、Gnipが再販事業者に対して8月中旬に再販事業者へのデータ提供を取りやめると発表。これにより、国内におけるNTTデータへのデータ提供も取りやめると報道が行われていた。しかし15日、Twitter Japanがブログを公開。データの再販契約(ライセンス契約)の移行プロセスは1年ほど前から開始したとのことで、8月のデータ提供取りやめは、あくまで"スムーズな移行"によるもののようだ。同社によると、NTTデータとは戦略的パートナーであることに変わりないとしている。ただ、Twitter & GnipとNTTデータが「次のステージに向けた話し合いを続けている」ことは確かのようで、データ再販パートナーから「戦略的ソリューションパートナー」に変わるとしている。もちろん、TwitterのデータをNTTデータが取り扱う点については変わらないとのことだが、「既存契約の移行については、案件特性を踏まえて個別に精査する。両社による新しい構想は、近々正式に案内する」と発表している。なお、米国でデータ再販を行っているDatasiftは、公式ブログでTwitterがGnipによる再販の独占的な取り扱いにより、Datasiftの顧客の80%は、Twitterが提供するサービスでは置き換えることができないとの抗議を行っている。
2015年04月15日FULLERは4月13日、同社が提供するスマホアプリ利用動向調査ツール「App Ape Analytics」に、新たに分析データ項目や機能を追加した「App Ape Analytics Premium版」のサービスを開始すると発表した。「App Ape Analytics」では、数万以上のサンプル数を集計した統計データをもとにした、アプリの利用情報や詳細情報、性別年齢を含めるユーザーのデモグラフィック情報を、Webやモバイル上で確認することができる。スマホアプリ市場や競合の分析ができるだけでなく、過去のデータも分析できるため、それぞれの分析データ項目の数値の推移を分析し、長期での市場・トレンドの変化や、競合の調査が可能となる。Premium版では、「時間帯別アクティブ率」「HAU(Hourly Active Users)」「同時所持率」といった分析データ項目を追加。これにより、データに基づいたより精度の高いマーケティング企画、新製品開発や、CM放映などの効果検証に役立てることが可能となった。また、グラフに表示された時系列データの実際の数値を、ボタンひとつでダウンロードできる「CSVダウンロード」も新機能として追加された。Premium版は、毎月自動更新で料金49万8,000円/月から、アプリ数無制限での提供となる。2013年11月以降のデータであれば無制限で利用が可能。
2015年04月14日カンムは3月31日、オンアス契約のない加盟店も含めた決済データを整備、拡張し、マーケティングデータとして活用可能なデータクレンジングサービス+BIツール「Kanmu Payment Analytics」ベータ版をクレジットカード会社向けのソリューションとしてリリースした。同社は、独自アルゴリズムを利用することで、クレジットカードの決済トランザクションデータから、オンアス契約のない加盟店を含む形での決済マスタデータを生成。店舗のデモグラフィック情報、加盟店属性情報などを付与することでデータ分析の幅を拡げ、さらに、それらのデータと顧客属性統計情報、顧客行動統計情報を業界横断的に参照できるBIツールを実装した。クレジットカード会社や加盟店は、マーケティング戦略が実際にはどのように自社の決済データとして反映されたかを検証し、業界のなかでどのような特徴があるかを視覚的に把握することが可能となる。クレジットカード会社が同ツールを導入する際には、個人情報を省いた形でバッチで決済データを連携、自動処理を行い、Web経由で閲覧することができる。
2015年04月01日NTTデータ四国、NTTデータ経営研究所、NTTデータの3社は3月27日、香川県農業協同組合(香川県農協)に対して、相続業務の高度化に向けたシステムの開発に3月末から着手すると発表した。高齢化社会の進展や2015年1月からの相続税法及び租税特別措置法の一部改正により、相続業務の相談・処理件数の従来以上の増加が想定される中で、組合員(被相続人)や次世代(相続人)といった顧客や職員に対して、総合事業としての相続業務の支援と取り組みの強化がより一層求められるという。NTTデータ四国とNTTデータ経営研究所は、香川県農協が実施する相続業務のコンサルティングを行うことにより、導き出した施策を基に相続の事務手続を支援するシステムの開発を、2015年度上期を目途に行う予定だ。なおNTTデータ四国は、今回の取り組みで開発するシステムをベースに、全国のJAグループから個別に支援システム導入を受注することを目指す。現在、香川県農協で作成している全事業共通業務に関する事務処理手順書に対して、総合事業として事業間がより連携して相続業務を一元的に対応・管理できるよう、手順書の見直しを行う。また、顧客の利便性向上に向けて、必要書類を共通化する。NTTデータ経営研究所はコンサルタントとして、香川県農協が実施するこれらの作業をサポートする。NTTデータ四国は、農業協同組合として必要な相続の事務手続(全事業の相続手続)を支援できるシステムを提供する。今後は、相続業務の整理および相続の事務手続支援システムの導入に向けて、NTTデータグループを挙げて、コンサルティング・サービスからシステム導入までを一貫してサポートしていくという。
2015年03月30日米テラデータは3月17日(現地時間)、SAP ERPアプリケーションからのニア・リアルタイムデータを、エンタープライズ用途の分析やレポーティング・アプリケーションに取り込むことを可能にする「Teradata Analytics for SAP Solutions」を発表した。同機能拡張はTeradata Database 13.10以降と互換性があり、既に全世界で提供開始したとのこと。今回発表した機能拡張は、企業が自社のERPアプリケーションに存在するビジネス価値の発見を支援するものという。自動的にSAP ERPから最新のデータを収集・転送し、統合データ・ウェアハウス(IDW)内に格納したSAP以外のデータと結合する。これにより、幅広い層のユーザーがインメモリ・スピードでのTeradataインデータベース処理のパワーを活用し、レポーティングやアドホック分析、高度な分析を実行可能になるとしている。全てのデータをTeradata IDW内に統合すると、ユーザーは追加設定せずとも、150種類以上のTeradata Analytics for SAP Solutionsダッシュボードを利用でき、財務会計や支出分析、製造業務などの主要カテゴリに分類された標準のビジネス・レポートも利用できるという。また、インメモリ・スピードで実行する1,000種類以上のSAS Institute、Fuzzy Logix、R のインデータベース分析関数へのアクセスも利用できるとのこと。ユーザーは、ウェアハウス内の詳細データ全てにセルフサービスでアクセスし、お気に入りのツールを使ったカスタム・レポートの作成や分析の適用も可能になるとのことだ。
2015年03月30日身だしなみを気にする?「身だしなみ」調査の結果!マイボイスコムは「身だしなみ」に関連する調査を実施した。MyVoiceのアンケートモニターが調査の対象で、調査方法はインターネット方式。そして回答者の数は12050名だった。身だしなみについて気になる人は、役立つ調査結果を参考にしてみては。「最初に身だしなみに気を使っているか?」の質問に対して、8.6%の人は【身だしなみにとても気を使う】と答えており、次いで【まあ気を使う】が53.7%で、あわせて62.3%の人が身だしなみに気を使っている。一方で【ほとんど気を使わない】と回答した人は5.2%だ。次に「身だしなみについて、意識して実践していることは?」に対して、【洗顔】がトップで、以下【寝癖や髪型を整える】【口臭の予防】【こまめに爪を切る】【歯の手入れ】がそれぞれ40%前後でランクイン!また女性の高齢層で多いのは、【爪をこまめに切る】【歯の手入れ】【ヘアを染める】【衣類の手入れ、しわや汚れのチェック】【靴の汚れチェックや手入れ】などのようだ。身だしなみの為に何を利用する?さらに「身だしなみを整える為に持ち歩いているもの、また使用しているものは?」について、使用しているのは【シャンプー】【歯磨き粉、歯間ブラシ、歯ブラシなど】【リンス、トリートメントやコンディショナー】、【洗顔料】などが上位に入った。また【タオルやハンカチなど】【ティッシュ、ウェットティッシュ】【リップクリーム】を持ち歩いている人が多い。さらに【清潔感】が、一番身だしなみで重視されていることがわかった。(画像はプレスリリースより)【参考】・マイボイスコム株式会社 プレスリリース (PR TIMES)・マイボイスコム株式会社
2015年03月27日アプレッソは3月27日、オンプレミス環境にあるデータをクラウド上で処理可能にする「Thunderbus(サンダーバス)」および、同社のデータ連携ソフトウェア「DataSpider Servista」でThunderbusを活用するための専用コネクタ「Thunderbusコネクタ」を発表した。Thunderbusの基本構成での価格は、パッケージ・ライセンスで100万円(別途年間保守費用)、月額ライセンス&サポートで5万8,000円。Thunderbusコネクタは無償。販売開始は4月1日。Thunderbusの利用により、オンプレミス環境のマシンにある特定のファイルやフォルダをクラウド側とシームレスかつセキュアに連携できるという。専用線や特別なハードウェアが必要無く、手軽かつスピーディにクラウド・アプリケーションとオンプレミスのデータの接続が可能になるとしている。クラウド側に「Thunderbus Server」、オンプレミス側に「Thunderbus Agent」をそれぞれインストールして設定を行えば接続でき、VPNやインフラの構築や設定は不要とのこと。Thunderbus Serverと同Agentの間はHTTPSプロトコルで接続し、インターネット接続があれば回線を問わずセキュアにデータを連携できるという。Thunderbusコネクタにより、Thunderbusで共有しているフォルダをDataSpider Servistaからシームレスに利用可能になり、Thunderbusで共有したデータをDataSpider Servistaで演算・変換して多種多様なシステムに連携できるとしている。同社ではThnderbusの利用シーンとして、3つのケースを例示する。クラウド・サービスとExcelとの連携では、従業員が管理するExcel上のデータを、PCのローカル・フォルダからThunderbusを経由してクラウド・サービスに連携する。Excelにデータを入力し保存するという日頃の業務スタイルを変えず、クラウド・アプリケーションに最新のデータを自動で登録できるようになるという。BI(ビジネス・インテリジェンス)と拠点データの連携では、各店舗や子会社で運用している個別システムのデータを、Thunderbusを経由してクラウド・インフラ上の本部BIシステムに連携する。これにより、BIシステムは拠点システムから常に最新のデータを参照できるようになり、リアルタイムの経営分析が可能になるとしている。グローバル・データ連携では、ネットワークインフラが貧弱な地域やVPNを管理できるネットワーク・エンジニアの手配が困難な地域からでも、グローバル拠点を結んだシステム・データ連携を実現するという。動作環境は、Thunderbus ServerがWindows Server 2008/2012(いずれも64ビット版)、Thunderbus AgentがWindows Server 2008(32ビット版/64ビット版)/2012(64ビット版)またはWindows 7/8/8.1(32ビット版/64ビット版)。今回発売するバージョン1.0ではファイル連携をサポートし、データベースやWebの連携にも順次対応していく予定。
2015年03月27日コンピュータソフトウェア協会(CSAJ)のデータサイエンティスト育成研究会は3月25日、昨年度同研究会が公表したデータサイエンティストの定義をベースに「データサイエンティスト育成プログラム」の枠組みをまとめ、公表した。同プログラムは、情報サービス業における人材を実践的データサイエンティストに育成するためのもの。平成26年度5月に、同協会より公表されたデータサイエンティストの定義「ビジネスにおいて、競争優位性をもたらすために、データの収集・加工・分析に優れた専門性を発揮し、知見を引き出す人材」がベースとなっている。プログラムは、データサイエンティストのモデル(DSモデル)とその育成手順とで構成されている。このほか、データサイエンティストの職務、タスクの定義、求められる知識とスキルなどについてもまとめられている。同研究会は、「プログラムは、研究会の外に対してもオープンなものであり、自由にモディファイして活用してほしい」とコメントしている。
2015年03月26日データ・アプリケーション(DAL)は、データハンドリングプラットフォーム「RACCOON(ラクーン)」の最新版「RACCOON V.1.3」を3月26日より販売すると発表した。RACCOONは、異なるシステム間のデータ連携、およびシステムマイグレーションやシステムリプレース時のデータ移行に必要なデータ変換をドラック&ドロップによるマッピングだけでノンプログラミングで実現するツール。最新版では、自動マッピング機能を強化し、サポートするDBやフォーマットを増やしたほか、クラウド環境(Amazon EC2、Microsoft Azure)での稼働も確認できる。また、データ移行のニーズが非常に高いことから、データ移行期間だけなど期間を限定してソフトウェアが利用可能なタームライセンスを新たに導入した。販売価格は、従来バージョンと変わらずStandard Editionが300万円(税別)。タームライセンスは、月額12万5000円(税別)で、最低利用期間は3カ月となる。なお、2016年3月末までトライアルキャンペーンとして、Standard Editionをキャンペーン価格200万円(税別)で提供する。DALは最新版を初年度50セットの販売を予定している。
2015年03月26日テクマトリックスが主催するビッグデータ事例セミナー「ビッグデータはもう特別じゃない!? Pentaho で実現するビッグデータ分析」が、来週3月18日に開催される。同社が提供するビジネスアナリティクス「Pentaho」を使ったビッグデータ分析の活用方法、構築事例など、実際にビジネスに活かせる内容を中心に展開するセミナーだ。会場はテクマトリックス東京本社、参加受付は先着順で、参加費は無料。Pentahoは、ルフトハンザ、NASDAQ OMX、EMCなど海外の先進企業の導入実績が豊富なビッグデータ分析ツールで、その特徴は高いコストパフォーマンスや導入スピード。さまざまな異なるデータを組み合わせて分析できる「データブレンディング」も強みで、Pentahoでは単一データに他のデータを組み合わせて、関連性を分析できる機能が充実しており、これにより、他の製品では及ばない深い分析を行うことができる。今回のセミナーでは、Pentahoの豊富な導入実績の中から厳選したビッグデータ活用事例を紹介。そして、Pentahoを使ったビッグデータ分析の課題解決法、ビッグデータ分析術・活用手法を解説。ビックデータを活用したい企業に向けて、最初の導入のヒントから、その後のビジネスへの適用のイメージまで、順を追って知ることができる。セミナー開催概要は以下のとおり。・日程 3月18日 (水)・時間 15:30~17:00 (15:00受付開始)・場所 テクマトリックス株式会社 東京本社3階セミナールーム・定員 30名(先着順、1社につき2名まで)・対象 システム担当者、経営企画担当者、システムインテグレータ、ITソリューション企業・費用 無料・セミナー内容の詳細はこちら・申込はこちら
2015年03月11日米テラデータは2月11日(現地時間)、企業がビッグデータを活用しビジネス上の課題解決を実現する、Teradata Aster AppCenterとビッグデータ・アプリを発表した。新アプリは、顧客獲得およびリテンション、金融詐欺、購入経路、マーケティング最適化など、ビッグデータ分析による解決が必要な課題に取り組む全てのビジネスユーザーを支援するように設計し、個人向け金融、エンターテインメントおよびゲーム、ヘルスケア、小売、通信などのビヘイビア・アナリティクス(行動分析)が有効に作用する業界向けに開発したという。同アプリはAppCenter上で稼働し、AppCenterはWebインタフェースによる対話型のアプリケーションを構築・導入・活用するための共通のフレームワークを提供する。また同アプリはユーザーにとっての価値を実現するまでの時間を短縮するよう設計しており、分析ロジック、データ・スキーマ、対話型可視化機能、使いやすいインタフェースなどが含む事前構築済みのテンプレートを活用し、分析を反復可能なものにするという。同社の分析コンサルティング・サービスの様々な導入実績から得たベスト・プラクティスが反映しているとし、同社の分析コンサルティング・サービスが個々の企業の課題解決を支援するビッグデータ・アプリを構成することも可能という。AppCenterは2015年第2四半期までに提供開始を予定しており、オンプレミス環境またはクラウド環境で実装したTeradata Aster Database 6.0との互換性を確保するとのことだ。
2015年03月06日○90%以上 vs. 30%以下 ビッグデータ活用の日米ギャップ世界のビッグデータ市場は急速に拡大している。2014年9月に米国IDCが公開した調査リポート「世界のビッグデータ市場予測 2014年~2018年」は、同市場が2018年まで年平均成長率(CAGR) 26.4%で成長し、2018年には415億ドルに達すると予測している。ビッグデータ活用先進国である米国では、多くの企業がビッグデータ活用を新たなビジネス戦略の柱としているようだ。2013年6月に電子情報技術産業協会とIDCジャパンが共同で行った調査によると、「すでにビッグデータを利用している/試験的に利用している」と回答した企業の割合は、米国では93.3%だったのに対し、日本では27.2%だったという。さらにショッキングな数字もある。日本情報システム・ユーザー協会が2014年4月に公開した「企業IT動向調査2014」では、日本企業で「ビッグデータを利用している(導入済み)」のは、わずか4.8%との現状が明らかになった。日本企業でビッグデータ活用が進まない理由はどこにあるのだろうか。テクマトリックス株式会社 カスタマーソリューション営業部 エンタープライズソリューションチームで主任を務める上村巨樹氏は、「ビッグデータ導入の目的が明確になっておらず、導入してもどのような効果が得られるか確信が持てないといった不安を抱えている企業が多い」と指摘する。ビッグデータ活用によるROI(投資対効果)の測定や、KPI(重要業績評価指標)の決定は、難しいと言われている。特に、IT投資に慎重な企業は、「活用できるデータもないし、データ分析ができる人材もいない。結果が予測できない新技術の導入は難しい」というのが本音だろう。しかし、これでは競争力を失ってしまう。上村氏は、「ビッグデータ活用は、膨大なデータを自社で保存している大規模企業だけのものではありません。海外の先進的な企業では、その規模を問わずビッグデータ活用で、業務の効率化や現状課題の把握など、効果を上げていらっしゃいます」と説明する。例えばオランダのある病院では、患者管理の改善と設備の運用コスト抑制のために医療機器のセンサーから取得できるデータを収集/分析し、救急救命室の稼働状況や待ち時間などを可視化。機器全般の稼働データ分析 によって、設備の最適化だけでなく、作業効率の向上も実現し、救急救命室の稼働時間を20%削減した。さらにデータマイニングや予測分析を用いて、急患の症状からどれくらいの時間内に治療を終えなければいけないのかを導き出すことにも挑戦している。さらに日本の複合機メーカーでは、機械にセンサーを取り付け、稼働状況データを収集/分析することで、故障の発生率予測やメンテナンスの効率化、顧客サービスの向上につなげているという。「こうした事例は、必ずしも大規模企業だけの取り組みではありません。自社が提供する製品やサービスから収集できるデータを活用すれば、収益改善や業務の効率化、製品の品質改良といったビジネス上の課題解決はもちろん、新たなビジネス機会を創出し、競争力強化につなげられるのです」(上村氏)○【セミナー開催間近!】先進ビックデータ分析の無料セミナー開催へビッグデータはもう特別じゃない!? Pentahoで実現するビッグデータ分析のご紹介。2015年3月18日開催の無料セミナー。主催:テクマトリックス株式会社・セミナー概要はこちら○「トライ&エラー」で何度も分析ができるアドバンテージでは、ビッグデータ活用をビジネスに生かすソリューションは、どのような視点で選択すべきなのだろうか。テクマトリックス株式会社 カスタマーソリューション営業部 エンタープライズソリューションチームで主任の佐藤大悟氏は、「ビッグデータ活用で重要なのは、データどうしを掛け合わせて分析し、新たな"気づき"を得ることです。そのためには、社内システムに格納されている構造化データはもちろん、ツイッターなどの非構造化データやオープンデータ、さらにIoT(モノのインターネット: Internet of Things)から収集されるデータなど、ありとあらゆるデータを取り込んで、縦横無尽に掛け合わせられる『データブレンディング』の仕組みが必要です。それを実現した製品が、『Pentaho』なのです」と説明する。テクマトリックスが提供するビッグデータ分析ソリューション「Pentaho」は、データ統合機能(ETL)とビジネスインテリジェンス(BI)を統合した製品スイートだ。『データブレンディング』と呼ばれる機能を用いることで、Oracle/SQL Server/Google Analytics/Salesforceなどに格納されているデータはもちろん、ソーシャルメディアなどの非構造化データやWebサービスなどのデータをノンプログラミングで統合し、高いリアルタイム性の上で分析することが可能。ダッシュボードやデータマイニングといったBI機能との連携もシームレスなので、ユーザーは複数のデータソースを統合して簡単に分析/可視化/レポートできる。それを端的にあらわすキーワードを佐藤氏は「アジャイルBI」だと語る。「従来の分析プロジェクトは、初期導入の際に"どういった分析をするのか"を検討するため、立ち上げまでにどうしても時間がかかるという問題がありました。しかし、Pentahoは、BIとETLが同一製品内でシームレスに連携しているため、データ統合と分析をトライ&エラーで実施しやすくなっています」(佐藤氏)これにより、IT部門(開発者)と業務部門(エンドユーザー)との間で、シームレスなコラボレーションが可能になる。高価なBIツールを導入したものの、「要求から回答まで時間がかかる」「要件定義が不明瞭だったので、期待した分析結果が得られなかった」という課題を抱えている企業は多い。しかし、Pentahoであれば、そうした課題を避けながらプロジェクトを進めることができる。「Pentahoのデータブレンディングは構造化データ・非構造化データを問わずにデータ抽出して、混ぜ合わせることを実現し、それらを多角的に分析し、その結果をさらに深掘りすることも可能です。そしてアジャイルBIのおかげで従来であれば、『そのデータどうしを掛け合わせてどうするの?』と思うような分析にも挑戦しやすい。IT部門が管理しやすく、ビジネス部門が使いやすい。今後、データ分析はビジネス部門で必須の業務となるでしょう。Pentahoは、ビッグデータ活用の敷居を下げるソリューションだと自負しています」(佐藤氏)○【セミナー開催間近!】「Pentaho」で実現する先進ビックデータ分析、無料セミナーを開催へ従来の知見と異なる分析結果が出た場合、それは新たな知見の発見であり、ビジネスチャンスにつながる。ビッグデータ活用を必要としているのは、ビジネスの最前線に立つ部門だ。「Pentaho」には、この他にも様々な機能が備わっている。3月18日に行われるセミナーでは、Pentahoを用いたビッグデータ分析の詳細が紹介される予定だ。これからビッグデータ活用を実現しようとする企業はもちろん、ビッグデータ活用トレンドをキャッチアップしたい企業の担当者も、ぜひ足を運んでほしい。セミナー開催概要は以下のとおり。・日程 2015年3月18日 (水)・時間 15:30~17:00 (15:00受付開始)・場所 テクマトリックス株式会社 東京本社3階セミナールーム・定員 30名(先着順、1社につき2名まで)・対象 システム担当者、経営企画担当者、システムインテグレータ、ITソリューション企業・費用 無料・セミナー内容の詳細はこちら・申込はこちら
2015年03月03日テクマトリックスが、ビジネスアナリティクス「Pentaho」を使った先進のビッグデータ分析術を紹介する無料セミナーを開催する。Pentahoは有力企業の導入実績が豊富で、コストパフォーマンスや導入スピードの優位性が特徴のBI製品だ。セミナーはビッグデータの最新動向や、Pentahoの活用方法、構築事例など、実際にビジネスに活かせる内容を中心に展開する。開催日は3月18日(水)で、会場はテクマトリックス東京本社、参加無料で先着順。テクマトリックスの提供する「Pentaho」は、ルフトハンザ、NASDAQ OMX、EMCなど海外の先進企業の導入実績があり、コストパフォーマンスや導入スピードも特徴かつ、今最も注目したいポイントが、さまざまなデータを組み合わせて分析できる「データブレンディング」の強みだ。Pentahoは単一データに他のデータを組み合わせて、関連性を分析できる機能が充実しており、これにより、他の製品では及ばない深い分析を行うことができる。ちなみに日本ではビッグデータ活用・分析を導入済みの企業が1割未満と言われており、「導入する目的の明確化」「ビッグデータ関連技術の習得」などが、導入を阻む課題として挙げられている。一方で海外企業に目を向けると、7割以上の企業・組織が、今後2年以内にビッグデータに投資する、あるいは投資することを計画しており、北米企業に限れば47%の企業がビッグデータへの投資を既に実施しているという調査もある。そこで今回のセミナーではまず、「Pentaho」が持つ豊富な海外実績の中から厳選したビッグデータ活用事例と、「導入の目的」から紹介する。そして「Pentaho」を使ってのビッグデータ分析の課題解決法、ビッグデータ分析術・活用手法まで案内。ビックデータ活用・分析にあたっての、導入のヒントからビジネスへの適用イメージまで順を追って知ることができる。セミナー開催概要は以下のとおり。・日程 3月18日 (水)・時間 15:30~17:00 (15:00受付開始)・場所 テクマトリックス株式会社 東京本社3階セミナールーム・定員 30名(先着順、1社につき2名まで)・対象 システム担当者、経営企画担当者、システムインテグレータ、ITソリューション企業・費用 無料・セミナー内容の詳細はこちら・申込はこちら
2015年02月27日サイオステクノロジーは、3月18日(水)に アマゾンデータサービスジャパン、アプレッソと共催で、データ活用を中心テーマにその最新動向について、デモンストレーションも交えながら、紹介するセミナーを実施する。このセミナーでは、新たにビックデータの活用を開始しようとする企業向けに、自社で比較的楽に応用可能なシステムを中心に紹介する。セミナーの詳細および申し込みはこちら。BigData最新動向~クラウド&ビッグデータ時代のデータ活用から日時:2015/3/18(水) 13:30~17:00会場:アマゾン目黒オフィス(目黒区下目黒1-8-1アルコタワー19F)定員:120名講演内容:・AWSだからこそ実現できるビックデータ統合基盤・クラウド&ビッグデータ時代のデータ活用の5つのポイント・クラウドビッグデータプラットフォームを使ったデータ活用(仮)対象者:情報システム部門担当者、インフラ構築に携わるエンジニア参加費:無料締め切り:2015/3/16(月)12:00まで
2015年02月24日STMicroelectronicsは2月19日、各種メモリ容量を取り揃え、クラス最高のデータ保持期間と書き込み・消去サイクル、および強力なデータ保護機能を搭載したNFC対応RFIDタグ「SRTAG」を発表した。同製品は、NFCフォーラム仕様のType 4に準拠したRFインタフェースとNDEF(NFC Data Exchange Format)メッセージサポート機能を搭載している。また、内蔵EEPROMの容量は512ビットから64Kビットと幅広く、コンテンツが豊富な仮想名刺やスマート署名を含む、さまざまなアプリケーションに対応することができる。また、最先端のRF性能を提供する他、ユーザがプログラム可能なデジタルCMOS出力を搭載しているため、ホストシステムを起動する外付け部品が不要となっている。さらに、業界標準の20倍となる200年のデータ保持期間、および同10倍となる100万回の書き込み・消去サイクルを実現している。動作温度範囲も-40℃~85℃と拡張されており、最も過酷な動作条件下においても、完全な性能と耐久性を維持する。加えて、既存製品よりも優れたデータ保護性能を特徴としており、クラス最高の128ビットパスワード保護機能を20ビットカウンタと組み合わせることにより、読み取り・書み込みアクセス制御において、タグのクローン作成や改竄を防止する。これらにより、応用分野には、NFCに対応したスマートポスター、広告、画像を活用した名刺の他、Bluetoothの自動ペアリングやWi-Fiネットワークへのセキュアアクセスを行うNFCトークンなどが想定されている。また、資産管理、保守記録、および製品識別のためのNFCタグなどのアプリケーションにも利用できるという。なお、メモリ容量が512ビットの「SRTAG512L」の価格は、1000個購入時で約0.17ドル。「SRTAG16K/64K」の2品種は量産中で、「SRTAG2KL/2KL-P/512L」の3品種はサンプル出荷中である。
2015年02月20日富士通は2月12日、エンジニアリングデータ管理ソリューション「FUJITSU Manufacturing Industry Solution PLEMIA Concurrent Design Manager」において、海外拠点との分散設計機能を強化した新バージョンを販売開始すると発表した。同製品は、複数人が設計に関わることで管理が煩雑になる3次元CADデータや関連図面などの膨大なデータを、部品単位で設計履歴を効率的に管理することに加え、管理データを製造工程に必要な情報に生成するソフトウェア。今回、設計のグローバル化に対応するため、データ容量が大きい3次元CADデータを各拠点に設置したサーバ間で夜間の時間帯などにデータを同期して最新データに更新する「レプリケーション機能」を追加した。これにより、国内で行ったコアモジュールの設計を夜間のうちに海外拠点のサーバにコピーし、海外で最新データに即したカスタマイズ設計を行うなど、複数拠点にまたがった協調設計を支援する。対応する3次元CADソフトウェアに、同社の「iCAD SX」が追加された。「iCAD SX」が扱う数万点に及ぶ大きな機械設備やプラントの設計データを「PLEMIA Concurrent Design Manager」で管理することにより、同名ファイルの登録抑止、更新履歴管理、編集権限をファイル単位で設定できる排他設定機能など、複数人でのチーム設計が容易にできるようになる。さらに、3次元CADによるモデルを作成した後、3次元CADのデータ形式から3Dプリンタ用のデータ形式であるSTLに自動変換する機能も追加された。価格は、PLEMIA Concurrent Design Manager V27が150万円(5ライセンス)、オプションのマルチサイトレプリケーションが150万円(1拠点)、オプションのSTL自動変換(3Dプリンタ用)が35万円となっている(いずれも税別)。
2015年02月13日1万人以上の調査対象者にタブレットを配布し、アンケートデータの収集に活用しているビデオリサーチ。従来の紙によるアンケートから、タブレットによる調査システムを導入したことで、どのような効果が得られたのだろうか。ビデオリサーチの担当者に話を聞いた。○ライフスタイルの多様化が調査項目の増大に繋がったビデオリサーチは、テレビ番組の視聴率をはじめとして、さまざまなメディア・マーケティングデータを提供していることで知られる企業だ。同社は2014年10月に、全国主要7地区において一般生活者1万人以上に対して通信機能付きタブレット端末を配布して調査する国内最大規模のシングルソースデータサービス「ACR/ex」をリリースしている。「ACR/ex」の前身となる「ACR」は、1976年のスタート以来、紙によるアンケートで回答を収集してきた。調査員がアンケート用紙を配布して後日、回収した後に、データを入力・集計といった工程を踏むため、調査からデータ化まで約4カ月を要していた。この「ACR/ex」では紙に代わってデータ通信対応のタブレットで調査。情報を直接送信してもらう形に変更したことで、調査工程の短縮化を実現している。長年続いた調査方法を大きく変更したもうひとつの理由として、同社のソリューション推進局ACR/ex事業推進部長の岩城 靖宏氏は「ライフスタイルの多様化で、生活者の特性を捉えるための情報量が膨大になってきた」という点を挙げている。紙の調査票の場合、"男性向け"といった特定層に向けた質問であっても、全ての項目をアンケート用紙に用意しなければならず、その膨大な量と煩雑さは対象者の心理的な負担となり、回答に影響を与える可能性がある。だが、タブレット端末を利用することで、対象者のセグメントごとに必要な設問のみが現れるようにコントロールできることや、回答する画面が瞬時に現れることによる「ストレスフリーな環境」が提供できることを魅力に感じたという。これに加え、継続して回答してもらえるような工夫が実現できることや、調査対象者の継続した変化を捉えられるメリットを岩城氏は導入の理由として挙げている。○従来の調査方法をデジタルでも実現できるタブレットという選択肢単にタブレット端末と言っても、通信機能付きであれば、ビデオリサーチ側と調査対象者側、双方に負担のない形でアンケートの頻度を上げることができ、季節に応じたデータの変化を知りたいというクライアントのニーズにも応えられる。調査対象者全員にタブレットを配布する結論に至った理由は「調査対象者のデバイス環境に一切影響されることがなく、同一の環境で調査することが可能だから」と岩城氏は答える。このACR/exのデータは市場全体の推計を可能とするため、対象者を無作為に抽出している。そのため、すべての対象者がPC所有者とは限らないし、それぞれ調査環境が大きく異なることは管理上無理があることは容易に想像がつく。より所有率が高い携帯電話やスマートフォンを使うという手もあるが、画面が狭く調査内容を表示しきれない。これに加えて、テレビを見た時間や食事をしていた時間、買物をしていた時間などを用意したスケール上に線を引いてもらうことで回答する"線引き式"と呼ばれる回答形態への対応が困難という問題があった。そうしたことから画面サイズが大きく、紙のアンケートと同じ回答形態が実現できる、タブレットの採用に至ったのだそうだ。だが、ACRは40年以上調査を続けているデータであることから、紙からタブレットへと調査方法を変えたことで回答の傾向と質が大きく変化することで継続性が失われてしまうのではないかという懸念もあった。そこで、2012年度より実際にタブレット端末を使って調査実験を実施。従来と回答の傾向と質に大きな変化がないことを確認できたことから、2014年度から本格的な運用とデータ取得を開始し、同年10月にACR/exのサービスリリースへと至った訳だ。タブレット端末の活用によって、サンプルの代表性を担保しながら、定期的な調査とスピーディなデータ収集を行うことで、より的確で多面的な生活者の情報を迅速に提供することが可能となった。○iOSではなく、Androidという選択ビデオリサーチがACR/exの導入に当たり、採用したのはNTTドコモの富士通製Androidタブレットになる。当初はiOSとAndroidのどちらを採用するか検討していたそうだが、Androidに決めた理由はMDM(モバイルデバイス管理)にあったと岩城氏は話す。調査対象者に配布するタブレットはあくまでアンケート回答用である。ITに関する知識があるとは限らない対象者が操作で混乱しないためにも、想定している以外のアプリや機能が画面上に表示されないというのが、導入する上で必須だったそうだ。だがiOSの場合、当時はMDMを導入しても設定画面を開くのを防げなかった上、OSのバージョンアップ通知が自動的に出てきてしまうなどの問題があったという。そのため「Androidの方が我々のニーズに合った管理ができる」(岩城氏)と判断し、Androidタブレットの導入に至ったのだそうだ。富士通製の端末を採用したことから、導入しているMDMも富士通製になったと、岩城氏は話す。リモートでの監視にも対応しているそうで、モニターが別のSIMカードを挿入し、別の用途に利用しようとした場合でも、その動きを感知して情報をフィードバックし、監視できる仕組みを備えているとのことだ。またNTTドコモのタブレットを選んだ理由について尋ねると、導入を検討した当時、LTEによる通信機能を内蔵したAndroidタブレットを提供していたのがNTTドコモだけであったことが大きいと、岩城氏は答えている。他社はWi-Fiルーターとのセットによる提案であったが、多数いる調査対象者に対して複数のデバイスを貸し出すと、対象者側の取り扱いが面倒になることに加えて、デバイスの発送と返却時の管理にかかる手間が非常に煩雑になってしまう。多くのデバイスをシンプルに管理できるようにするためにも、回線と端末がセットになっていることが、導入する上で必須だったようだ。ちなみに調査対象地域は、東京駅を中心とした50km圏内、及び7大都市圏と、都市部を対象にしていることから、導入する上でネットワーク面での不安はあまりなかったとのこと。それでも、「実験開始当初は現在ほど、LTEのエリアが広くカバーされている訳ではなかった」とソリューション推進局ACR/ex事業推進部主事の岸 斉史氏は話す。それゆえモニターが住む地域でLTEに接続できるかどうかを、NTTドコモ側と情報共有しながら、電波対策などを進めていったそうだ。なお実際に導入した台数は、実験段階では140台であったが、本番のサービス用として約1万5000台と、大規模な導入となっている。調査対象者の数は7つの地域で1万人以上だが、それを大きく超える台数を導入した点には、いくつかの理由があるという。1つは、東京とそれ以外の地域のモニターとで、端末を貸し出すサイクルが異なること。東京以外のエリアでは春先の3ヵ月だけの協力となるが、東京はデータのニーズが高く、調査対象者を半年毎に入れ替えながら1年を通じて調査を実施しているのだという。入れ替え分の台数をあらかじめ確保しておかないと、スムーズな入れ替えができず調査に途切れが出てしまうことから、余分に台数を確保しているそうだ。そしてもう1つは、「対象者を説得したり、アンケートの回答動向をチェックしたりする調査員にもタブレットを活用してもらっている」(岸氏)ためだという。○センシティブな情報を取り扱うが故に、セキュリティは慎重な検討を全国で1000人近くいる調査員も、従来は調査対象者の個人情報などを紙で管理していたそうだが、ACR/exの導入を機にタブレットを活用した管理へと変更。これによって、調査員が担当する対象者が、どの程度アンケートに答えているかなどをリアルタイムに確認でき、相手に応じた対応がよりしやすくなったとのことだ。また、調査対象者と調査員のタブレットでは、利用しているネットワークも変えているとのこと。対象者向けの端末には「ビジネスmoperaインターネット」を用い、VPNを組み合わせることでアクセスできるURLの制限などを実施した。だが、調査員用の端末では個人情報を扱うことから、ドコモの閉域網サービス「ビジネスmoperaアクセスプレミアム」を利用。ビデオリサーチの社内システムに直接接続することで、インターネットなど他網からのアクセスを遮断し、一切情報が出ない仕組みにしている。もちろん、専用線を用いるとなるとランニングコストも高くなってしまう。だが「一般生活者から情報を頂いてビジネスしている以上、個人情報の保護は最も大事な部分」(岩城氏)であることから、セキュリティの確保には強いこだわりを持って取り組んだそうだ。ドコモによると、特に個人情報を扱う企業様から高いセキュリティを備えたネットワークの要望を受けており、金融機関や医療機関など同様の閉域網サービスを導入しているという。○タブレット導入でデータ量は増大も、クライアントに「より最適な答え」をでは実際のところ、タブレットを導入したことによるメリットはどのようなところに現れているのだろうか。この点について岩城氏は、「対象者に対する質問の量を10倍相当に増やし、従来より多角的なデータを、継続的に取得できるようになった」など、導入当初の目的をしっかり果たすことができていることが、大きなメリットになったと答えている。だが、データが増えたということは、その分データを分析する労力も大変なものになるはずだ。そこでビデオリサーチでは、ACR/exの提供に合わせて、分析に必要な要素は拡張しつつも使い勝手を向上させたASPサービス「VR-CIP」を開発。これを用いることにより、性別や年齢だけでなく、特定の商品を利用している人などより細かなターゲットに関する情報を、顧客が簡単に深掘りできるようになったという。「紙で同じことをするのに比べればコスト上がっているが、データと使い勝手が充実したことでクライアントからも好評をいただいている」と岩城氏は話しており、ビジネス面でも成果が上がってきているようだ。では今後、ACR/exをより充実させていく上で、どのような取り組みを考えているのだろうか。岩城氏は「まずはタブレット上で調査対象者がより使いやすく、回答しやすくするためのメニューやインタフェース開発を進めること。だが、次に進めるべきは環境面で対象者に回答してもらいやすくする仕組みを整えることではないか」と話している。そうしたことから将来的には、タブレットだけでなくスマートフォンでも回答できる環境を構築し、今購入した商品に関する情報など、リアルタイムな回答を得られる仕組みを作り上げていきたいとしている。さらに、スマートフォンを利用すれば日常生活のあらゆる行動のログを取得できる。もちろん対象者の了解を得た上での話しであるが、そうしたログを活用した商品サービスを開発することも、技術的に見れば不可能ではない。ただ、ログの取得には「自分の日々の行動情報を取られることに抵抗を抱く人が少なからずいるため、無作為抽出した方への導入はハードルが高い」(岩城氏)。そうしたことから、スマートフォンを用いた商品サービス開発は個人情報の保護も念頭においた上で、パーソナルデータの利活用を慎重に考える必要があると岩城氏は話している。
2015年02月10日EMCジャパンは1月23日、世界のデータ保護に関する調査「EMC Global Data Protection Index」の結果を発表した。これによると、過去1年間で、国内企業1社当たりデータロスとダウンタイムにより生じた損失は約2億1900万円に上るという。同調査は、世界24カ国の中規模~大規模企業のITに関する意思決定権者3300名(日本:125名)を対象に、米国Vanson Bourneが実施したもの。国内の企業・組織の91%(全世界:71%)が問題発生後の復旧に自信がないと回答している。同社によると、データロスの全体的な発生件数は減少傾向にあるが、一方でデータロス1件につき失われたデータ量は激増しているという。調査対象の企業中、過去1年間にデータロスまたはダウンタイムを経験した国内企業は48%。全世界では64%だった。国内企業において、過去1年間に発生した予定外のダウンタイムは、平均19時間(約2営業日)。全世界では平均25時間(約3営業日)だったという。国内企業で障害によって生じたビジネス面における影響は、従業員の生産性の低下(37%)、製品開発の遅延(30%)、顧客からの信用/信頼の低下(20%)が上位項目となっている。また、ビッグデータやモバイル、ハイブリッド クラウドなどのビジネス トレンドによって、データ保護の新たな課題が生まれているという。国内企業の約3分の2(66%)が、これらのトレンドに対する災害復旧プランがなく、3つのトレンドすべてについてプランを確立している企業はわずか6%となっている。また、国内企業の50%がビッグデータ、モバイル、ハイブリッド クラウドを保護することは「難しい」と回答している。同調査では、回答に応じたポイントが回答者へ付与され、それぞれのデータ保護の成熟度が4つのカテゴリの1つとしてランクされている。国内企業の92%がデータ保護成熟度の下位2つのカテゴリに入っており、上位2つのカテゴリに入った国内企業は8%だった。内訳は、「Adopters(導入済み)」が5%(全世界11%)、「Leaders(先進的)」が3%(全世界:2%)となっている。
2015年01月26日電通とNTTデータは、主にソーシャルメディア・ビッグデータの解析を起点とした、マーケティング領域での新たなソリューションの開発・提供で協業すると発表した。協業開始に先立ち、両社はすでにいくつかの実証実験を重ねており、現在、位置情報データ、感情データ、購買データなどのビッグデータと、外部データを連携させることによる新たなソリューションの開発にも取り組んでいる。ソーシャルメディアデータをCRMに連携させる手法では、感情データを活用することで、流通業界におけるオンラインとオフライン、ECとリアル店舗をまたいだ施策の開発が可能になり、ファッション、宝飾品、自動車、家電など嗜好性の強い業界での効果が期待できるという。両社は、電通が持つ事業戦略、商品戦略、マーケティング・コミュニケーションに関する独自のプランニングおよび顧客・生活者のインサイトに関する知見、NTTデータが保有する日本市場唯一のTwitter全量データ注の再販機能およびソーシャルメディア・ビッグデータの解析力、ならびにシステム構築力を掛け合わせることで、マーケティング戦略の立案からマーケティングシステムの高度化まで、マーケティング・ソリューションをワンストップで提供する。併せて、協業を加速する推進母体として「Social Insight Lab」(ソーシャル・インサイト・ラボ)を立ち上げ、企業の複数の部門にまたがるマーケティング課題に対して、課題の解決にあたる。電通とNTTデータは本協業により、顧客企業においてマーケティングをつかさどるCMO(チーフ・マーケティング・オフィサー)/ブランドマネジメント部門と、ITをつかさどるCIO(チーフ・インフォメーション・オフィサー)/情報システム部門の、相互にまたがる高度なマーケティング課題に対して、全体最適の視点からソリューションを提供していくという。
2015年01月23日情報通信研究機構(NICT)は1月20日、暗号化したままデータを処理する「準同型暗号」において、暗号化したデータのセキュリティレベルを向上させる新技術を開発したと発表した。新技術によって暗号化されたデータは100年以上保持できるとしている。新技術は、データを暗号化する際に暗号文をデータ領域と付加情報の2つに分割保存し、付加情報を伸ばす技術により暗号文のセキュリティを更新するというもの。暗号化処理の仕組みは、公開鍵とノイズベクトルを使って付加情報を生成し、公開鍵とノイズベクトルで平文ベクトルのスクランブルを行う。付加情報には、平文ベクトルのスクランブルを解除する際に必要な情報を含んでいる。暗号文は、付加情報とスクランブルされた平文ベクトルの2つで構成されており、対応する秘密鍵で付加情報から復号に必要な情報を復元し、その情報とスクランブルされた平文ベクトルによって元の平文ベクトルを復元できる。また、データの暗号化の速度も従来より向上している。クラウドサーバー上での統計処理を想定した実証実験では、100万件のデータに対する線形回帰計算を暗号化したまま行ったところ、30分程度ですべての処理ができたという。セキュリティレベルを更新する機能を持たない従来研究と同じデータで比較したところ、平均100倍程度高速だと分析している。さらに、大幅なシステム変更を伴わずに新たな暗号システムへ移行することが可能で、ITコストの節減にもつなげられるとしている。
2015年01月20日マイナビニュースが主催するビジネスセミナー「マイナビニュースフォーラム2014 Winter for データ活用」が、去る2014年12月9日に開催された。どのセッションも意義深く、盛況であったが、特にデータ活用ができる状態を維持管理するために検討すべきポイントについて取り上げた、リアライズ 情報活用ソリューション部 部長の櫻井崇氏による「特別公開!! データ分析を支えるデータマネジメントの秘訣」と題した講演を振り返ってみたいと思う。昨今ではデータ活用が注目を集めているが、実際には「分析を行おうとしても保有データが扱える状態にない」「データの補正や整備にかなりの時間を取られる」といった課題を抱える企業は多い。○マスターデータの整備が不十分で分析できないケースが増加リアライズは、データマネジメントを通じて企業の情報活用を実現するプロフェッショナル集団だ。データマネジメントの方針策定からデータ整備、データ運用管理まで一連の支援サービスをトータルで提供しており、約700以上ものデータマネジメントプロジェクトの実績を誇っている。「企業が保有するマスターデータの整備が不十分なために、データによる分析が行えないケースはよくあります。データは足腰が基本ですから、しっかりと鍛えていなければ上手く分析が行えません」と語る櫻井氏は、最初に"なぜデータマネジメントが必要なのか"という点から解説した。○データマネジメントによる適切な管理で信頼性・整合性を確保たとえば上司から、新商品や新サービスの開発などに際して、役員会で報告するレポートの作成依頼があったとしよう。分析ツールを導入していない場合、まずはExcelやAccessなど身近なツールでレポート作成を行うことになる。しかし、いざ始めてみても肝心なデータの保存場所が見つからない、どのデータを見れば良いのか分からない、データに対するアクセス権がなかったので申請が必要になるといった、データを取り扱う上での課題が発生することは想像に難くない。また、そもそも分析をしているデータの元となる数値が正しく計測できているのか、参照するデータが正しいのか、自信をもてないケースも多々ある。このように苦労しながらも仕上げたレポートを提出したところで、上司からの「この結果で利益が出るのか」という問いには、自分でも結論に自信が持てないため「おそらくは……」としか答えられないのではないだろうか。櫻井氏は「こういう場合では、提案内容の良し悪しは勿論のこと、肝心な数字そのものに対して信憑性があることをしっかり説明できなければ、報告やプレゼンでもなかなか良い結果が得られないケースが多い」と語る。なぜ信憑性を得られる数字を出せないのかという答えは、企業におけるシステムとマスターデータの変遷に起因することが多いと櫻井氏は強調する。往々にして、古くから企業で利用されていたメインフレームではデータが一ヶ所に統合されており、格納場所が分かりやすかった。しかし、システム自体が重厚長大になりコストが増え、データ自体の修正に擁する時間が長くかかることなどの問題点を解消すべく、オープン化の波が到来。そこで、コンパクト化のニーズを満たすべく各種ノードやセッションが構築されはじめ、さまざまな場所からデータを収集する流れができた。こうして誕生したシステムと数多くのツールによって、確かに企業の利便性は向上した。だが一方で、データのキーとなるマスターデータが散在する可能性が高まり、いざデータを活用する際に、欲しい情報へのアクセスが相対的に難しくなったとも言える。「せっかく利便性の高いシステムを構築しても、これまでデータの中身に着目してこなかった故に、結果として企業は思い通りにデータを扱えない状況に陥っています。」と、企業の現状を説明した上で櫻井氏は「"システムにその処理を任せるのに先立って、データを自らの手で整理していなければ正しい情報が得られない"ということにいつ気付くかが課題だったわけです。このような背景から、最近は散在するデータをひとつの統合マスターにしたい、と言った要望が多く寄せられています」と語る。すなわち、企業内にあるデータを適切に管理し、信頼性・整合性を確保するためのデータマネジメントが今、求められているのである。○データマネジメントの実現に必要不可欠な3つのポイント「器/中身/組織・人材」データマネジメントの実現に求められる根本的なポイントとして、櫻井氏は「器(モデル)/中身(データ)/組織・人材」の3つを挙げる。まず器は、データモデルやシステムなどのメタ構造をしっかりと押さえるのに必要不可欠な要素だ。そして中身については、本当に設計図通りにデータが入っているのか、ユーザーがどのように登録しているのか、といったデータそのものを詳らかに把握することが重要となる。組織・人材は、良化した状況を継続するために必要な部分だ。一度データを整理しても、時間の経過とともにまた元に戻ってしまっては意味がない。携わる人材の運用スキルを上げ、企業の文化として落とし込まなければ、データマネジメントの継続性は担保できないのである。「弊社では人材のスキルアップはもちろん、モチベーションの維持など運用上で重要なファクターに関するプランニングを行っています。このプランニングと実践を二段階に分けて実施することで、継続的な運用に必要な組織・人材を育成することができます」と語る櫻井氏。改めて、「データマネジメントでは器と中身、そして組織・人材の3つを総合的に考えることが重要です」と強調した。ここから櫻井氏は、実際に同社が手掛けたデータマネジメントの事例を紹介した。大手ECサイト系サービスを展開する企業では、複数の開発ベンダーにて構築されたデータベースから、データ分析者が必要な情報を収集するため、調査と確認に多くの時間を費やしていた状況から、そのデータの定義情報を1ヶ所に集約することで、最適な分析環境の構築と集中管理を実現。また、分析のキーとなる主要コードの発番ルールが不明確だったため、各組織の独自ルールで発番していた状況も、組織間の運用フローやルールを整備することで、タイムリーで正確なデータ分析がしやすい環境を構築した。金融系サービスの事例では、喫緊の課題とされていた、サービスデスクが処理する膨大な申請書の整備に着手した。こちらでは、申請書の中身を見てデータを比較し、同じものは統合していく作業と並行して、新たに統合したER図に基づいてデータを加えていく仕組みを構築。これにより効率化がもたらされ、従来は紙ベースでやりとりしていた書類についても、システム上で処理できるようになりデータを取り巻く環境が劇的に向上した。櫻井氏は講演の締め括りとして"データサイエンティストは50%から80%の時間を、不正データの排除やデータの整備といった事前準備に費やしている(New York Times,Aug.18,2014)"といった世の中の状況を示唆した。そこで、本業であるデータ分析に専念できるよう、データの整備を行うこと、すなわちデータマネジメントの必要性について強調した。
2015年01月08日昨今のクラウド本格活用時代の到来とともに、各種のアプリケーションが分散する傾向にある。合わせて、活用すべきビッグデータも多様化してきている。12月9日に開催されたセミナー、「マイナビニュースフォーラム2014 Winter for データ活用」では、アプレッソによる「クラウド&ビッグデータ時代のデータ活用の5つのポイント」と題するセッションが設けられた。そこでは、多様化しクラウド等に散在する『活用すべきデータ』の連携・収集における考慮点が示されるとともに、そのために効果的なツールについて説明が行われた。○クラウドの普及で多様化するアプリケーションいかにデータ連携を行うかが課題に世界のクラウド市場は急拡大を続けており、国内におけるクラウド活用の動向を見ても、すべての業界において50%近い企業がクラウド活用に積極的な姿勢を見せている。アプレッソが行った市場調査によると、世の中に提供されているクラウドサービスは既に相当数に及んでおり、特にSaaSとなるとその数は膨大なものとなる。同社の事業推進本部長、船橋伸二氏はこう強調する。「このことが何を意味しているのかというと、PaaSやSaaSについてはエンドユーザーでも利用しやすいサービスが増えているということ。『Salesforce.com』や『kintone』などがその代表例であり、市場ではさまざまなクラウドアプリケーション・サービスのメニューが急増している。そして将来はITの活用がより進んで、オンプレミス、クラウドともにアプリケーションの稼働数はさらに増加していくことだろう。そこで問題となるのがアプリケーション間のデータ連携だ。各種のアプリケーションを連携させようとすれば、従来のアプローチであればアプリケーションを個々毎に接続しなければならい。そうならないよう、バラバラになっているシステムのデータを収集、統合、活用するデータ連携のしくみが必要となる。せっかく素早いビジネスを可能にするアプリケーションが整っているのに、データ連携の部分がボトルネックになるのは問題だ」こうした背景からニーズが高まっているのがデータ連携ツールだが、アプレッソではEAIによるデータ処理・連携を行うHUBを提供することで、柔軟かつ容易なデータ連携を可能としている。ここで船橋氏は、同社のEAIを活用することで、効果的なシステム間のデータ連携を実現した事例をいくつか紹介した。そのうちの1つ、あるインテリア・雑貨 販売会社では、既存の業務システムとクラウドサービスを連携して構築した発注残管理システムを、EAIを導入することでわずか2週間での実装に成功。商社とのデータ交換に関しても、統一したコンセプトでの運用を実現しているという。一方、ビッグデータ活用の動向について目を向けると、ある調査では国内の金融、情報通信業をはじめとした半分近い割合の企業が、3年以内に取り組むと回答としているなど、やはり企業の注目度は高い。これについても船橋氏は同社のEAIを活用した先進事例を紹介。ある大手建設会社では、21世紀の初頭にスタートした工事・建物データベースの構築の中でHUB的な仕組みが必要だと判断。EAIで連携しながら少しずつアプリケーションを増やしているところだという。企業とITにまつわる一連の動向を踏まえて船橋氏は、クラウド&ビッグデータ時代のIT活用の要件として次の5つを示した。・SaaSの普及によりエンドユーザー主導での素早いシステム活用が求められる・クラウドの活用により処理もデータも分散されるためさらに多様な連携が必要・大量のデータを効率よく連携処理する必要性・複雑な連携でもわかりやすく変更も容易・IaaSとの連携が可能そして次に、これらの要件を受けての、データ活用に必要とされる課題・要素として、以下の5つを挙げた。1簡単、使いやすい2対応接続数の多さ3ハイパフォーマンス4可視性5ポータビリティ○データ活用に必要な5つのポイントを満たす「DataSpider」船橋氏に続いてアプレッソの技術部長、友松哲也氏が登壇し、このデータ活用に必要となる5つのポイント1つひとつについて、アプレッソのEAIツール「DataSpider」がいかに優位性を有するのか具体的な説明を行った。1簡単、使いやすいエンドユーザーがシステムに自主的に触れるような流れになると、いかにわかりやすく使いやすいかがポイントとなる。DataSpiderは、GUIからアイコンベースで一連の処理の流れを設定でき、自分のやりたいことを形にして見て理解できる設計となっている。データの変換についても同様に、見てすぐに処理がわかるように設定していくことが可能だ。「ラベルもすべて日本語であるため、どういう設定なのか、どういう処理をしているのかなどひと目でわかりやすい」と友松氏は強調する。2対応接続数の多ささまざまなアプリケーション、システムでデータ連携をいちいち設計していてはとても大変だが、DataSpiderは多種多様なアプリケーションやシステムと連携することが可能となっている。クラウド連携機能も強化中で、特にAWSへの対応に注力しており、新たなアダプタも続々追加されている。「クラウドは対応速度の速さも大事なことを忘れてはならない」(友松氏)3ハイパフォーマンスデータ連携では、自前のプログラムよりも高速な処理が実現できることが大事だ。DataSpiderは一度JAVAのプログラムに変換してからコンパイルしているのに加えて、これまでアプレッソが培ってきたデータ連携のノウハウも集約されており、非常に高速な処理を実現している。パラレルストリーミング機能により大容量データも分割して並立処理を行うため、ビッグデータの処理でも高いパフォーマンスを発揮するのである。ここで友松氏は、DataSpiderを使って100万件のデータをCSV形式に変換・出力するというデモ披露。わずか7秒で処理が完了してしまい来場者を驚かせた。4可視性これからのアプリケーション、システム連携では、どことどこがどのようにつながっているかがひと目でわかることが求められる。DataSpiderであれば、アイコンを見るだけでどこのデータをどう変換し、どこへつながっているかが一目瞭然だ。「14,000ステップものプログラムでもたった13個のアイコンで表すことができ、変更によってどこに影響が出るかもひと目でわかるようになっている」(友松氏)5ポータビリティ「これは見落としがちなポイントだが、昨今のクラウド環境を考えれば、データの連携処理をどこで行っていようと実現できないといけない。海外のクラウドやサーバーでも同じように連携できないと、クラウド時代には意味がないと言えるだろう」と友松氏は主張する。DataSpiderは、クライアント・サーバーモデルを採用しており、サーバーがネットワーク的に接続できるのであれば、海外であろうとクラウドであろうと連携が可能となっている。サーバー自体をクラウド上に置いて使うことも可能だ。クラウド側に置いた時のポイントは、すべてのクライアントツールがオンプレミスと同じように使えること、そしてインストールすることなくクライアントツールを使えることである。この点についても、DataSpiderではブラウザーベースのクライアントを用意しているため開発者がどこにいてもクラウドに接続して利用することができるのである。導入が容易で使いやすいなど、先の5つのポイントをカバーするDataSpiderは、市場で高く評価されており、EAIソフトウェアにおいて顧客満足度No.1に輝いている。最後に友松氏は、次のように熱弁してセッションを締めくくった。「”つなぐ”をコンセプトにしたソリューションを提供し続けている当社では、2001年からDataSpiderを提供している実績とノウハウがあると自負している。ぜひ当社のサイトへとアクセスし、一度DataSpiderの優れた機能と使い勝手を体験していただきたい」
2014年12月24日