富士通北陸システムズ(FJH)は4月7日、「FUJITSUインフラ構築サービス ビッグデータ分析ソリューション for Oracle Endeca Information Discovery」の提供開始を発表した。同ソリューションは、構造化/非構造化データを含むあらゆるデータを直感的な操作で容易に分析でき、価値ある情報の「発見」を可能とする情報系基盤を提供するソリューション。「Oracle Endeca Information Discovery」の本格導入前のトライアル検証(Proof of Concept)から導入・運用までをカバーし、ワンストップソリューションとして提供する。「Oracle Endeca Information Discovery 導入サービス」と「Oracle Endeca Information Discovery 運用支援サービス」の2つを提供し、前者はOracle Endeca Information Discovery用の設計項目・カスタマイズ作業により短納期で要件に適合した環境の稼働・活用を可能にするもの、後者は導入後環境でアプリケーション・カスタマイズ開発支援などを実施するものとなる。両サービスとも、販売価格は100万円(税別)~。同社は今後、1年間で1億円の売上を目指す。
2015年04月08日NTTコミュニケーションズとSOINNは3月31日、自律的に学習できる汎用型のAI「SOINN」を用いて、ネットワークに接続する機器が収集する膨大なデータの中から、自律的にノイズ(不要な情報や異常値など)を取り除いたうえで、法則性や因果関係を発見する技術「CLARA(CLoud based AI for Recognition and Analysis) with SOINN」(仮称)を開発しNTT Comクラウドで活用する基盤を確立したと発表した。同基盤を用いることで、屋内における高精度な位置測位技術を実現した。具体的には、屋内で利用中のスマートフォンからクラウド上のAI「SOINN」に送信される、接続中のWi-FiとBLE(Bluetooth Low Energy)の電波強度データを分析し、誤差を約1メートルの範囲に収める正確な現在地の測定に成功した。同技術の活用例として、同技術で膨大かつノイズが混じった電波強度(電波の反射などで電波強度が一定ではなくゆらぎがある状態)の情報をクラウドに収集し、ノイズを自動的に除去すると同時に、電波強度と位置の関係性を自動的に学習して発見することが想定されている。屋内にいる利用者のスマートフォンは、現在地のWi-FiとBLEの電波強度をクラウド上にある「SOINN」に送信するだけで、学習モデルを基に予測した測位結果を受信することが可能。この仕組みを開発したことで、測位の誤差を平均で1メートル程度と、従来の5分の1に抑えることに成功した。
2015年04月01日カンムは3月31日、オンアス契約のない加盟店も含めた決済データを整備、拡張し、マーケティングデータとして活用可能なデータクレンジングサービス+BIツール「Kanmu Payment Analytics」ベータ版をクレジットカード会社向けのソリューションとしてリリースした。同社は、独自アルゴリズムを利用することで、クレジットカードの決済トランザクションデータから、オンアス契約のない加盟店を含む形での決済マスタデータを生成。店舗のデモグラフィック情報、加盟店属性情報などを付与することでデータ分析の幅を拡げ、さらに、それらのデータと顧客属性統計情報、顧客行動統計情報を業界横断的に参照できるBIツールを実装した。クレジットカード会社や加盟店は、マーケティング戦略が実際にはどのように自社の決済データとして反映されたかを検証し、業界のなかでどのような特徴があるかを視覚的に把握することが可能となる。クレジットカード会社が同ツールを導入する際には、個人情報を省いた形でバッチで決済データを連携、自動処理を行い、Web経由で閲覧することができる。
2015年04月01日日本オラクルは3月30日、リコーが、世界数百万台規模で稼働する複合機のリモート管理サービス「@Remote」から得られるビッグデータの利活用を支えるプライベート・クラウド基盤に「Oracle SPARC T5」サーバーをはじめとするオラクル製品を導入したと発表した。リコーは世界100を超える国や地域の顧客が使用している複合機の稼働状況や設定情報を顧客管理者にレポートするサービス「@Remote」を提供。プリント枚数やトナー残量、印刷設定など数千項目を超えるデータを分析して障害の未然検知や品質予測に活かすシステムを、グループ全体で使える新たな共通システムに変更し、同サービスに接続した全機種を対象としたビッグデータを利活用できる環境を整備する必要があった。また、同データを分析することにより複合機の故障の予兆を検知、「故障に手を打つ対応」から「予兆で手を打つ対応」へとサービス・モデルを転換し、保守点検の訪問件数を最適化、業務効率の改善ならびにダウンタイムの低減など顧客満足度の向上を強化する狙いがある。リコーは、データを蓄積するオペレーショナル・データ・ストアとして「Oracle ZFS Storage ZS3」を、データ分析のためのデータ・ウェアハウスとして「SPARC T5」サーバーと「Oracle ZFS Storage ZS3」を導入することで、社内ネットワークからの高速アクセスを実現しビッグデータを全社で効率的に蓄積・分析できる基盤構築に成功したという。増大し続けるデータを効率よく処理するデータ分割機能「Oracle Partitioning」や、データ圧縮機能「Oracle Advanced Compression」および「Hybrid Columnar Compression」の採用により、データを実容量の30%以下に圧縮することができ、将来のデータ容量の増加にも容易に対応できる拡張性に優れたシステムとした。グループ全体で共通利用できるプライベート・クラウド基盤を導入したことにより、「@Remote」で収集したデータの活用件数が従来比2~3倍に増大し、ビッグデータを顧客満足度の向上につなげる。
2015年03月31日NTTデータ四国、NTTデータ経営研究所、NTTデータの3社は3月27日、香川県農業協同組合(香川県農協)に対して、相続業務の高度化に向けたシステムの開発に3月末から着手すると発表した。高齢化社会の進展や2015年1月からの相続税法及び租税特別措置法の一部改正により、相続業務の相談・処理件数の従来以上の増加が想定される中で、組合員(被相続人)や次世代(相続人)といった顧客や職員に対して、総合事業としての相続業務の支援と取り組みの強化がより一層求められるという。NTTデータ四国とNTTデータ経営研究所は、香川県農協が実施する相続業務のコンサルティングを行うことにより、導き出した施策を基に相続の事務手続を支援するシステムの開発を、2015年度上期を目途に行う予定だ。なおNTTデータ四国は、今回の取り組みで開発するシステムをベースに、全国のJAグループから個別に支援システム導入を受注することを目指す。現在、香川県農協で作成している全事業共通業務に関する事務処理手順書に対して、総合事業として事業間がより連携して相続業務を一元的に対応・管理できるよう、手順書の見直しを行う。また、顧客の利便性向上に向けて、必要書類を共通化する。NTTデータ経営研究所はコンサルタントとして、香川県農協が実施するこれらの作業をサポートする。NTTデータ四国は、農業協同組合として必要な相続の事務手続(全事業の相続手続)を支援できるシステムを提供する。今後は、相続業務の整理および相続の事務手続支援システムの導入に向けて、NTTデータグループを挙げて、コンサルティング・サービスからシステム導入までを一貫してサポートしていくという。
2015年03月30日米テラデータは3月17日(現地時間)、SAP ERPアプリケーションからのニア・リアルタイムデータを、エンタープライズ用途の分析やレポーティング・アプリケーションに取り込むことを可能にする「Teradata Analytics for SAP Solutions」を発表した。同機能拡張はTeradata Database 13.10以降と互換性があり、既に全世界で提供開始したとのこと。今回発表した機能拡張は、企業が自社のERPアプリケーションに存在するビジネス価値の発見を支援するものという。自動的にSAP ERPから最新のデータを収集・転送し、統合データ・ウェアハウス(IDW)内に格納したSAP以外のデータと結合する。これにより、幅広い層のユーザーがインメモリ・スピードでのTeradataインデータベース処理のパワーを活用し、レポーティングやアドホック分析、高度な分析を実行可能になるとしている。全てのデータをTeradata IDW内に統合すると、ユーザーは追加設定せずとも、150種類以上のTeradata Analytics for SAP Solutionsダッシュボードを利用でき、財務会計や支出分析、製造業務などの主要カテゴリに分類された標準のビジネス・レポートも利用できるという。また、インメモリ・スピードで実行する1,000種類以上のSAS Institute、Fuzzy Logix、R のインデータベース分析関数へのアクセスも利用できるとのこと。ユーザーは、ウェアハウス内の詳細データ全てにセルフサービスでアクセスし、お気に入りのツールを使ったカスタム・レポートの作成や分析の適用も可能になるとのことだ。
2015年03月30日アプレッソは3月27日、オンプレミス環境にあるデータをクラウド上で処理可能にする「Thunderbus(サンダーバス)」および、同社のデータ連携ソフトウェア「DataSpider Servista」でThunderbusを活用するための専用コネクタ「Thunderbusコネクタ」を発表した。Thunderbusの基本構成での価格は、パッケージ・ライセンスで100万円(別途年間保守費用)、月額ライセンス&サポートで5万8,000円。Thunderbusコネクタは無償。販売開始は4月1日。Thunderbusの利用により、オンプレミス環境のマシンにある特定のファイルやフォルダをクラウド側とシームレスかつセキュアに連携できるという。専用線や特別なハードウェアが必要無く、手軽かつスピーディにクラウド・アプリケーションとオンプレミスのデータの接続が可能になるとしている。クラウド側に「Thunderbus Server」、オンプレミス側に「Thunderbus Agent」をそれぞれインストールして設定を行えば接続でき、VPNやインフラの構築や設定は不要とのこと。Thunderbus Serverと同Agentの間はHTTPSプロトコルで接続し、インターネット接続があれば回線を問わずセキュアにデータを連携できるという。Thunderbusコネクタにより、Thunderbusで共有しているフォルダをDataSpider Servistaからシームレスに利用可能になり、Thunderbusで共有したデータをDataSpider Servistaで演算・変換して多種多様なシステムに連携できるとしている。同社ではThnderbusの利用シーンとして、3つのケースを例示する。クラウド・サービスとExcelとの連携では、従業員が管理するExcel上のデータを、PCのローカル・フォルダからThunderbusを経由してクラウド・サービスに連携する。Excelにデータを入力し保存するという日頃の業務スタイルを変えず、クラウド・アプリケーションに最新のデータを自動で登録できるようになるという。BI(ビジネス・インテリジェンス)と拠点データの連携では、各店舗や子会社で運用している個別システムのデータを、Thunderbusを経由してクラウド・インフラ上の本部BIシステムに連携する。これにより、BIシステムは拠点システムから常に最新のデータを参照できるようになり、リアルタイムの経営分析が可能になるとしている。グローバル・データ連携では、ネットワークインフラが貧弱な地域やVPNを管理できるネットワーク・エンジニアの手配が困難な地域からでも、グローバル拠点を結んだシステム・データ連携を実現するという。動作環境は、Thunderbus ServerがWindows Server 2008/2012(いずれも64ビット版)、Thunderbus AgentがWindows Server 2008(32ビット版/64ビット版)/2012(64ビット版)またはWindows 7/8/8.1(32ビット版/64ビット版)。今回発売するバージョン1.0ではファイル連携をサポートし、データベースやWebの連携にも順次対応していく予定。
2015年03月27日コンピュータソフトウェア協会(CSAJ)のデータサイエンティスト育成研究会は3月25日、昨年度同研究会が公表したデータサイエンティストの定義をベースに「データサイエンティスト育成プログラム」の枠組みをまとめ、公表した。同プログラムは、情報サービス業における人材を実践的データサイエンティストに育成するためのもの。平成26年度5月に、同協会より公表されたデータサイエンティストの定義「ビジネスにおいて、競争優位性をもたらすために、データの収集・加工・分析に優れた専門性を発揮し、知見を引き出す人材」がベースとなっている。プログラムは、データサイエンティストのモデル(DSモデル)とその育成手順とで構成されている。このほか、データサイエンティストの職務、タスクの定義、求められる知識とスキルなどについてもまとめられている。同研究会は、「プログラムは、研究会の外に対してもオープンなものであり、自由にモディファイして活用してほしい」とコメントしている。
2015年03月26日データ・アプリケーション(DAL)は、データハンドリングプラットフォーム「RACCOON(ラクーン)」の最新版「RACCOON V.1.3」を3月26日より販売すると発表した。RACCOONは、異なるシステム間のデータ連携、およびシステムマイグレーションやシステムリプレース時のデータ移行に必要なデータ変換をドラック&ドロップによるマッピングだけでノンプログラミングで実現するツール。最新版では、自動マッピング機能を強化し、サポートするDBやフォーマットを増やしたほか、クラウド環境(Amazon EC2、Microsoft Azure)での稼働も確認できる。また、データ移行のニーズが非常に高いことから、データ移行期間だけなど期間を限定してソフトウェアが利用可能なタームライセンスを新たに導入した。販売価格は、従来バージョンと変わらずStandard Editionが300万円(税別)。タームライセンスは、月額12万5000円(税別)で、最低利用期間は3カ月となる。なお、2016年3月末までトライアルキャンペーンとして、Standard Editionをキャンペーン価格200万円(税別)で提供する。DALは最新版を初年度50セットの販売を予定している。
2015年03月26日日本IBMは3月25日、オートバックスセブンが、個々の顧客に適したマーケティングを迅速かつ効果的に進めるため、IBM製品群を採用した新しいマーケティング基盤を構築したと発表した。オートバックスセブンは、複数の部署で顧客の購買データを収集・利用してきたが、2013年から、各種購買データの一層の活用とオムニチャネルでのキャンペーンを迅速に展開するため、組織を再編成し、データ分析の一元化に取り組み、2014年1月に新たなマーケティング基盤を導入した。新たなマーケティング基盤により、購買データなどのビックデータ分析、個人の行動や嗜好にあわせてパーソナライズしたキャンペーンの設計、的確なタイミングと場所での配信、そしてキャンペーン成果の評価に至る、一連のPDCAサイクルを社内で迅速に推進することが可能。日本IBMの製品としては、膨大な顧客データを蓄積する「PureData System for Analytics」、高度な分析により的確なセグメンテーションを可能にする「IBM SPSS Modeler」「IBM SPSS Statistics」を採用し、さらに、個々の顧客にパーソナライズ化した情報を提供する基盤として、「IBM Campaign」と「IBM Mobile Push Notification」が採用された。新基盤によって高度で高速なデータ分析が可能となり、セグメンテーションの精度を向上させ、顧客に身近なスマートフォンに的確な情報提供することにより、あるキャンペーンでは、開封率が25%、コンバージョン率が55%向上したという。
2015年03月26日ビッグローブは、モバイル通信サービス「BIGLOBE LTE・3G」の4月利用分より、使い切れなかったデータ容量の翌月への繰り越しに対応する。申込み手続きは不要で、余ったデータ容量は自動的に繰り越せる。利用プランの高速データ通信容量と同量まで翌月に繰り越すことが可能。月間2GBのエントリープランでは2GBまで繰り越すことができ、翌月は最大4GBまで利用できる。繰り越しの有無や現在利用可能なデータ容量は「My Biglobe」で確認が行える。
2015年03月24日Pivotalジャパンは3月12日、同社のビッグデータ・ソリューションである「Pivotal Big Data Suite」の最新版を発表した。サブスクリプション形式で提供し、価格は個別見積。「Pivotal Big Data Suite」は、次世代ビッグデータソリューションで、コアコンポーネントのオープンソース化を実現した製品。新バージョンでは、分析MPP(大規模並列処理)データ・ウェアハウスの「Pivotal Greenplum Database」、エンタープライズSQL on Hadoop分析エンジンである「Pivotal HAWQ」、NoSQLインメモリ・データベースの「Pivotal GemFire」など、Pivotal Big Data Suiteのコアコンポーネントを、同社としては初めてオープンソースで提供する。併せて、クラウド・テクノロジーにより柔軟な展開が可能なオープンソース・ソフトウェアをベースとするアジャイル・データソリューションも提供する。新たに、パブリック・クラウドやプライベート・クラウド、ハイブリッド・クラウドをサポートする。また、新バージョンで実装した「Pivotal Cloud Foundry Operations Manager」は、「Pivotal Cloud Foundry」アプリケーションにPivotal Big Data Suiteの機能をサービスとして提供する。同社は併せて、エンタープライズ市場におけるスケーラブルな最新のデータアーキテクチャの普及を促進する業界団体とするOpen Data Platform(ODP)への参加を表明するとともに、エンタープライズ市場におけるApache Hadoop導入の簡素化を目指して米Hortonworksとの協業を発表した。
2015年03月13日テクマトリックスが主催するビッグデータ事例セミナー「ビッグデータはもう特別じゃない!? Pentaho で実現するビッグデータ分析」が、来週3月18日に開催される。同社が提供するビジネスアナリティクス「Pentaho」を使ったビッグデータ分析の活用方法、構築事例など、実際にビジネスに活かせる内容を中心に展開するセミナーだ。会場はテクマトリックス東京本社、参加受付は先着順で、参加費は無料。Pentahoは、ルフトハンザ、NASDAQ OMX、EMCなど海外の先進企業の導入実績が豊富なビッグデータ分析ツールで、その特徴は高いコストパフォーマンスや導入スピード。さまざまな異なるデータを組み合わせて分析できる「データブレンディング」も強みで、Pentahoでは単一データに他のデータを組み合わせて、関連性を分析できる機能が充実しており、これにより、他の製品では及ばない深い分析を行うことができる。今回のセミナーでは、Pentahoの豊富な導入実績の中から厳選したビッグデータ活用事例を紹介。そして、Pentahoを使ったビッグデータ分析の課題解決法、ビッグデータ分析術・活用手法を解説。ビックデータを活用したい企業に向けて、最初の導入のヒントから、その後のビジネスへの適用のイメージまで、順を追って知ることができる。セミナー開催概要は以下のとおり。・日程 3月18日 (水)・時間 15:30~17:00 (15:00受付開始)・場所 テクマトリックス株式会社 東京本社3階セミナールーム・定員 30名(先着順、1社につき2名まで)・対象 システム担当者、経営企画担当者、システムインテグレータ、ITソリューション企業・費用 無料・セミナー内容の詳細はこちら・申込はこちら
2015年03月11日トレジャーデータとアットマークテクノは3月5日、IoT(Internet of Things:モノのインターネット)事業における協業を開始したと発表した。トレジャーデータのクラウド型データマネージメントサービス(DMS)「トレジャーデータサービス」が、アットマークテクノのIoTゲートウェイプラットフォーム「Armadillo-IoT」のビッグデータ分析ツール基盤として採用されることになり、センサーの接続からクラウド上でのビッグデータ解析までを実現するIoT環境が提供される。アットマークテクノのArmadillo-IoTは、各種機器・センサーとインターネットの接続を仲介するゲートウェイを中心に、IoTシステムの構築を支える組み込みプラットフォーム。これにトレジャーデータサービスを組み合わせることで、導入企業は工作機械や事務機器、各種ビーコンなどのセンサーデータをクラウド上で収集・保管し、各種のデータから短期間かつ経済的に新しい価値を生み出すことが可能となる。両者を組み合わせたIoTプラットフォームは、JBアドバンスト・テクノロジー(JBAT)にてすでに先行的に採用されている。JBATは、グループ企業のJBサービス(JBS)と連携して、3Dプリンターの稼働状況をモニタリングし、故障の予兆を分析してメンテナンスのタイミングを計るサービスを提供。JBSは、IoTプラットフォームを用いたモニタリングを行うことで、稼働状況のログを可視化し、これまで現場に到着してから確認していた情報を訪問前に把握できるようになった。将来的には、障害予兆を検知し、造形不良や機器故障が起こる前に予防保守が実現されることが期待されている。また、Armadillo-IoTはセールスフォース・ドットコムの「Salesforce 1 Platform」にも対応。セールスフォース・ドットコムは、トレジャーデータとアットマークテクノの協業により、Salesforce 1 Platformの顧客においても、センサーから生成されるビッグデータの分析を行う先進的な事例が拡大するものとみている。
2015年03月06日米テラデータは2月11日(現地時間)、企業がビッグデータを活用しビジネス上の課題解決を実現する、Teradata Aster AppCenterとビッグデータ・アプリを発表した。新アプリは、顧客獲得およびリテンション、金融詐欺、購入経路、マーケティング最適化など、ビッグデータ分析による解決が必要な課題に取り組む全てのビジネスユーザーを支援するように設計し、個人向け金融、エンターテインメントおよびゲーム、ヘルスケア、小売、通信などのビヘイビア・アナリティクス(行動分析)が有効に作用する業界向けに開発したという。同アプリはAppCenter上で稼働し、AppCenterはWebインタフェースによる対話型のアプリケーションを構築・導入・活用するための共通のフレームワークを提供する。また同アプリはユーザーにとっての価値を実現するまでの時間を短縮するよう設計しており、分析ロジック、データ・スキーマ、対話型可視化機能、使いやすいインタフェースなどが含む事前構築済みのテンプレートを活用し、分析を反復可能なものにするという。同社の分析コンサルティング・サービスの様々な導入実績から得たベスト・プラクティスが反映しているとし、同社の分析コンサルティング・サービスが個々の企業の課題解決を支援するビッグデータ・アプリを構成することも可能という。AppCenterは2015年第2四半期までに提供開始を予定しており、オンプレミス環境またはクラウド環境で実装したTeradata Aster Database 6.0との互換性を確保するとのことだ。
2015年03月06日○90%以上 vs. 30%以下 ビッグデータ活用の日米ギャップ世界のビッグデータ市場は急速に拡大している。2014年9月に米国IDCが公開した調査リポート「世界のビッグデータ市場予測 2014年~2018年」は、同市場が2018年まで年平均成長率(CAGR) 26.4%で成長し、2018年には415億ドルに達すると予測している。ビッグデータ活用先進国である米国では、多くの企業がビッグデータ活用を新たなビジネス戦略の柱としているようだ。2013年6月に電子情報技術産業協会とIDCジャパンが共同で行った調査によると、「すでにビッグデータを利用している/試験的に利用している」と回答した企業の割合は、米国では93.3%だったのに対し、日本では27.2%だったという。さらにショッキングな数字もある。日本情報システム・ユーザー協会が2014年4月に公開した「企業IT動向調査2014」では、日本企業で「ビッグデータを利用している(導入済み)」のは、わずか4.8%との現状が明らかになった。日本企業でビッグデータ活用が進まない理由はどこにあるのだろうか。テクマトリックス株式会社 カスタマーソリューション営業部 エンタープライズソリューションチームで主任を務める上村巨樹氏は、「ビッグデータ導入の目的が明確になっておらず、導入してもどのような効果が得られるか確信が持てないといった不安を抱えている企業が多い」と指摘する。ビッグデータ活用によるROI(投資対効果)の測定や、KPI(重要業績評価指標)の決定は、難しいと言われている。特に、IT投資に慎重な企業は、「活用できるデータもないし、データ分析ができる人材もいない。結果が予測できない新技術の導入は難しい」というのが本音だろう。しかし、これでは競争力を失ってしまう。上村氏は、「ビッグデータ活用は、膨大なデータを自社で保存している大規模企業だけのものではありません。海外の先進的な企業では、その規模を問わずビッグデータ活用で、業務の効率化や現状課題の把握など、効果を上げていらっしゃいます」と説明する。例えばオランダのある病院では、患者管理の改善と設備の運用コスト抑制のために医療機器のセンサーから取得できるデータを収集/分析し、救急救命室の稼働状況や待ち時間などを可視化。機器全般の稼働データ分析 によって、設備の最適化だけでなく、作業効率の向上も実現し、救急救命室の稼働時間を20%削減した。さらにデータマイニングや予測分析を用いて、急患の症状からどれくらいの時間内に治療を終えなければいけないのかを導き出すことにも挑戦している。さらに日本の複合機メーカーでは、機械にセンサーを取り付け、稼働状況データを収集/分析することで、故障の発生率予測やメンテナンスの効率化、顧客サービスの向上につなげているという。「こうした事例は、必ずしも大規模企業だけの取り組みではありません。自社が提供する製品やサービスから収集できるデータを活用すれば、収益改善や業務の効率化、製品の品質改良といったビジネス上の課題解決はもちろん、新たなビジネス機会を創出し、競争力強化につなげられるのです」(上村氏)○【セミナー開催間近!】先進ビックデータ分析の無料セミナー開催へビッグデータはもう特別じゃない!? Pentahoで実現するビッグデータ分析のご紹介。2015年3月18日開催の無料セミナー。主催:テクマトリックス株式会社・セミナー概要はこちら○「トライ&エラー」で何度も分析ができるアドバンテージでは、ビッグデータ活用をビジネスに生かすソリューションは、どのような視点で選択すべきなのだろうか。テクマトリックス株式会社 カスタマーソリューション営業部 エンタープライズソリューションチームで主任の佐藤大悟氏は、「ビッグデータ活用で重要なのは、データどうしを掛け合わせて分析し、新たな"気づき"を得ることです。そのためには、社内システムに格納されている構造化データはもちろん、ツイッターなどの非構造化データやオープンデータ、さらにIoT(モノのインターネット: Internet of Things)から収集されるデータなど、ありとあらゆるデータを取り込んで、縦横無尽に掛け合わせられる『データブレンディング』の仕組みが必要です。それを実現した製品が、『Pentaho』なのです」と説明する。テクマトリックスが提供するビッグデータ分析ソリューション「Pentaho」は、データ統合機能(ETL)とビジネスインテリジェンス(BI)を統合した製品スイートだ。『データブレンディング』と呼ばれる機能を用いることで、Oracle/SQL Server/Google Analytics/Salesforceなどに格納されているデータはもちろん、ソーシャルメディアなどの非構造化データやWebサービスなどのデータをノンプログラミングで統合し、高いリアルタイム性の上で分析することが可能。ダッシュボードやデータマイニングといったBI機能との連携もシームレスなので、ユーザーは複数のデータソースを統合して簡単に分析/可視化/レポートできる。それを端的にあらわすキーワードを佐藤氏は「アジャイルBI」だと語る。「従来の分析プロジェクトは、初期導入の際に"どういった分析をするのか"を検討するため、立ち上げまでにどうしても時間がかかるという問題がありました。しかし、Pentahoは、BIとETLが同一製品内でシームレスに連携しているため、データ統合と分析をトライ&エラーで実施しやすくなっています」(佐藤氏)これにより、IT部門(開発者)と業務部門(エンドユーザー)との間で、シームレスなコラボレーションが可能になる。高価なBIツールを導入したものの、「要求から回答まで時間がかかる」「要件定義が不明瞭だったので、期待した分析結果が得られなかった」という課題を抱えている企業は多い。しかし、Pentahoであれば、そうした課題を避けながらプロジェクトを進めることができる。「Pentahoのデータブレンディングは構造化データ・非構造化データを問わずにデータ抽出して、混ぜ合わせることを実現し、それらを多角的に分析し、その結果をさらに深掘りすることも可能です。そしてアジャイルBIのおかげで従来であれば、『そのデータどうしを掛け合わせてどうするの?』と思うような分析にも挑戦しやすい。IT部門が管理しやすく、ビジネス部門が使いやすい。今後、データ分析はビジネス部門で必須の業務となるでしょう。Pentahoは、ビッグデータ活用の敷居を下げるソリューションだと自負しています」(佐藤氏)○【セミナー開催間近!】「Pentaho」で実現する先進ビックデータ分析、無料セミナーを開催へ従来の知見と異なる分析結果が出た場合、それは新たな知見の発見であり、ビジネスチャンスにつながる。ビッグデータ活用を必要としているのは、ビジネスの最前線に立つ部門だ。「Pentaho」には、この他にも様々な機能が備わっている。3月18日に行われるセミナーでは、Pentahoを用いたビッグデータ分析の詳細が紹介される予定だ。これからビッグデータ活用を実現しようとする企業はもちろん、ビッグデータ活用トレンドをキャッチアップしたい企業の担当者も、ぜひ足を運んでほしい。セミナー開催概要は以下のとおり。・日程 2015年3月18日 (水)・時間 15:30~17:00 (15:00受付開始)・場所 テクマトリックス株式会社 東京本社3階セミナールーム・定員 30名(先着順、1社につき2名まで)・対象 システム担当者、経営企画担当者、システムインテグレータ、ITソリューション企業・費用 無料・セミナー内容の詳細はこちら・申込はこちら
2015年03月03日テクマトリックスが、ビジネスアナリティクス「Pentaho」を使った先進のビッグデータ分析術を紹介する無料セミナーを開催する。Pentahoは有力企業の導入実績が豊富で、コストパフォーマンスや導入スピードの優位性が特徴のBI製品だ。セミナーはビッグデータの最新動向や、Pentahoの活用方法、構築事例など、実際にビジネスに活かせる内容を中心に展開する。開催日は3月18日(水)で、会場はテクマトリックス東京本社、参加無料で先着順。テクマトリックスの提供する「Pentaho」は、ルフトハンザ、NASDAQ OMX、EMCなど海外の先進企業の導入実績があり、コストパフォーマンスや導入スピードも特徴かつ、今最も注目したいポイントが、さまざまなデータを組み合わせて分析できる「データブレンディング」の強みだ。Pentahoは単一データに他のデータを組み合わせて、関連性を分析できる機能が充実しており、これにより、他の製品では及ばない深い分析を行うことができる。ちなみに日本ではビッグデータ活用・分析を導入済みの企業が1割未満と言われており、「導入する目的の明確化」「ビッグデータ関連技術の習得」などが、導入を阻む課題として挙げられている。一方で海外企業に目を向けると、7割以上の企業・組織が、今後2年以内にビッグデータに投資する、あるいは投資することを計画しており、北米企業に限れば47%の企業がビッグデータへの投資を既に実施しているという調査もある。そこで今回のセミナーではまず、「Pentaho」が持つ豊富な海外実績の中から厳選したビッグデータ活用事例と、「導入の目的」から紹介する。そして「Pentaho」を使ってのビッグデータ分析の課題解決法、ビッグデータ分析術・活用手法まで案内。ビックデータ活用・分析にあたっての、導入のヒントからビジネスへの適用イメージまで順を追って知ることができる。セミナー開催概要は以下のとおり。・日程 3月18日 (水)・時間 15:30~17:00 (15:00受付開始)・場所 テクマトリックス株式会社 東京本社3階セミナールーム・定員 30名(先着順、1社につき2名まで)・対象 システム担当者、経営企画担当者、システムインテグレータ、ITソリューション企業・費用 無料・セミナー内容の詳細はこちら・申込はこちら
2015年02月27日サイオステクノロジーは、3月18日(水)に アマゾンデータサービスジャパン、アプレッソと共催で、データ活用を中心テーマにその最新動向について、デモンストレーションも交えながら、紹介するセミナーを実施する。このセミナーでは、新たにビックデータの活用を開始しようとする企業向けに、自社で比較的楽に応用可能なシステムを中心に紹介する。セミナーの詳細および申し込みはこちら。BigData最新動向~クラウド&ビッグデータ時代のデータ活用から日時:2015/3/18(水) 13:30~17:00会場:アマゾン目黒オフィス(目黒区下目黒1-8-1アルコタワー19F)定員:120名講演内容:・AWSだからこそ実現できるビックデータ統合基盤・クラウド&ビッグデータ時代のデータ活用の5つのポイント・クラウドビッグデータプラットフォームを使ったデータ活用(仮)対象者:情報システム部門担当者、インフラ構築に携わるエンジニア参加費:無料締め切り:2015/3/16(月)12:00まで
2015年02月24日STMicroelectronicsは2月19日、各種メモリ容量を取り揃え、クラス最高のデータ保持期間と書き込み・消去サイクル、および強力なデータ保護機能を搭載したNFC対応RFIDタグ「SRTAG」を発表した。同製品は、NFCフォーラム仕様のType 4に準拠したRFインタフェースとNDEF(NFC Data Exchange Format)メッセージサポート機能を搭載している。また、内蔵EEPROMの容量は512ビットから64Kビットと幅広く、コンテンツが豊富な仮想名刺やスマート署名を含む、さまざまなアプリケーションに対応することができる。また、最先端のRF性能を提供する他、ユーザがプログラム可能なデジタルCMOS出力を搭載しているため、ホストシステムを起動する外付け部品が不要となっている。さらに、業界標準の20倍となる200年のデータ保持期間、および同10倍となる100万回の書き込み・消去サイクルを実現している。動作温度範囲も-40℃~85℃と拡張されており、最も過酷な動作条件下においても、完全な性能と耐久性を維持する。加えて、既存製品よりも優れたデータ保護性能を特徴としており、クラス最高の128ビットパスワード保護機能を20ビットカウンタと組み合わせることにより、読み取り・書み込みアクセス制御において、タグのクローン作成や改竄を防止する。これらにより、応用分野には、NFCに対応したスマートポスター、広告、画像を活用した名刺の他、Bluetoothの自動ペアリングやWi-Fiネットワークへのセキュアアクセスを行うNFCトークンなどが想定されている。また、資産管理、保守記録、および製品識別のためのNFCタグなどのアプリケーションにも利用できるという。なお、メモリ容量が512ビットの「SRTAG512L」の価格は、1000個購入時で約0.17ドル。「SRTAG16K/64K」の2品種は量産中で、「SRTAG2KL/2KL-P/512L」の3品種はサンプル出荷中である。
2015年02月20日KSKアナリティクスは2月17日、ベトナムでオフショア開発を展開するインディビジュアルシステムズ(IVS)と協業し、オフショアでビッグデータの分析業務を受託するサービスを開始した。これにより、同社の持つデータ分析ノウハウや高機能な分析ツールと、IVSの持つ人材育成能力や人材ネットワークを利用して、質の高いデータ分析サービスを低コストで提供できる。同社は今後、データ分析に有用なオープンソースを準備した専用のクラウド環境(KSK分析プラットフォーム)を構築するほか、IVS社内において年内に10名、2017年までに約100名のデータ分析者を育成し、サービスをアジア市場に拡大する予定だ。
2015年02月18日Clouderaは2月16日、KSKアナリティクスと販売代理店契約を締結し、Hadoopを活用したビッグデータアナリティクスの分野で協業していくと発表した。Clouderaは、大規模データを効率的に分散処理・管理するためのオープンソース・ミドルウェア「Apache Hadoop」のディストリビュータ。「Apache Hadoop」の効率的な導入と安定稼動を実現するため、Hadoopディストリビューション「Cloudera Enterprise」を販売する。一方、KSKアナリティクスは、Pentaho(ビジネスインテリジェンス)やInfobright(高速DB)、Jedox(予算管理)、NYSOL(大規模データ解析)、RapidMiner(データマイニング)、Revolution Analytics(統計解析)など、オープンソースを中心としたデータ分析ソフトウェアの日本語化や販売、技術サポートを提供する企業だ。今回の協業に関し、ClouderaのCOOとなるカーク・ダン氏は、「私たちのクライアントは今後、自社のコア能力(コアコンピタンス)に集中し、より素早く明確なビジネスメリットを手にすることができるだろう」とコメントする。
2015年02月18日富士通は2月12日、エンジニアリングデータ管理ソリューション「FUJITSU Manufacturing Industry Solution PLEMIA Concurrent Design Manager」において、海外拠点との分散設計機能を強化した新バージョンを販売開始すると発表した。同製品は、複数人が設計に関わることで管理が煩雑になる3次元CADデータや関連図面などの膨大なデータを、部品単位で設計履歴を効率的に管理することに加え、管理データを製造工程に必要な情報に生成するソフトウェア。今回、設計のグローバル化に対応するため、データ容量が大きい3次元CADデータを各拠点に設置したサーバ間で夜間の時間帯などにデータを同期して最新データに更新する「レプリケーション機能」を追加した。これにより、国内で行ったコアモジュールの設計を夜間のうちに海外拠点のサーバにコピーし、海外で最新データに即したカスタマイズ設計を行うなど、複数拠点にまたがった協調設計を支援する。対応する3次元CADソフトウェアに、同社の「iCAD SX」が追加された。「iCAD SX」が扱う数万点に及ぶ大きな機械設備やプラントの設計データを「PLEMIA Concurrent Design Manager」で管理することにより、同名ファイルの登録抑止、更新履歴管理、編集権限をファイル単位で設定できる排他設定機能など、複数人でのチーム設計が容易にできるようになる。さらに、3次元CADによるモデルを作成した後、3次元CADのデータ形式から3Dプリンタ用のデータ形式であるSTLに自動変換する機能も追加された。価格は、PLEMIA Concurrent Design Manager V27が150万円(5ライセンス)、オプションのマルチサイトレプリケーションが150万円(1拠点)、オプションのSTL自動変換(3Dプリンタ用)が35万円となっている(いずれも税別)。
2015年02月13日日立製作所の米国子会社であるHitachi Data Systemsは2月10日(現地時間)、ビッグデータの分析ソフトウェアを開発・提供するPentahoを買収することで合意したと発表した。両社は今後、2015年6月末までの買収完了に向けた手続きを進める。日立は今回の買収により、ペンタホのビッグデータ分析ソフトウェアと技術・ノウハウを獲得し、日立のITプラットフォームやデータ管理技術などと連携させることで、新たなビッグデータ利活用基盤を構築する。この基盤を活用し、日立グループが展開するエネルギーや交通、ヘルスケアなどのインフラシステムと組み合わせた新たなサービスを開発するとともに、グローバルなコンサルティングネットワークなども活用し、社会イノベーション事業のグローバル展開を加速していくという。
2015年02月12日『マーズ・アタック!』『フランケンウィニー』のティム・バートン監督の新作『ビッグ・アイズ』の本編映像が公開になった。全米で圧倒的な人気を博した絵画“ビッグ・アイズ”シリーズの生誕の秘密について、ウォルター・キーンという男が語っている。しかし、彼のいうことは真実なのだろうか?本編映像の一部本作の主人公マーガレット・キーンは、大きな瞳が特徴的な“ビッグ・アイズ”シリーズで圧倒的な人気を博し、ポップ・アート史にその名を残している画家だが、60年代のアメリカではこの絵はマーガレットではなく、夫のウォルターの描いた絵として発表された。映画は、夫婦が“ビッグ・アイズ”シリーズを生み出し、世に送り出すまでと、夫婦の葛藤、そして得られたはずの富と名誉を捨て、真実を公表しようと闘うマーガレットの姿を描いている。このほど公開されたのは、シリーズの“作者”として注目を集めた夫のウォルターがテレビ番組に出演している場面。「戦災にあった子供たちの姿を見て衝撃を受け、私の画家としての人生がはじまりました」と語るウォルターは、自分ではまったく絵を描いていないにも関わらず、スラスラと嘘のエピソードを披露し、番組出演者たちを感動させる。劇中でウォルターは次々に嘘をつき、話を大きくし、妻の描いた作品を“自分の作品”として売り込んでは富を手にしていく。しかし、同時に彼は単なる嘘つきではなく、アートを広め、売り、マーケットを拡大していく才能に恵まれていた。本作の脚本を手がけたラリー・カラゼウスキーは「彼は一般の人たちが購入できるように絵画を低価格で製作する方法を見つけ、アート界に革命を起こした。ピーター・マックスやトーマス・キンケードは彼の手法を真似たし、アンディ・ウォーホルでさえも彼の哲学の一部を借用したことを認めている。絵の本当の作者はマーガレットだったけれど、それでもウォルターという男は、ある意味天才だったんだ」と分析する。絵を描く才能はないが、絵を売る才能に恵まれ、アートの世界に革命を起こしたウォルターを“ペテン師”と片付けていいのか? 本作では名優クリストフ・ヴァルツがウォルターを演じており、映像でも彼のテンションの高い演技を見ることができる。『ビッグ・アイズ』公開中
2015年01月30日SAPジャパンと慶應義塾大学SFC研究所は1月27日、スポーツ分野におけるビッグデータ活用を実証研究するイノベーションプログラムを開始したことを発表した。同プログラムの第1弾として、スポーツ・アナリティクスを専門とする古谷知之研究室が、慶應義塾體育會蹴球部(ラグビー部)の協力を得て、試合分析、選手育成などのパフォーマンスマネジメントの取り組みを開始する。SAPジャパンは、2014年7月に国内におけるスポーツ領域でのビッグデータ市場への参入を発表して以来、日本のスポーツチームへの支援を行っているほか、SAPは欧米の大学と協働し、同社の技術や製品を活用したスポーツ選手育成や、ファン・エンゲージメント向上を推進するプログラムなどで実績を積んでいる。今回の取り組みでは、ラグビーの練習と試合における選手のプレーを動画撮影し、トラッキングデータを大量に生成する。それをSAP HANA Cloud Platformに格納し、SAP LumiraやSAP InfiniteInsightなどのデータ分析ソフトウェアを活用し、練習の効果測定や試合分析を行う。また、SuccessFactorsのクラウドベースのタレントマネジメントソリューションも導入するほか、センサーなども練習に取り入れることで、成長を目指す選手の長期的な育成を支援していく。
2015年01月27日電通とNTTデータは、主にソーシャルメディア・ビッグデータの解析を起点とした、マーケティング領域での新たなソリューションの開発・提供で協業すると発表した。協業開始に先立ち、両社はすでにいくつかの実証実験を重ねており、現在、位置情報データ、感情データ、購買データなどのビッグデータと、外部データを連携させることによる新たなソリューションの開発にも取り組んでいる。ソーシャルメディアデータをCRMに連携させる手法では、感情データを活用することで、流通業界におけるオンラインとオフライン、ECとリアル店舗をまたいだ施策の開発が可能になり、ファッション、宝飾品、自動車、家電など嗜好性の強い業界での効果が期待できるという。両社は、電通が持つ事業戦略、商品戦略、マーケティング・コミュニケーションに関する独自のプランニングおよび顧客・生活者のインサイトに関する知見、NTTデータが保有する日本市場唯一のTwitter全量データ注の再販機能およびソーシャルメディア・ビッグデータの解析力、ならびにシステム構築力を掛け合わせることで、マーケティング戦略の立案からマーケティングシステムの高度化まで、マーケティング・ソリューションをワンストップで提供する。併せて、協業を加速する推進母体として「Social Insight Lab」(ソーシャル・インサイト・ラボ)を立ち上げ、企業の複数の部門にまたがるマーケティング課題に対して、課題の解決にあたる。電通とNTTデータは本協業により、顧客企業においてマーケティングをつかさどるCMO(チーフ・マーケティング・オフィサー)/ブランドマネジメント部門と、ITをつかさどるCIO(チーフ・インフォメーション・オフィサー)/情報システム部門の、相互にまたがる高度なマーケティング課題に対して、全体最適の視点からソリューションを提供していくという。
2015年01月23日情報通信研究機構(NICT)は1月20日、暗号化したままデータを処理する「準同型暗号」において、暗号化したデータのセキュリティレベルを向上させる新技術を開発したと発表した。新技術によって暗号化されたデータは100年以上保持できるとしている。新技術は、データを暗号化する際に暗号文をデータ領域と付加情報の2つに分割保存し、付加情報を伸ばす技術により暗号文のセキュリティを更新するというもの。暗号化処理の仕組みは、公開鍵とノイズベクトルを使って付加情報を生成し、公開鍵とノイズベクトルで平文ベクトルのスクランブルを行う。付加情報には、平文ベクトルのスクランブルを解除する際に必要な情報を含んでいる。暗号文は、付加情報とスクランブルされた平文ベクトルの2つで構成されており、対応する秘密鍵で付加情報から復号に必要な情報を復元し、その情報とスクランブルされた平文ベクトルによって元の平文ベクトルを復元できる。また、データの暗号化の速度も従来より向上している。クラウドサーバー上での統計処理を想定した実証実験では、100万件のデータに対する線形回帰計算を暗号化したまま行ったところ、30分程度ですべての処理ができたという。セキュリティレベルを更新する機能を持たない従来研究と同じデータで比較したところ、平均100倍程度高速だと分析している。さらに、大幅なシステム変更を伴わずに新たな暗号システムへ移行することが可能で、ITコストの節減にもつなげられるとしている。
2015年01月20日NECは1月15日、ビッグデータを活用した需要予測システムや高度な仮想化機能を活用した大規模な統合システム基盤の構築に適した、Linux対応のエンタープライズサーバ「NX7700x/A2080H-240」を同日より販売開始すると発表した。価格(税別)は4,567万7,800円~。同製品は、サーバ筐体に複数のブレードサーバを搭載可能なクロスバー構造を採用し、高さ18Uに最大8枚のブレードサーバを搭載することが可能で、物理パーティション機能により、ブレード単位で結合・分割することもできる。これにより、容易に性能の追加・分割が可能になるとともに、分割した各システムにおいて万が一障害が発生した場合でも、障害の波及や他システムの停止を回避することが可能。さらに、データ量の増加時にも、ブレードのパーティション区分の変更を行うことで、最適な性能に合わせた拡張ができる。また、1CPUあたり15コアの、最新のIntel Xeon プロセッサ E7 v2 製品ファミリーを最大16個(240コア)、メモリ容量は最大12TBのまで拡張が可能。そのほか、CPUコアやメモリを監視し、ハードウェア障害の際でもサーバ筐体に搭載された「AnalysisEngine」により障害箇所の特定や障害原因や対策を管理画面に明示する自己診断機能を搭載している。また耐障害機能により、万が一I/Oエラーが発生した場合でも、リトライ処理の実施や、対象のI/Oカードをシステムから切り離すことで、直ちにシステムを停止することなく業務を継続することが可能。これらの機能により、高度な分析処理中の予期せぬ中断などのリスクが低減され、社会インフラの業務基盤として運用することができる。
2015年01月16日ビッグ・ショーン&アリアナ・グランデのカップルに新年早々破局説が囁かれている。うわさによれば、ビッグ・ショーンがアリアナを裏切って浮気をしたのだという。「HollywoodLife.com」の情報筋は、「ビッグ・ショーンは浮気なんて絶対にしませんよ。祖母が亡くなって、色々なことに対処しなくてはならなかっただけです」と語り、このうわさを明確に否定した。祖母を亡くしたビッグ・ショーンには元カノも含め多くの女性から連絡があったのだという。単なるサポートの申し出だったが、そこで誤解が生まれてしまったらしい。「祖母の死後、元カノや女友達からビッグ・ショーンに連絡が来たので、アリアナは彼がほかの女性に会っていると思ったのです。アリアナといるときにも電話やメールが沢山きたのですよ。次々に女性から着信が届くのを見て、思わず浮気を疑ってしまったのです」というのが、うわさの真相だという。ビッグ・ショーンはアリアナに彼女たちはただサポートしてくれているだけだと説明したようだ。いまでも過去の女性から大丈夫かと連絡が来るものの、それ以上ではないと明言しているという。(text:cinemacafe.net)
2015年01月09日マイナビニュースが主催するビジネスセミナー「マイナビニュースフォーラム2014 Winter for データ活用」が、去る2014年12月9日に開催された。どのセッションも意義深く、盛況であったが、特にデータ活用ができる状態を維持管理するために検討すべきポイントについて取り上げた、リアライズ 情報活用ソリューション部 部長の櫻井崇氏による「特別公開!! データ分析を支えるデータマネジメントの秘訣」と題した講演を振り返ってみたいと思う。昨今ではデータ活用が注目を集めているが、実際には「分析を行おうとしても保有データが扱える状態にない」「データの補正や整備にかなりの時間を取られる」といった課題を抱える企業は多い。○マスターデータの整備が不十分で分析できないケースが増加リアライズは、データマネジメントを通じて企業の情報活用を実現するプロフェッショナル集団だ。データマネジメントの方針策定からデータ整備、データ運用管理まで一連の支援サービスをトータルで提供しており、約700以上ものデータマネジメントプロジェクトの実績を誇っている。「企業が保有するマスターデータの整備が不十分なために、データによる分析が行えないケースはよくあります。データは足腰が基本ですから、しっかりと鍛えていなければ上手く分析が行えません」と語る櫻井氏は、最初に"なぜデータマネジメントが必要なのか"という点から解説した。○データマネジメントによる適切な管理で信頼性・整合性を確保たとえば上司から、新商品や新サービスの開発などに際して、役員会で報告するレポートの作成依頼があったとしよう。分析ツールを導入していない場合、まずはExcelやAccessなど身近なツールでレポート作成を行うことになる。しかし、いざ始めてみても肝心なデータの保存場所が見つからない、どのデータを見れば良いのか分からない、データに対するアクセス権がなかったので申請が必要になるといった、データを取り扱う上での課題が発生することは想像に難くない。また、そもそも分析をしているデータの元となる数値が正しく計測できているのか、参照するデータが正しいのか、自信をもてないケースも多々ある。このように苦労しながらも仕上げたレポートを提出したところで、上司からの「この結果で利益が出るのか」という問いには、自分でも結論に自信が持てないため「おそらくは……」としか答えられないのではないだろうか。櫻井氏は「こういう場合では、提案内容の良し悪しは勿論のこと、肝心な数字そのものに対して信憑性があることをしっかり説明できなければ、報告やプレゼンでもなかなか良い結果が得られないケースが多い」と語る。なぜ信憑性を得られる数字を出せないのかという答えは、企業におけるシステムとマスターデータの変遷に起因することが多いと櫻井氏は強調する。往々にして、古くから企業で利用されていたメインフレームではデータが一ヶ所に統合されており、格納場所が分かりやすかった。しかし、システム自体が重厚長大になりコストが増え、データ自体の修正に擁する時間が長くかかることなどの問題点を解消すべく、オープン化の波が到来。そこで、コンパクト化のニーズを満たすべく各種ノードやセッションが構築されはじめ、さまざまな場所からデータを収集する流れができた。こうして誕生したシステムと数多くのツールによって、確かに企業の利便性は向上した。だが一方で、データのキーとなるマスターデータが散在する可能性が高まり、いざデータを活用する際に、欲しい情報へのアクセスが相対的に難しくなったとも言える。「せっかく利便性の高いシステムを構築しても、これまでデータの中身に着目してこなかった故に、結果として企業は思い通りにデータを扱えない状況に陥っています。」と、企業の現状を説明した上で櫻井氏は「"システムにその処理を任せるのに先立って、データを自らの手で整理していなければ正しい情報が得られない"ということにいつ気付くかが課題だったわけです。このような背景から、最近は散在するデータをひとつの統合マスターにしたい、と言った要望が多く寄せられています」と語る。すなわち、企業内にあるデータを適切に管理し、信頼性・整合性を確保するためのデータマネジメントが今、求められているのである。○データマネジメントの実現に必要不可欠な3つのポイント「器/中身/組織・人材」データマネジメントの実現に求められる根本的なポイントとして、櫻井氏は「器(モデル)/中身(データ)/組織・人材」の3つを挙げる。まず器は、データモデルやシステムなどのメタ構造をしっかりと押さえるのに必要不可欠な要素だ。そして中身については、本当に設計図通りにデータが入っているのか、ユーザーがどのように登録しているのか、といったデータそのものを詳らかに把握することが重要となる。組織・人材は、良化した状況を継続するために必要な部分だ。一度データを整理しても、時間の経過とともにまた元に戻ってしまっては意味がない。携わる人材の運用スキルを上げ、企業の文化として落とし込まなければ、データマネジメントの継続性は担保できないのである。「弊社では人材のスキルアップはもちろん、モチベーションの維持など運用上で重要なファクターに関するプランニングを行っています。このプランニングと実践を二段階に分けて実施することで、継続的な運用に必要な組織・人材を育成することができます」と語る櫻井氏。改めて、「データマネジメントでは器と中身、そして組織・人材の3つを総合的に考えることが重要です」と強調した。ここから櫻井氏は、実際に同社が手掛けたデータマネジメントの事例を紹介した。大手ECサイト系サービスを展開する企業では、複数の開発ベンダーにて構築されたデータベースから、データ分析者が必要な情報を収集するため、調査と確認に多くの時間を費やしていた状況から、そのデータの定義情報を1ヶ所に集約することで、最適な分析環境の構築と集中管理を実現。また、分析のキーとなる主要コードの発番ルールが不明確だったため、各組織の独自ルールで発番していた状況も、組織間の運用フローやルールを整備することで、タイムリーで正確なデータ分析がしやすい環境を構築した。金融系サービスの事例では、喫緊の課題とされていた、サービスデスクが処理する膨大な申請書の整備に着手した。こちらでは、申請書の中身を見てデータを比較し、同じものは統合していく作業と並行して、新たに統合したER図に基づいてデータを加えていく仕組みを構築。これにより効率化がもたらされ、従来は紙ベースでやりとりしていた書類についても、システム上で処理できるようになりデータを取り巻く環境が劇的に向上した。櫻井氏は講演の締め括りとして"データサイエンティストは50%から80%の時間を、不正データの排除やデータの整備といった事前準備に費やしている(New York Times,Aug.18,2014)"といった世の中の状況を示唆した。そこで、本業であるデータ分析に専念できるよう、データの整備を行うこと、すなわちデータマネジメントの必要性について強調した。
2015年01月08日