オプトは1月14日、Googleアナリティクスで取得できるデータと、オプトのアプリプロモーション支援プラットフォーム「Spin App」にて取得できるデータを活用し、iPhone・Androidアプリ解析サービスの提供を開始した。同サービスでは、ユーザー属性やアプリ内でのユーザー行動、ユーザー通知の開封数などアプリ独自の解析が可能。これにより、アプリを運営する企業は、ユーザーの傾向を把握・分析することができる。また、オプトでは、解析に必要な情報を的確に取得できるよう導入支援も行うため、導入企業はアプリ解析に関する一連のサービスを総合的に受けることが可能だ。
2016年01月15日トリニティは、同社NuAnsのスマートフォン「NEO」のカバー用3Dデータを、NuAns NEOWebサイト上にて無料公開した。同3Dデータを利用することで、ユーザーは3Dプリンタなどで、手軽に自分だけのオリジナルカバーを制作可能となる。標準ラインナップと組み合わせる、好きな素材やカラーを使って上下ともオリジナルの組み合わせを作る、3Dデータに手を入れてスタンド機能を付ける、車載キットを追加するなど、多様なデザイン・バリエーションを生み出すことができるということだ。なお、公開された3Dデータは、上下に分割されたTWOTONEカバー、および背面一体型のFLIPカバーの2タイプとなっており、いずれもファイル形式には「.igs」「.stl」「.stp」の3種のファイルフォーマットが含まれている。
2016年01月15日情報通信研究機構(NICT)は1月14日、大量のデータを暗号化したまま複数のグループに分類できるビッグデータ向け解析技術を開発したと発表した。今回、データを暗号化した状態でロジスティック回帰分析を高速に行う手法を世界で初めて開発した。新技術はNICTが開発していた準同型暗号技術である「SPHERE(スフィア)」と機械学習の1つであるロジスティック回帰分析技術を組み合わせることで実現。新技術は暗号化した状態でデータを分類できるため、個人情報などの機微な情報を安全に効率よく分類することが可能になる。応用例の1つとして、新技術を用いて健康診断などのデータから病気の判定を行う際にデータ処理を行う第三者にデータの内容を開示することなく、プライバシーを保護できるようになると期待されている。また、大量のデータを暗号化したまま複数のグループに分類することを可能とし、高速化の要となる技術は関数の近似とデータ処理の分割の2点となる。最初にNICTはロジスティック回帰分析中に含まれる複雑な関数を単純な多項式で近似し、準同型暗号と組み合わせることで現実的な時間で動作する方式を考案。次にロジスティック回帰分析に含まれる計算をデータ加工処理と集計処理の2つの部分に分割し、データ加工をあらかじめデータ提供者側で行うことで高速化を進めた。これら2点の改良と同機構が開発したSPHEREを組み合わせることで、大量のデータを暗号化したままでロジスティック回帰分析を行うことが可能となり、シミュレーションではサーバ上で1億件のデータを30分以内で分析可能であることが確認できた。さらに、米UCI機械学習リポジトリ(カルフォルニア大学アーバイン校のWebサイトで公開されているデータベース)で公開されている実験用データを用い、新技術によりデータを暗号化したままロジスティック回帰分析を行った結果と、暗号化せずに分析した結果がほぼ一致することを確認した。新技術を用いることで、クラウドサーバなどを用いてデータの分類を行う際、データに含まれるプライバシー情報がサーバ管理者に漏えいすることを防ぐことができるという。
2016年01月14日NTTデータとSassorは、エネルギーマネジメントサービス分野で協業することで合意したと発表した。同協業では、NTTデータが提供する電力事業者向けアプリケーションプラットフォーム「ECONO-CREA」とSassorのIoTアプリケーションおよびサービスを連携させ、エネルギーマネジメントサービスを提供することを目的としている。「ECONO-CREA」は、電力データや分電盤データなどのIoTデータのみならず、仕様の異なるさまざまなデータを一元的に収集・保管・マイニングを行い、サービスプロバイダーにAPIを提供するプラットフォームとなる。今回の協業の第一弾では、2016年1月より、Sassorの「Energy Literacy Platform(ELP)」を、ECONO-CREAのアプリケーションに追加し、提供する予定となっている。今回の協業における各社の役割として、NTTデータでは、ECONO-CREAのアプリケーションプラットフォームを提供し、データの収集・保管・マイニングおよびAPIをサービスプロバイダーとなるSassorに提供し、Sassorは、ECONO-CREAを活用してELPサービスを電力需要家や企業などのユーザーに提供する。なお、協業後は、両社の分析ノウハウを組み合わせて、需要家の使用電力に関するデータ分析サービスを提供する予定だという。
2015年12月21日データ・アプリケーション(DAL)は、異なるシステム間のデータ連携・移行を簡単なマッピングだけでノンプログラミングで実現できるデータハンドリングプラットフォーム「RACCOON」の最新版となる「RACCOON V.1.4」を、2015年12月21日より発売すると発表した。最新版では、Excelデータを入出力する際のデータ位置指定方法が増えたほか、データ量に応じた罫線の位置が変更できるようになるなど、さまざまなデータ操作機能が追加・拡張されており、これによりツールの機能に制約されず、ユーザの設計したExcelデータを簡単に生成・変換することが可能となった。また、各種文字コードの代表的な拡張漢字とUnicodeとの対応表を同梱。これにより、拡張漢字の外字定義作成にかかる工数の削減が可能となった。さらに、新たにIBM DB2 for iのデータベースへの接続を可能とし、動作環境の適用範囲も向上させたという。価格は、従来版と同じStandard Editionが300万円(税別)で、タームライセンスは、月額125,000円(同)で、最低利用期間は3カ月となっている。また、Developer Edition(商用利用不可)は200万円(同)となっている。なお、2016年3月末まで、トライアルキャンペーンとして、Standard Editionをキャンペーン価格200万円(同)で提供するという。
2015年12月18日弥生は12月14日、「弥生給与 16」「やよいの給与計算 16」をNTTデータのマイナンバーの収集・保管サービス「データ管理の達人」と連携することを発表した。またあわせて、クラウドストレージ「弥生ドライブ」の安全管理措置への対応など、スモールビジネスのマイナンバー収集・保管のサポートを強化する。「データ管理の達人」は、マイナンバーなどのマスターデータを一元的に登録・編集する機能を持つソフトウェア。「弥生給与 16」「やよい給与計算 16」と連携することで、マイナンバーの収集・保管・利用・提供・廃棄までをセキュアな環境で実現することができるようになる。「データ管理の達人」のサービス提供開始時期は2016年1月4日予定で、弥生製品との連携開始は2016年4月予定となっている。価格(税別)は、4万9800円/年(Professional Edition ダウンロード版)。
2015年12月14日NTTデータ・グローバル・テクノロジー・サービス・ジャパン(NTTデータGTSJ)は12月1日、NTT DATA Thaiと連携し、Microsoft Dynamics AXが標準対応として備えるローカライゼーション機能に加え、独自の帳票類を取りそろえた「アジア向けローカライゼーションパック」を同日より提供開始することを発表した。同社では、日本企業の海外進出に伴い、グローバル展開可能なERPとしてMicrosoft Dynamics AXの導入機会が増加していることを受け、アジア各国への導入にあたって、カスタマイズが必要となる機会が多いローカル税制要件/帳票類において、あらかじめこれらをパックとして提供することで、要件定義工程を容易化し、全体のプロジェクト工数を削減することができるとしている。また、独自の短期導入方法論とセットにすることで、プロジェクト開始から4カ月でシステムの稼働を開始することも可能となっている。NTTデータGTSJでは、アジア各国向けのローカライズを取りまとめ、まずはインド、タイ、インドネシアの3カ国から同ソリューションを提供する。
2015年12月03日NTTデータとPivotalジャパンは12月2日、アジャイル開発ソリューションの提供について協業することで合意したと発表した。両社は、すでにNTTデータのアジャイル開発基盤とPivotalのオープンクラウド基盤「「Pivotal Cloud Foundry」を統合する取り組みを進め、その開発が完了した。新ソリューションは「ビジネス仮説の検証を支援する機能」「迅速なシステムの開発を支援する機能」「柔軟なシステム運用を支援する機能」を提供する。検証支援機能においては、NTTデータのユーザー行動分析ツール群を、顧客のシステムへ組み込むことを可能にする。例えば、A/Bテストツールを組み込むことで、システムのユーザーに対してランダムに異なるデザインの画面を表示し、デザインごとのアクセス数の変化を計測することが実現する。開発支援機能においては、NTTデータのシステム開発・管理支援ツール群およびPCFに搭載される各種ミドルウエア・フレームワークを利用可能な環境を即時に提供する。運用支援機能においては、「Pivotal Cloud Foundry」が提供する高度なクラウド基盤の管理機能が提供される。例えば、システム負荷に応じたシステムを構成するサーバ数の自動増減や、一部のユーザーにのみ新機能を搭載したシステムを開放するようなシステム構成を実現できる。同ソリューションは2016年2月より提供が開始される予定。両社は提供に向けて、導入コンサルティングや開発、運用・保守などのサービスメニュー整備を行う。
2015年12月03日慶應義塾大学SFC研究所データビジネス創造・ラボ(慶應SFC研究所)と日本マイクロソフトは11月26日、「第4回 データビジネス創造コンテスト ~データと想像力で子育てに笑顔を!Dig Parenting Insight(データビジネス創造コンテスト)」を開催すると発表した。両社は、「データサイエンティスト」の育成を目的としてコンテストの開催を行う。これにより、2020年に25万人不足するといわれているビッグデータを活用した分析、ビジネスイノベーションの創出、情報戦略を実働できる新たなIT人材の育成を進めていく。データビジネス創造コンテストでは、さまざまなオープンデータと、マイクロソフトが提供するMicrosoft Azure、Power BI(Excel)などの分析に必要なIT環境を活用し、全国の高校生から大学院生たちが、政府の少子化対策として挙げている5つの重点課題(1.子育て支援施策を一層充実、2.若い年齢での結婚・出産の希望の実現、3.多子世帯へ一層の配慮、4.男女の働き方改革、5.地域の実情に即した取り組み強化)を解決するデータ分析力とビジネスアイデアを競う。参加チームは、「データと創造力で、子育てに笑顔を!」をテーマに、自ら情報収集・分析し、少子化問題への理解を深めるとともに、データ分析から導きだされるビジネスアイデアの提案を行う。募集期間は、2015年11月26日~2016年2月12日で、最終選考・表彰式は、2016年3月26日。データビジネス創造コンテストの期間中、第1回~第3回までのコンテストの実績をもとに、新たに統計の知識がないことを前提とした応募学生向けのデータ活用オンライン・オフラインセミナーを実施するほか、応募者専用のデータコンシェルジェを設置し、期間中のデータの活用方法やツールの使い方をサポートする。ほかにも、子育てに関するエキスパートからの勉強会とアドバイスを行っていく。
2015年11月27日クックパッドはこのたび、同社のビッグデータ解析のノウハウや事例をまとめた書籍『「少し先の未来」を予測する クックパッドのデータ分析力(日本実業出版社)』の出版を記念したイベントを開催した。イベントでは、雑誌「暮らしの手帖」前編集長で現在はクックパッドのサービス「くらしのきほん」の編集長を務める松浦弥太郎氏を聞き手に、本の著者であり同社のトレンド調査ラボで法人向けデータサービス「たべみる」の事業責任者を務める中村耕史氏が、同データサービスを活用したデータ解析の面白さを語った。○クックパッドの検索データを活用した、"食"のデータディスカバリー中村氏が手がける「たべみる」は、日々膨大に蓄積されるクックパッドの検索キーワードを分析することで、食のトレンドを知ることができる法人向けサービスだ。季節性の高いキーワードの動きからトレンドを把握したり、指定期間のキーワードをランキング形式で見ることができるだけでなく、キーワードを組み合わせた検索の動きから傾向を把握したり、年単位・地域・性別による比較といった高度な分析も可能。主に食品メーカーや小売店、飲食チェーンなどで活用されている。一般的なWeb検索のキーワード分析と比べ、たべみるは、"料理をするために調べる"というユーザーの目的意識が明確なため、キーワードからユーザーの意図を読み取りやすいのが特徴。「たべみるを使えば、週単位での食のトレンドや季節性の高いキーワードの変化が分かるほか、テレビで取り上げられたキーワードの急上昇なども把握できる」と中村氏は説明する。また中村氏は、実際のデータを挙げて食に関する関心のトレンド動向の事例を紹介。例えば、「ミニオン」というキーワードは人気アニメの名前で食とは無関係に見えるが、そこからクックパッドの検索結果を参照するとミニオンのキャラクターをあしらったお弁当のレシピが多く登場し、ユーザーがミニオンの"デコ弁"に関心を持っていることが分かる。また、「基本」というキーワードが複合検索でどのように使われているかを分析すると、ユーザーがどのような料理や調理方法に挑戦したいかが分かってくるという。ちなみに中村氏によると、クックパッドで最も検索されているキーワードは「簡単」とのこと。つまり、ユーザーは、作りたい料理を簡単に実現できるレシピを求めているということだ。さらに、年単位でキーワードのトレンドを追っていくと、面白い発見があるのだという。例えば、「ダイエット」というキーワードが最も検索されるのは"夏の前"というイメージが強いが、実際クックパッドでは"年初に最も検索数が上昇する"のだという。中村氏は「年末の飲み会シーズンが終わり、"今年こそダイエットを実現したい!"というユーザーからのニーズが高いのではないか」と説明する。加えて、「シチュー」というキーワードは冬季に検索数が上昇するが、中でも2月のバレンタインデー過ぎに急上昇する傾向があるという。これは、バレンタインチョコを手作りした際に余った生クリームを使ってシチューを作ろうと考える人が多いからではないかと説明する。そして、地域によるキーワードの傾向を比較すると、同じ「カレー」というキーワードでも北海道・東京・沖縄でカレーに対するニーズの特徴や傾向の違いが見えてくるのだという。このように、クックパッドの検索キーワードにより、世の中のイメージとは異なる"食に関する生活者の生のニーズ"を知ることができる。中村氏は「検索キーワードを調べると、予想外のキーワードが上位にいたり、ニュアンスを表す言葉が多かったり、思いつかないようなキーワードが検索されたりしている」とその面白さを語った。「たべみるは、クックパッドの持つ膨大なデータを再価値化したものと言えます。生活者が何を求めているのかをデータから知り、商品や売場、メニューを考えるために活用してほしいなと思います」(中村氏)○「データこそが真実」その過信が失敗をよぶ一方で、中村氏は「データは常に疑わなければならない」と、意思決定をデータに完全に依存することに懐疑的な見方を示した。つまり、あるキーワードが上位に出現したからといってその結果を過信するのではなく、なぜそのデータが上位に挙がったのかを分析することで、信頼できるものかどうかを検証する必要があるということだ。また、「データ」と「直感(フィーリング)」のバランスをどう取るべきかという点については、「人によってどちらに比重を掛けるかは違ってくるが、直感をデータによって補正していくというのが(データと人の)良い付き合い方ではないか」と語った。最後に、今後の展開について中村氏は、「膨大に蓄積されるデータの中で、まだ見えていないもののほうが多い」と語り、クックパッドのビッグデータを活用したサービスの開発や機能の拡充を進めていくという考えを明らかにした。「例えば、"キャベツ"というキーワードを検索したあとに、ユーザーはどのようなレシピを見て料理をしているのでしょうか。こういった、素材のキーワードを検索した結果何を作ったのか、それが季節によってどのように変化したのかというところまでは、まだ見えていないんです。ジャガイモと玉ねぎを検索したユーザーが、肉じゃがを作ったのか、カレーを作ったのか ―― このような傾向が分析できれば、食材に対してどのような料理が競合関係にあるのかが見えてくると思います」(中村氏)また直近では、テレビに取り上げられた料理や食材を、急上昇キーワードとして番組名と併せてスマホから確認ができる「たべみるニュース」を年内にリリースするとのこと。タイムリーなデータを提供することで、小売店の売場で掲出する商品のPOP作りなどをサポートしたい考えだ。
2015年11月27日カゴヤ・ジャパンは11月25日、同社のデータセンターが「東京都中小規模事業所のクラウド利用による省エネ支援事業」が対象とする「環境に優しいデータセンター」に認定されたと発表した。制度は、東京都の中小規模事業所(原油換算エネルギー使用量1,500kL未満/年)を対象にした助成制度。東京都と日本データセンター協会(JDCC)の両方から認定を受けた企業は、エネルギー効率の高いデータセンターを利用したクラウドサービスを利用する方法へ移行する際に、移行に必要な経費の一部を助成金として受け取れる。認定の条件は、「対象となる情報システムなどはオンプレミスであること」や「クラウドサービスに移行することで事業所のエネルギー使用量が削減されること」「申請時までに、当該年度分の地球温暖化対策報告書を都に提出していること」「使用するデータセンターは『環境に優しいデータセンター』又は『環境配慮型データセンター』として公表されたものであること」となっており、同社は条件をすべて満たした。認定内容は「環境に優しいデータセンター」で認定番号が「JDCC-E0058」、認定レベルが1、有効期限が平成29年3月31日まで。専用サーバーFLEX、マネージド専用サーバー、マネージドクラウド for WEBが対象となる。経費と認められるのは、移行作業費(設計費、システム構築費)、物品・サービス費(クラウドサービス初期費用、インフラ利用料など)と定められており、助成対象経費の6分の1以内(限度額750万円)を受け取れる。
2015年11月25日KDDI、沖縄セルラー電話は、「データチャージサイト」や「デジラアプリ」からデータ容量を購入し、友人や家族に贈れる新サービス「データプレゼント」の提供を27日より開始する。「データプレゼント」は、購入したデータ容量を指定した相手に贈ることができるサービス。贈られた側が利用するには、「データチャージサイト」もしくはデータ容量管理アプリ「デジラアプリ」から有効期間内にチャージする必要がある。同サービスの提供開始を記念して、「デジラアプリ」ユーザー全員に0.3GB分のデータ容量をプレゼントするキャンペーンを合わせて実施する。データ容量は、0.5GB単位もしくは1.0GB単位から購入可能。価格は、0.5GBが税別(以下同)550円、1.0GBが1,000円。有効期限は、チャージ日より62日間。利用するにあたって、申し込みなどは必要ない。
2015年11月24日情報処理推進機構(IPA)は11月16日、『組込みソフトウェア開発データ白書 2015』および『組込みソフトウェア向け プロジェクトマネジメントガイド[定量データ活用編]』を公開したと発表した。『組込みソフトウェア開発データ白書 2015』は、2013年4月~2015年3月までの2年間に、組込み分野におけるソフトウェア開発企業10社から提供を受けた総計174件のプロジェクトデータを分析したもので、収集データのプロファイルと、組込みソフトウェア開発プロジェクトの規模・工数・工期の関係や、生産性・信頼性などの分析結果を掲載している。A4変形判の180ページで、価格は1852円(税抜)。また、『組込みソフトウェア向け プロジェクトマネジメントガイド[定量データ活用編]』は、組込みソフトウェア開発企業などにおいて新たに定量データ活用の取組みを開始しようとしている経営者層に向け、経営者の視点で定量データ活用による利点を紹介し、定量データ管理の導入を支援する位置付けのガイドブックとなっている。A5判の86ページで、価格は463円(税抜)。
2015年11月17日アドビ システムズは、同社のコーポレート・コミュニケーションブログ「Adobe Japan Corporate Communications Blog」にて、データ管理プラットフォーム(DMP)である「Adobe Audience Manager」において、新たなデータ交換を可能にする「Audience Marketplace」を発表した。「Audience Marketplace」は、企業が持つオンラインとオフラインのデータを統合し、ビジネス要件に合わせたオーディエンスセグメントを構築して広告出稿やターゲティングの最適化を実現する同社のオーディエンス管理ソリューション「Adobe Audience Manager」で新たなデータ交換を可能にするもの。広告主と媒体社とをつなぐ専用のデータのマーケットプレイスとして、個別契約の手間をかけることなくセカンドパーティやサードパーティのデータの売買が可能になるという。これにより企業は、自社にとって価値の高いオーディエンスセグメントを特定し、あらゆるマーケティングチャネルにおいて、ターゲットを絞りパーソナライズされたコンテンツを提供できるようになるということだ。データパートナーの広範なネットワークから価値の高いオーディエンスデータを大量に取得し、正確で効果的なインサイトを得られるため、データの流通に関わる手続きの煩わしさから開放されるとしている。また、広告主と媒体社の拡張性によって正確なオーディエンスセグメントを確立できるよういなったのに加え、自社の所有するファーストパーティデータと他のソースから購入・集計した統計情報データを、セカンドパーティデータ(共有可能な他社のファーストパーティデータ)と統合できることで、例えば航空会社やホテルなど類似する顧客を持つ企業間で顧客のデータ交換が可能になるとのことだ。Audience Marketplaceは、オーディエンスデータの販売と購入において、柔軟な価格オプションとシームレスで透明性の高いデータ共有を実現するインフラを提供するとともに、データ交換はオーディエンスセグメントの行動に関するインサイトをリアルタイムで提供し、マーケティングROIの最大化を図るとしている。アドビのデータマネジメント部門ゼネラルマネージャーであるアミット アフジャ氏は、「Audience Marketplaceは、マーケットチャネル全体においてマーケターによるオーディエンスの管理、活性化、収益化の方法を再定義します。当社は、他社とは異なり、データ交換自体でデータを収益化しようとするのではなく、お客様とデータプロバイダーをつなぎたいと考えています。」と述べている。
2015年11月12日Commvault Systemsは、次世代のデータ管理に関するビジョンを示すことを目的とし、変化するテクノロジー、リソース要求の引き締め、拡大し続けるデータ量といった課題に直面しているCIOやテクノロジー/ビジネスリーダーが必要とする新たに発生している顧客ニーズをとりまとめたと発表した。今回取りまとめられたのは、以下の6つ。オープンで標準規格に準拠したインフラストラクチャ:顧客は、コモディティインフラストラクチャのコストメリットと優れた柔軟性を活かしたいと思っている新しいリカバリ要求:顧客は基幹アプリケーションのデータ損失をますます許容できなくなっており、リカバリウィンドウをなくしたいと思っている拡張可能な分析機能の搭載:顧客は、検索/可視化/グラフィカル/コリレーションツールが、データ管理ソリューションに搭載されていること、もしくはサードパーティ製の標準クエリ言語から利用できることを望んでいるアクセス & コラボレーション:ユーザーは、データがいつ、どこで作成されても、すべてのデータのコピーにシームレスにユニバーサルアクセスが行え、他の人とセキュアにデータを共有することで、データを再利用しその価値を解き放つことを望んでいるエンド ツー エンドのガバナンス:企業はすべてのデータを管理しコントロール下に置く必要がある。それには、可視性、セキュリティ、アクセス、コンプライアンスが必要となる従来のバックアップでは追いつけないデータ増加:データ量が従来のバックアップソリューションの能力を超え、今日のバックアップ要求やRPO目標を満たすことができなくなっているこれらの要求については、同社が開発を進めている次世代「Simpana」となるバージョン11において具体化されるとのことで、例えば、「常時稼働、常時利用」 という新しいリカバリ要求に対するアプローチについては、Commvaultプラットフォームに置かれたすべてのデータのコピーを、ストレージに最適化された状態からネイティブに読み込み可能なデータとしてすぐに提供することができるようになるとしている。また、同社が現代のデータ管理の主要件と呼んでいる以下の7つの要件については、将来に備えデータ管理ストラテジーを前進させたいすべての顧客に必携の機能チェックリストになるはずとしている。標準規格に準拠したプラットフォーム アクセス:システムの老朽化やプロバイダ ロックインをなくすことで、顧客のインフラストラクチャロードマップに対する将来のテクノロジーの関係性とリスクを守ること統合データセキュリティ:転送中/保存済/アクセス中のデータのセキュアな保護 - 転送/保存/使用中のデータは暗号化、キー管理、テクノロジー人員ごとのロールベースのコントロールでセキュアなコミュニケーションが確保され、すべてのデータ保存場所を対象としたコンプライアンス監視のための監査コントロールやレポート機能が標準で使用できることダイレクトネイティブアクセス:データはネイティブのフォーマットで利用できること。ネイティブまたはオンデマンドのデータ配信サービスは、アプリケーションから要求されたフォーマットで、ほぼ瞬時の対話型アクセス(リカバリポイント)を提供すること。これにより、運用に掛かる労力、時間、リスクを削減すること拡張可能な検索/クエリ:データのインデックス化/分析/視覚化/最適化- 複数のデータソリューションアプリケーションや保存場所に対し(仮想レポジトリやSaaSでの提供、クラウド ソリューションを含む)、シームレスでパワフルな検索クエリを提供することで、現在/過去のデータをアクティベートし解放することユニバーサルアクセス & コラボレーション:アプリケーション/ファイル/情報を安全に共有 & 同期 - データがいつ、どこで作られても、ユーザーは自分のすべてのデータのコピーへシームレスにユニバーサル アクセスが行えること。そして、生産性とコラボレーションが向上できること。さらに、ユーザー/アプリケーションを問わずデータを安全に共有することができることデータ生成時点からのガバナンス:データを生まれたときから管理 - データが生成された瞬間から管理することで、可視性、セキュリティを持って企業がデータを管理コントロール下に置き、データの違反、損失、盗難、コンプライアンス非準拠といった問題を劇的に減らすこと増分データの取得:リカバリポイントの頻度を増やすことで、ストレージとネットワークの効率性を向上 - 変更ブロックのトラッキングで、データ保護オペレーションの際のワークロードに対するインパクトを劇的に減らす機会を与えること。同時にネットワークやストレージ利用において下流へのデータ転送が効率的に行えること。変更ブロックのみを読込み移動し、ユニークな変更ブロックのみを保存すること。これにより、現在行っているリカバリ オペレーションに必要な帯域幅とストレージ要件を下げ、RPOとRTOが短縮できること
2015年11月12日日立製作所は11月11日、Hitachi Virtual Storage Platform(VSP)ファミリーのラインアップにビッグデータの高速分析を支えるデータアクセス性能と信頼性を備えたオールフラッシュアレイ「Hitachi Virtual Storage Platform VSP F400」「Hitachi Virtual Storage Platform VSP F600」「Hitachi Virtual Storage Platform VSP F800」(VSP Fシリーズ) の3機種を追加し、全世界で販売を開始した。各製品の出荷開始は同月17日を予定している。VSP Fシリーズは、データアクセス性能やデータ容量を強化したフラッシュモジュールの「Hitachi Accelerated Flash DC2(HAF DC2)」を採用し、システムの導入や運用にかかるコストを抑えつつ、データ分析に必要となるデータアクセス性能と信頼性を実現するオールフラッシュアレイ。HAF DC2に独自のデータ圧縮機能を新たに搭載することで、高いデータアクセス性能を維持しながら大量データの効率的な格納が可能となるため、搭載フラッシュモジュール台数を抑え、導入コストの軽減を図るとともに、消費電力や設置スペースを削減することができる。また、ストレージ基本ソフトウェアにはハイエンド向けストレージシステムを含むVSPファミリー全製品で採用する「Hitachi Storage Virtualization Operating System(SVOS)」を搭載し、データの欠損を防ぐデータ保護機能を備えている。大量データへの高速アクセスを実現することで、顧客の新たなサービス開発や業務改善などに向けたビッグデータの利活用が可能だ。各製品ともに物理容量は6.4TB~、ファイバチャネルは16Gbps×4ポート~、キャッシュはVSP F400で128GB、VSP F600で256GB、VSP F800で256GB~となる。価格はいずれも税別でVSP F400が1740万円~、VSP F600が2490万円~、VSP F800が4060万円~。なお、HAF DC2はディスクアレイシステムの「VSP Gシリーズ」にも搭載が可能。ハイエンドからミッドレンジまで幅広く対応するVSP Gシリーズにシステムの規模や用途に応じて組み合わせて利用することができるという。
2015年11月11日NTTデータは11月10日より、「Twitterデータ提供サービス」の商品ラインナップを拡充し、新たに「データ解析オプション」「システム開発ソリューション」の提供を開始すると発表した。同社は2012年9月に米Twitter社とTwitterデータ再販のFirehose契約を締結し、2012年12月より「Twitterデータ提供サービス」を提供してきた。2015年10月8日からは、「Twitterデータ提供サービス」の全言語に対応したサービスを開始。今回の機能拡充は、Twitterデータを、顧客の業務に近いかたちにしたソリューションを提供するためのオプションサービスとなる。「データ解析オプション」は、「訪日外国人動態調査」、「地域情報分析」、「画像抽出」、「災害情報分析」など、目的別に7種類のデータの抽出・解析・レポートを提供する。一方の「システム開発ソリューション」では、「クローリングシステム」、「ノイズフィルター」といった、インターネット上の情報収集・整理を簡単に行うことができるプロダクトの提供を行う。今後、NTTデータは、Twitterデータの提供のみならず、ソーシャルメディアのデータを含むさまざまな情報が、企業活動に対して、さらに貢献できるシステム開発やソリューションの提供を推進し、2020年度までに50億円の売り上げを目指すという。
2015年11月11日エクスペリアンジャパンはこのたび、消費者セグメンテーション・データ「Experian Mosaic Japan (以下、Mosaic)」が、Nearの「Allspark」に第三者データとして実装したされたことを発表した。Allsparkとは、スマートフォンアプリから利用者の許諾を得て取得した位置情報のデータとそのほかの第三者データなどを掛け合わせ、モバイル・オーディエンスを構築できるというプラットフォーム。一方Mosaicは、郵便番号などの居住地情報から、家族構成や年収レベル、居住状況、オンライン・リテラシー、車所有状況など各種のライフスタイル情報を可視化できるというセグメンテーション・データだ。AllsparkにMosaicを第三者データとして組み込むことにより、Allspark上にてオーディエンス構築を行う際に、位置情報に加えライフスタイル情報を利用できるようになる。これにより、より消費者の気持ちに寄り添ったターゲティングと広告出稿、メッセージ設定、コンテンツの配信を実現するほか、Mosaicの利用によりLook-Alikeモデリング(オーディエンス拡張)が実現できるため、潜在顧客へのアプローチなども可能となる。同社によると、たとえば、カー用品の販促施策として、行楽シーズンに合わせたタイヤのディスカウント・キャンペーンを展開する場合、店舗の半径1km以内のターゲット・オーディエンスに対しキャンペーン告知バナーを表示するという条件に、ライフスタイル情報による推計を加えると、所有車種や家族構成による推定ターゲットの絞り込みや、メッセージの変更ができるという。
2015年10月30日エヌ・ティ・ティ・データ(以下、NTTデータ)は22日、家計簿アプリなどの個人資産管理(PFM)サービスやクラウド会計サービスなどのFintechサービスと、NTTデータが金融機関に提供する共同利用型の個人向けインターネットバンキングサービス「AnserParaSOL」を接続するAPI連携サービスを2015年度中に提供開始すると発表した。○ネットバンキング利用者の拡大を期待同サービスは、利用者がインターネットバンキングのIDとパスワードをFintechサービスに登録することなく、銀行取引データ等の連携を可能とするもの。これにより、利用者はより安全にFintechサービスを利用できるようになる。また、Fintechサービス利用者を新たに取り込むことで、金融機関はインターネットバンキング利用顧客の拡大が期待できるという。第1弾として、個人向けインターネットバンキングサービス「AnserParaSOL」での対応から開始し、第2弾として、法人向けインターネットバンキングサービス「AnserBizSOL」への展開も検討していく。NTTデータ広報は「新サービスではこれまでより安全・便利に活用してもらえるよう、企業や個人をターゲットとして提供していく」と話している。今後は、マネーフォワードとfreeeの両社と共同で2015年中にサービス提供を開始。さらに、NTTコミュニケーションズや弥生が提供するFintechサービスとの連携も予定しているという。
2015年10月23日日立製作所は、多種多様なビッグデータの統合・分析・可視化を迅速に実現するBI製品「Pentaho」を用いたビッグデータ利活用のシステム導入支援サービス2種を10月21日から販売開始する。Pentahoは、日立の米国子会社であるHitachi Data Systemsが2015年5月末に買収した、米Pentahoが提供するオープンソースのソフトウェア。無償版と有償版がある。今回提供されるのは、ビッグデータ利活用の最適な手法を導き出すための技術支援を行う「データ利活用トライアルサービス」と、Pentahoをインストールしたシステム検証環境をクラウドで利用できる「データ利活用検証支援サービス」。「データ利活用トライアルサービス」は、ビッグデータ利活用に向けたシステムの本格導入に先立ち、顧客のシステム環境の特性やデータ形式・種別などをヒアリングし、それに基づき、分析対象データの仕分け、分析結果の可視化における要点の提示、分析結果に対する適切な評価指標の設定など、最適なデータ利活用の手法を導き出し、具体化するための技術支援を提供する。また、検証結果に関するレポート作成支援や、本格導入の際のシステム要件の提案など、検証結果を踏まえたシステム本格導入に向けての支援も行う。「データ利活用検証支援サービス」は、「データ利活用トライアルサービス」で具体化したビッグデータ利活用手法について、Pentahoをインストールした日立のクラウド上のシステム検証環境で導入効果を実際に検証できるサービス。顧客のPCから遠隔でシステム検証環境を利用できるため、顧客は導入検証用の環境を用意する必要がなく、初期投資を抑えることができ、サンプルデータを使った分析に加え、顧客の実データの持ち込みにも対応するなど、検証環境に対するニーズにも柔軟に対応する。加えて、データ統合機能により、多様なデータを関連させた高度なデータ分析であっても、迅速に検証結果を確認することができる。同社は、本格的なシステム導入・運用に対応した、Pentahoをインストールしたシステム実行環境をクラウドで利用できるサービスも、2015年度末までに提供を開始する予定。
2015年10月21日ビッグデータ分析とマーケティング・アプリケーションを扱う、米テラデータ・コーポレーション(テラデータ)は10月7日(現地時間)、データウェアハウジングおよび分析ソリューションであるTeradata DatabaseをAWS上でクラウド配備で提供し、本番環境のワークロードをサポートすることを発表した。Teradata Database on AWSの最初のバージョンは、数テラバイトに対応する多様な個々の仮想サーバーであるAmazon Elastic Compute Cloud(EC2)インスタンス上で、AWSがサポートされている国・地域において、AWS Marketplaceより提供される予定だ。Teradata Database on AWSは、テスト/開発、品質保証、データ・マート、障害回復、本番分析などで利用できる。テラデータのデータウェアハウスおよび分析ソリューションの利用用途の拡大や、クラウド上のデータ・ソースおよびクラウド内で提供されているパートナー・ソフトウェアに近い位置でのデータベースの利用、システム規模の変更が容易で、セルフサービスによるプロビジョニングと時間単位の従量制課金での利用といったことが、顧客企業の主なメリットとなる。さらに、Teradata Production and Advisory Servicesというサービスも提供される。これは、同社のプロフェッショナル・サービス部門が、新規および既存の顧客企業を対象に、Teradataデータベースのプロビジョニング、統合、管理、微調整などを、あらゆる配備オプションを通じて提供するもの。Teradata Database on AWSの最初のバージョンは、2016年第1四半期に全世界で、数テラバイトに対応する多様な個々のAmazon EC2インスタンス・タイプにおいて、AWS Marketplaceから提供される予定だ。EC2はWebベースのサービスなのでビジネス用途で利用する顧客は、Amazonのコンピューティング環境内で、従量制課金でアプリケーション・プログラムを実行可能だ。利用環境は、AWS上での単独展開、もしくはオンプレミスまたはTeradata Cloudの環境の3つから選ぶことができる。
2015年10月16日マクロミルは10月13日、早稲田大学データサイエンス研究所と共同研究を開始することを発表した。同研究は、「統計学及びマーケティングにおける非集計データの高次利用」がテーマとなっており、マクロミル保有の購買データならびに意識調査データをもとに「データ・サイエンスに関する教材の開発」「数理統計学・機械学習の理論並び実証研究」「消費者行動のモデル化に関する実証研究」「マーケティング実務における意思決定支援のためのデータ活用に関する研究」といった項目が実施される。一部の研究においては、マクロミルのアナリストやリサーチャーが関わり、知見を活かすことで可能性の拡大を目指していくとしている。
2015年10月14日NTTデータは10月8日、「Twitterデータ提供サービス」をすべての言語に対応させたと発表した。同社は、2012年9月に米TwitterとTwitterデータ再販契約を締結し、2012年12月より「Twitterデータ提供サービス」を提供することと並行し、企業などでのソーシャルデータの利活用の推進を検討してきた。これまでは、提供データの対象言語を「日本語のみ」としていたが、Twitterとの新たなパートナーシップ契約を締結することで、日本語以外の言語を含むすべてのデータを使った分析活用とシステム開発が可能となり、顧客からの要望の高い訪日外国人動態調査でのデータ利用や、ブランドモニタリングのためのグローバルBIでの活用など、Twitterデータのさらなる利用用途拡大が可能となった。なお、価格は、提供データの対象範囲や分析の方法などによって、個別の見積もりとなる。今後、同社ではTwitterデータの提供と、ソーシャルデータを含む顧客社外の情報を活用することで、顧客企業活動に貢献できるシステムやソリューションの開発を推進し、関連ソリューション含めて、2020年度までに50億円の売り上げを目指すとしている。
2015年10月09日トランスコスモスは10月7日、データフィードサービス「t-eams for Data Feed Bid Manage (チィームス・フォー・データフィード・ビッドマネ ジャー)」の提供を開始し、運用型広告サービスの拡充を図ることを発表した。同サービスでは、広告媒体の特徴に合わせ「ブランド名」「色」「サイズ」「説明文」などの商品情報を追加・置換・削除し、最適な入稿データを自動生成。媒体および商品ごとに入札調整を行い、季節のトレンド商品や販売強化商品の広告効果を向上させるほか、商品単位の効果検証により、広告対象商品を絞り込むことで、無駄な配信コストを削減できる。同社によると、ECや不動産、旅行などの業界を筆頭に、Webサイト上で多数の商品・サービスを取り扱う企業が増加するに伴い、商品リスト広告やアフィリエイト広告、レコメンド広告など、広告の種類も急増。広告効果を最大化するため、データフィードを用いた広告運用ニーズが高まっているという。
2015年10月07日人工知能を駆使したビッグデータ解析事業を手がけるUBICは10月1日、業務上のメールや日報などの電子データを解析し、潜在的なチャンスやリスクを人工知能が知らせる、ビジネスデータ分析支援システム「Lit i View AI助太刀侍(AI助太刀侍)」の提供を開始すると発表した。「AI助太刀侍」は、ビジネス上の膨大なデジタルコミュニケーションの中から、たとえば「最近お忙しそうですね?」と営業担当者の来訪を緩やかに期待する顧客からのメールのような、まだ顕在化していない「予兆」をいち早く人工知能が捉えることでビジネスチャンスの獲得と機会損失の防止、リスクの回避など行うもの。まず、顧客の経験や暗黙知に基づいて、検知が必要か不要かに仕分けられた一定数のデータを「教師データ」として「AI助太刀侍」に学習させ、次に同社のクラウド環境「Intelligence Cloud」上の「AI助太刀侍」に、顧客のメールサーバーやファイルサーバーからメール、日報などの調べたい電子データをインポートする。その電子データを「AI助太刀侍」で解析し、検知したい教師データとの関連性が高い順にスコアリングして、上位から順に表示。一定のスコアを超えたデータが発生した場合は、「AI助太刀侍」からその顧客の管理者に自動でアラートを出したり、高スコアのデータの詳細を表示させる。さらに、検知状況の統計レポートや、今後の発生を予測する分析レポートも作成する。再学習による人工知能の強化も可能で、「AI助太刀侍」の「Central Linkage(セントラルリンケージ)」の機能では、より深く調査したい対象者について、「誰から誰に宛ててメールが送られ、誰にCC:されているか?」などを相関図で表示することができ、情報が渡る経路や、送られるべき人に情報が出ていなかったり共有すべき情報が共有されていないケースなどを把握できる。今後、APIの提供による、外部のシステムと「AI助太刀侍」との連携を行う予定があり、販売代理店が独自に開発したレポートの出力、分析機能との連携も可能になるという。
2015年10月02日さくらインターネットは、北海道石狩市にある郊外型大規模データセンターである石狩データセンターを拡張し、新しいコンセプトをもつ3号棟の建設を決定したと発表した。竣工時期は2016年冬を予定している。3号棟では、既存棟の直接外気冷房方式から空調コンセプトを変更し、室外機と空調機の間を循環する冷媒を外気で冷やしてサーバルームを冷却する、間接外気冷房方式を導入。外気を室内に導入しないため湿度変動がなく、除湿器・加湿器、加湿のための給水などが不要となり、ランニングコストをさらに削減できるという。また、サーバルーム内の空調には、新たに上部壁吹き出し方式を採用し、送風ロスの低減と作業空間の快適性を両立する。設備面では、将来的な大型機器の導入や大量搬入に対応するために、搬入口からサーバルームまで電動フォークリフトでの走行を可能とし、あらかじめラックにサーバを搭載した状態で納品を受ける、セットアップラックへの対応も可能。配電設備においては、従来のケーブル方式ではなくプラグイン分岐機構をもつバスダクト方式を全面的に採用し、ラック増設、供給電力変更時などの電気工事を不要とする。さらに、3号棟の収容ラック数、スペース効率が大幅に向上し、従来棟比で約1.6倍のラック収容密度を実現、最大収容ラック数は1,900ラックとなり、既存棟をあわせた石狩データセンター全体での最大ラック数は、3,000ラックになるという。
2015年09月30日富士通は9月24日、ビッグデータの分析サービス「FUJITSU Intelligent Data Service データキュレーションサービス」の分析基盤において、スーパーコンピュータの開発・提供を通じて培ったハイパフォーマンスコンピューティング(HPC)技術を用い、テラバイト以上の超大規模データの分析処理時間を従来比30倍(実測値での速度比較。同社調べ)に高速化したと発表した。同データキュレーションサービスを同日から新基盤に移行し、活用を開始する。販売価格は個別見積(税別)。同社は顧客のデータをキュレーター(データサイエンティスト)が分析し、標準8週間でデータ活用のモデル作成を行うサービスであるデータキュレーションサービスを2012年4月から提供している。同サービスにより、ビッグデータ分析を始める際の設備投資やデータサイエンティストの準備などのコストを抑えつつ、本格的なデータ活用の可能性を検証することができる。また、データキュレーションサービスはデータそのものに着目し、業種・業態に制限されないため、多様な顧客の様々な課題に対してサービスの提供が可能となっている。今回、データキュレーションサービス用に、自社データセンター内にビッグデータ分析専用のHPCクラスタを構築。HPCクラスタは、複数のPCサーバ「FUJITSU Server PRIMERGY(プライマジー)」を高速なインターコネクトで接続したもので、専用の並列処理ライブラリを適用することにより1000コアを越えるCPUの並列処理ができる。ハードウェアとソフトウェア両面の強化により、従来と比較し約30倍の超大規模データ高速処理を可能とした。また、既存の豊富なオープンソースソフトウェア(RやPythonで書かれたアプリケーション、Hadoop、Spark、DeepLearning系フレームワークなど)の変更なしに運用が可能な高い汎用性を有している。高速処理技術を搭載した分析基盤を用いることで、従来1週間を要していた数千個の属性データを持つ数百万人分の顧客データなどの超大規模データに対する分析を数時間に短縮。これにより、ビッグデータ活用が実用・商用フェーズに入り、より膨大なデータの分析を必要する顧客においても、分析結果をビジネスへいち早く反映することが可能となる。
2015年09月24日ヤフーとグループ会社のIDCフロンティア(IDCF)は9月17日、福島県白河市の環境対応型大規模データセンター「白河データセンター」に新しく3号棟を建設すると発表した。1棟50ラック・全6棟で構成される計300ラック規模で、10月1日着工、2016年2月末の竣工を予定している。白河データセンター3号棟は、増加するデータの格納や、Yahoo! JAPANが保有するマルチビッグデータを活用するための処理基盤強化を目的として、Yahoo! JAPAN向けに提供する。データセンターで、さまざまな企業が各種のIT機器を利用する場合と比べ、1社専用とすることで、設置する機器の画一化と動作環境を絞り込むことが可能となり、建物の工期短縮と効率の高いサーバーの収容を実現するという。ネットワークの伝送路を直線距離に極力近づける最短経路で設計し、中継ノードも可能な限り少なくすることにより、東京-白河間のレイテンシは、東京近郊に位置するデータセンターと同等の3.5ミリ秒前後の応答速度を実現。物理的な距離に比例しない高速なネットワーク環境を提供する。また、サーバーから出る排熱を冷やすための空調ユニットには、外気を導入して空調効率を高める間接外気空調方式を採用。空調ユニットはサーバールームのモジュールに直接接続され、白河の冷涼な気候を最大限活用して年間のPUEは設計値で約1.2を見込む。
2015年09月18日データの増加とどこからでもアクセスしたいというニーズを受けて、データセキュリティ戦略の第一歩としての暗号化に注目が集まっている。セキュリティベンダーのソフォスが、選ぶためのポイントを同社ブログでアドバイスしている。暗号化というと実装が複雑すぎる、管理が面倒などの共通認識があるようだが、正しい暗号化ソリューションを利用すればそのような問題はないはずだ。以下に、自社にとって正しい暗号化ソリューションを選択する際のポイントを挙げたい。○使い勝手複雑すぎて使用できないセキュリティ製品は、しかるべきセキュリティ機能を提供しない。暗号化ソリューションは包括的かつシンプルである必要性がある。データがどこにあってもそれを保護し、実装や管理にあたってITのリソースを必要としないものがよい。○マルチプラットフォームWindows、Mac、Android、iOSなどさまざまなOSをサポートし、かつさまざまな種類の暗号化技術に対応するものを。○ワークフローに合う日常の作業の支障にならない形でデータを保護できるというのが理想的だ。暗号化ソリューションは自社のワークフローにあったものを選択すべきだ。暗号化ソリューションにワークフローを合わせると決してうまくいかない。○評判をチェック意思決定を下す前に、その製品についての評判や評価をチェックしたい。業界アナリストやレビュー専門家、そして顧客の声は参考になるはずだ。○拡張性組織の成長に合わせて拡張できる暗号化ソリューションを。○規制遵守データが漏洩するという最悪の事態が起きたとき、暗号化対策を講じておくことでデータ窃盗者の手に渡ったとしてもデータは読むことができず、何の利用価値もないものとなる。垂直業界や固有のデータ保護法や規制のある地域にいる場合、監査担当はデータが暗号化されていたという証拠が必要だ。
2015年09月17日現在、遺品整理を専門の業者に依頼する人が多くなってきています。遺品整理士の資格を認定している、一般社団法人「遺品整理士認定協会」に詳しいお話を伺ってみると、「遺品整理士」の資格が認知されるようになってからは、急激に需要が増え、5年前の3倍以上の依頼があるとのこと。毎月20~30件、年間では平均200件~300件くらいの依頼があるようです。では、「遺品整理士」に故人の遺品整理をお願いすると、どのようなメリットがあるのでしょうか。■遺品整理士に頼めばほぼ1日で作業が終了する遺品整理の難しいところは、「故人の思い出が多すぎてなかなか片づけられない、捨てられない」ということ。でも、思い出に浸ってばかりいたら、一向に遺品整理は進みません。だからこそ、プロに頼むのはひとつの手なのです。「遺品整理士」にお願いすると、部屋の広さや遺品の多さにもよりますが、ほぼ1日で遺品整理が終わります。1LDKだと、3名が4時間を目安に作業を行います。4LDでは2日間かかる場合もあるそうですが、ご遺族が何時間も何日もかけて整理する手間を考えると、その早さはやはり価値のあるものです。また、「遺品整理士」はご遺族の気持ちを尊重し、思い出の遺品はご遺族と一緒に確認しながら作業を進めていきます。他の遺品整理業者のなかには、故人の遺品をゴミのように手荒く処分して、ご遺族の心を傷つけてしまうケースもあるそう。「遺品整理士」はご遺族の気持ちまで察し、仕事を進めていくのです。■高額請求や遺品無断回収などのトラブルを回避ここ数年、最初の見積もりとはまったく違う高額を請求されたり、故人の貴重品を無断回収されたり、悪徳業者に引っかかってしまうケースが後を絶ちません。遺品整理業の相場もわかりにくく、泣き寝入りするご遺族もいると聞きます。「遺品整理士」に依頼すれば、まず、見積もりと違う請求をされることはありません。貴重品の無断回収などもあり得ません。金額の相場は、お部屋の広さや遺品の量にもよりますが、平均15万円~20万円とのこと。「遺品整理士」なら、安心して遺品整理を任せられるのが最大のメリットかもしれません。■遺品整理に関する“悪徳業者を見分ける方法”「遺品整理士」に依頼できるのがいちばん安心ですが、それ以外で悪徳業者を見分けるにはどうしたらいいのでしょうか。「遺品整理士認定協会」に伺うと、いくつかポイントがありました。まず、見積もりから金額変更があるかどうか。最初に安く見積もって、後からどんどん追加され、高額請求されたというトラブルはよく聞きます。通常では「見積もりを出したのに、後から金額変更することなど、通常はあり得ないこと」とのことです。次に、見積もり書類を作成して、それを形として残し、詳しく説明してくれるかどうか。悪徳業者のなかには口頭説明のみで証拠を残さない場合があるとのこと。そしてどんどん追加料金を請求されるそうです。また、廃棄物の処理の仕方は聞いておきたいもの。最近では遺品整理業者の不法投棄などが問題になっています。最後に故人の貴重品についてですが、無断回収などもってのほか。それ以外でも通常の価値よりかなり安く買い取りする業者もあるようなので、注意しておきたいものです。需要が多い遺品整理業だからこそ、悪徳業者も出てくるというもの。「遺品整理士」なら、金額面でも、仕事面でも、安心して遺品整理を任せられるという点が最大のメリットでしょう。なかなか故人の遺品整理ができないという方は、一度検討してみてもいいかもしれませんね。(文/齊藤カオリ)【取材協力】※一般社団法人「遺品整理士認定協会」
2015年09月17日