クラウドはビッグデータ分析のイネーブラーとして機能します。
フォレスターはビッグデータを「規模の経済でデータにアクセスする技術とスキル」と定義しています。ここでのキーワードは「経済性」です。データの抽出、処理、活用にかかるコストがデータそのものの価値を上回れば、ビッグデータの活用は無意味です。幸いなことに、データの量が増え続けるにつれて、ほとんどの組織がデータを活用するのに役立つテクノロジーの進化も進んでいます。クラウド技術は、パブリック、プライベート、ハイブリッドのいずれであっても、企業がビッグデータ分析から潜在的なROIを引き出すために不可欠な要素です。
収集と検討
膨大なデータのうち、使えるものはごくわずかであることはすでに述べたとおりですが、それでも有用性を検討し、関連づけ、後で保存する必要のあるデータは膨大にあります。このようなアドホックなデータの多くは廃棄されるため、大量のアドホックな情報を保存するインフラに投資するメリットはほとんどありません。また、企業のファイアウォールの外から内部ネットワークに移動したデータから得られる価値ある情報もほとんどなく、その処理はIT管理者にとって頭痛の種です。
ビッグデータフィルタリングのこの段階は、コンピュートとストレージリソースのオンデマンドスケーリングを提供する***パブリッククラウドプラットフォームアプリケーションです。
分析済み
データが使用可能な形式に変換されると、それを分析して情報を生成する段階に移ります。長期的に見れば、分析アプリケーションに提供された生データを保持する必要はなく、効果的なストレージの必要性は分析処理の結果です。分析フェーズではパブリッククラウドやハイブリッドクラウドの技術が利用でき、データセット処理フェーズではHadoopや同様の代替技術を導入できます。パブリッククラウドユーザーの場合、生のアナリティクスフェーズをパブリッククラウドインフラ上で実行し、その後、プライベートクラウドのコンポーネントを使用して、処理して使用可能な情報を社内に取り込むことができます。
仮想化、統合、コラボレーション
この段階では、意思決定の指針として実際に使用できる情報があります。情報は、ユーザーが利用できるように変換され、企業資源計画や顧客資源管理アプリケーションなどの既存のシステムに格納されなければなりません。SaaS型アプリケーションはクラウド上で実行され、初期段階で開発されたデータを使用して統合を強化し、ユーザー同士のコラボレーションを可能にします。
クラウド・コンピューティング技術を使えば、ビッグデータの価値をより良い形で変換することができます。言うまでもなく、クラウドは、データを商用利用できるようにすることに関しては、かなり****なプラットフォームです。





