大きなデータがHPC、コプロセッサワークロードを促進

IDCによると、ハイパフォーマンスコンピューティングシステムでは、インテルとNvidiaのコプロセッサーシステムを、大規模なデータワークロードのキータグチームとして使用する機会がますます増えています。

HPCシステムの76.9%がコプロセッサーとアクセラレータを使用していました(2011年は28.2%増); HPCシステムではIntel Xeon PhiとNvidia GPUが主流となっています;コプロセッサー・システムは主に探索目的で使用されています。利用可能なコンピューティングサイクルの割合は大きなデータ作業に費やされていた;ストレージはHPCサイトで最も急速に成長しているテクノロジーである; HPCワークロードではクラウドコンピューティングがますます使用されており、パブリッククラウドまたはプライベートクラウドを使用するサイトの23.5%その結果は2011年の13.8%から上昇しています。この結果は、サイクル・コンピューティングなどの企業が支援したクラウドコンピューティングがHPCシステムを民主化していることです。

高性能コンピューティング(HPC)サイトの詳細な調査では、IDCは905システムを検討しました。 2011年に、IDCはHPCシステムを488個プロファイリングしました。この2年間の飛躍は、現在HPCサイトの67%が大規模なデータワークロードにどのように重点を置いているかを強調しています。

IDCからの調査は、最新のトップ500スーパーコンピュータランキングに対応しています。

ビッグデータ分析、Big Data Analytics、DataRobotはデータサイエンスの欠点を自動化することを目指している、Big Data Analytics、MapR創設者のJohn Schroederが辞任し、交換するCOO

最終的には、大規模なデータ使用事例がビジネスクリティカルになりつつあり、HPCシステムをさまざまなCXO向けに地図上に置くことで、収益を上げてリスクを削減しています。

IDCは以下を発見した

LinkedInが新しいブログプラットフォームを発表

これはBig OLAPの時代ですか?

DataRobotは、データサイエンスの果実の低さを自動化することを目指しています

MapRの創設者John Schroederが辞任し、COOが辞任