パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

CERNがLHCの観測データ300TBを公開」記事へのコメント

  • 生データが300TBだけ有った所で、人間に何か分かる筈もない。
    膨大なデータを処理・集計して、せいぜい1kB程度に纏めてやっと「何か」が理解出来るだろう。
    で、処理のスループット分のデータ供給速度が有れば十分。ローカルに全データを置いて何度も参照する様な処理アルゴリズムだと、多分まともな時間では終わらないと思われる。

    そもそも、一回の衝突で多数の検出器から得たデータが一塊として提供されている様なので、衝突を個別に解析して纏めたデータをローカルに保存する様な解析手段しか実用性が無いんじゃないかな。
    一回の衝突解析に要する時間は、多分ダウンロード速度よりも遥かに長いと推測されるから、データが擬似ストリーミング的に供給されてるだけで十分だと思う。
    寧ろ、欲しい部分のデータだけを取得出来る様な形態で提供されてるかの方が重要かなと思ったり。

    --
    -- Buy It When You Found It --

吾輩はリファレンスである。名前はまだ無い -- perlの中の人

処理中...