アカウント名:
パスワード:
生データが300TBだけ有った所で、人間に何か分かる筈もない。膨大なデータを処理・集計して、せいぜい1kB程度に纏めてやっと「何か」が理解出来るだろう。で、処理のスループット分のデータ供給速度が有れば十分。ローカルに全データを置いて何度も参照する様な処理アルゴリズムだと、多分まともな時間では終わらないと思われる。
そもそも、一回の衝突で多数の検出器から得たデータが一塊として提供されている様なので、衝突を個別に解析して纏めたデータをローカルに保存する様な解析手段しか実用性が無いんじゃないかな。一回の衝突解析に要する時間は、多分ダウンロード速度よりも遥かに長いと推測されるから、データが擬似ストリーミング的に供給されてるだけで十分だと思う。寧ろ、欲しい部分のデータだけを取得出来る様な形態で提供されてるかの方が重要かなと思ったり。
下手にやるとゴチャゴチャうるさい奴がいるから全部まとめて提供してるという可能性
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
吾輩はリファレンスである。名前はまだ無い -- perlの中の人
300TBは一度には必要無い (スコア:2)
生データが300TBだけ有った所で、人間に何か分かる筈もない。
膨大なデータを処理・集計して、せいぜい1kB程度に纏めてやっと「何か」が理解出来るだろう。
で、処理のスループット分のデータ供給速度が有れば十分。ローカルに全データを置いて何度も参照する様な処理アルゴリズムだと、多分まともな時間では終わらないと思われる。
そもそも、一回の衝突で多数の検出器から得たデータが一塊として提供されている様なので、衝突を個別に解析して纏めたデータをローカルに保存する様な解析手段しか実用性が無いんじゃないかな。
一回の衝突解析に要する時間は、多分ダウンロード速度よりも遥かに長いと推測されるから、データが擬似ストリーミング的に供給されてるだけで十分だと思う。
寧ろ、欲しい部分のデータだけを取得出来る様な形態で提供されてるかの方が重要かなと思ったり。
-- Buy It When You Found It --
Re:300TBは一度には必要無い (スコア:0)
下手にやるとゴチャゴチャうるさい奴がいるから全部まとめて提供してるという可能性