パスワードを忘れた? アカウント作成
この議論は賞味期限が切れたので、アーカイブ化されています。 新たにコメントを付けることはできません。

Σ、TRON再び? スパコン開発で日米が協力、新OSの作成へ」記事へのコメント

  • by Anonymous Coward on 2013年06月28日 9時27分 (#2410484)

    ただしソースは日経です。
    いつもの企業買収話などと違って政府のリークを基にしているでしょうからガセって事は無いにしても、記事はあまり内容を深く理解せずに記者が書いてて、適当な内容になっている可能性が高いかと。参加企業にNECがねえとか、経済に関わる分野や参加企業はある程度信じてもいいでしょうが、特に技術的内容はこれで論じても無駄では。
    複数ソースがあるなら、それぞれの記事から内容を合成して推測するとかできますけど今のところ日経しか報道してないようだし。

    確かにHPCを研究する人達からは、だいたいHPCの世代が2つ上がるごとに、基盤となるソフトウエア技術を大幅に刷新しないと実行効率を高められなくなると言う話を聞いた事があります。日本だと地球シミュレータと、京コンピュータが同じ世代の基盤ソフトウエア技術(≠ソフトウエアそのもの)が使われていますので、次のHPCではソフトウエアの根本的な刷新が必要になります。
    そしてそれは世代を経るごとに開発負荷が上がっていて、プロジェクトを大規模化してやる必要がある。そのためにオープンソースのような考え方で(ただしGNUではなくもっと閉鎖的な独自ライセンスだが)規模を広めていきたいと言う話は聞いた事があります。(一方、"国家戦略もあるから国際協調は難しい"と、暗にHPCは安全保障問題がついてまわることも示唆していらっしゃいましたが)

    ただ、その中でLinuxじゃ駄目だって話は聞かないんですよね。独自OSを走らせようなんて話は聞かないんですけど。
    日経記事では

    次世代機では、CPU(中央演算処理装置)が京の9万個から数十万個以上に増え、今のスパコンOSに使われるリナックスでは動かない。

    と言っていますが、これは「次世代機では、CPUが京の9万個から数十万個以上に増える。今のスパコンOSに使われているリナックスそのままでは動かない」というのが正しいんじゃ無いのかな。ベンチマークだけに特化するならともかく、実用上はLinuxのプラットフォーム上に蓄積された膨大な資産を使わずに運用するなんて効率が悪すぎます。新OS作ってLinux上に蓄積された資産を新たに作り直すのなんて事実上不可能に近いし。

    国防戦略的にGPLはまずいと言う話はあるかもしませんが…。
    あるいはもはや今のOSと言う概念は2020年の世代のHPCでは通用しないと言う話だったらわかります。

    • by Anonymous Coward on 2013年06月28日 10時51分 (#2410535)

      > ただ、その中でLinuxじゃ駄目だって話は聞かないんですよね。

      私が小耳にはさんだ範囲だと

      1)ノードとしてのチップ上にLinuxが走り
      2)スパコン全体(ノード間のインタラクション含む)を管理するミドルウェアが走る

      という構造が注目されてるようでしたよ。

      #私自身詳しくないんで、これ以上話が拡がらないなー。

      親コメント
      • by Anonymous Coward

        これ逆じゃ無くて?
        ノードごとには専用のOSが走り、システム全体では見かけ上Linuxが動いているような構造を想像した。
        XeonPhiのような感じ。(あれはLinuxだけど)

    • by Anonymous Coward

      スパコンのソフト資産とか、それこそMacOSより寿命が短い使い捨て前提でしょうに。

      • いやいや意外にソフト資産に拘泥しますよ.

        なにしろ数値処理機として見た時, 最も工数がかかるのは, 計算結果が実世界の現象と一致しているかを確認することだったりしますので. その確認が出来ていない計算をいくらやっても, 電熱器と変わりありませんし. ですから, 一旦評価が定まると, 細かい改修を繰り返しながら延々と使い続けるということが少なからずあります.

        言ってみれば, ソフトウェア資産じゃなくて, ソフトウェア設備という感じですね.

        親コメント
      • by Anonymous Coward

        実装されたソフトウエアそのものじゃなくて、問題をいかに効率良くスケールさせて処理するかと言った基盤となるソフトウエア技術についてです。
        それがだいたいHPCが2世代進むと次の世代では同じ方法論ではスケールしなくなってくるので、あたらしい技術を開発して刷新しなければならないと言う話でした。

        もちろん実際に問題を解くソフトウエアなんかは問題ごとに最適化するんですけどね。
        (と言いつつ、こっちも最近はそうでもないような。専用ソフトも多いけど、汎用ライブラリを使って行うケースも多いような)

    • こういうのって信頼性が大事だと思うけど、
      斬新を繰り返して実は計算結果が違いましたとか笑える結果になったりして。

UNIXはシンプルである。必要なのはそのシンプルさを理解する素質だけである -- Dennis Ritchie

処理中...