グロッシュの法則は、同じマシン上のコンピューティング リソースの組み合わせには加算効果ではなく乗算効果があるという観察に基づいています。
一般に次のように述べられています。コンピュータの実際の能力は、一般にそのコストよりもはるかに速く成長します。したがって、巨大化への移行によって大幅な規模の経済が可能であることを示唆しています。
したがって、マシンの速度が向上すると、新たな問題を解決できるようになります。メモリサイズも増加した別のマシン。同じマシン上で 2 つの操作を実行すると、別々に取得した 2 つの改造マシンのどちらでもアクセスできなかった追加のクラスの問題を解決することも可能になります。
グロシュ氏は、1960 年代と 1970 年代のすべてのコンピューティングに影響を与えるであろう、実行可能な法則を導き出すことができると考えています。つまり、可能な改善はすべて、同じ中央マシンとそのリソースの共有上で行われなければなりません。
1971 年頃、ブルーノ ルサートはこの法律の有効性について異議を唱えました。それは次の問題を浮き彫りにします。
- リソースのリモート共有は決して無料ではありません(光ファイバーと独占の終焉のおかげで、通信コストがコンピューティングコストよりも早く低下したのは 1995 年になってからで、その後の 10 年間で年間 80% 減少しました)。
- 中央サービスとユーザーの間の地理的および組織的な距離は、反応の遅さや不適切なサービスにつながります。 「なぜ、自分が望む正確なスープを家で作らずに、炊き出しの行列に並ぶ必要があるのでしょうか?」
- 巨大なコンピュータは小型のコンピュータよりも複雑であるため、管理がより困難です(ソフトウェアの漸進的なスタックによる不安定性と、コンポーネントのバージョンがほぼ変更されるたびにソフトウェア間の非互換性が発見されます)。
- 衛星リンクには遅延時間があり、対話モードでの関心がほとんど失われます。
そのとき彼の声は聞こえません。
権力をめぐる競争
強力なコンピュータの開発は、多くの製造業者、さらには国の戦略軸 (フランスの Plan Calcul) の目標となっています。ジャン=リュック・ゴダール監督の『アルファヴィル』やスタンリー・キューブリック監督の『2001年宇宙の旅』など、映画自体も影響を受けることになるだろう。 IBMの副社長であるルイス・ブランスコム氏には、先見の明のあるアイデアさえあります。このコンピューターは、振動、塵、自然災害から遠く離れた静止軌道上に設置でき、ソーラーパネルのおかげで非常に安定した電流で電力を供給でき、どこからでも入手できます。世界中で。同氏は、各国がその経度の下に 1 つずつ表示されるようにするにはせいぜい複数必要であり、それらを相互接続するのが良いだろうと認めています。
したがって、政府はますます強力な中央コンピュータを装備するようになりました(社会保障は、その活動が地理的に分散しており、相互接続する意味のないものを集中管理することに関心がないことを考慮して、17 のコンピューティング センターを区別し続けることになります)。ただし、相互接続された特殊なマシンを使用するのではなく、同じマシン上ですべての改良点を組み合わせると、生産と調整の複雑さが増し、その結果、関連コストも増加することに注意します。これはグロッシュによって過小評価されていました。
巨大コンピューターの時代でもニッチ市場の出現は妨げられませんでした。1960 年代末には DEC と HP のミニコンピューターが登場し、1970 年代半ばにはローカル ネットワーク(イーサネットと ARCnet) の最初の概念が登場し、最後にワークステーションが開花しました。 1980 年代にはマイクロコンピュータが登場しましたが、これらの分野は当初は限界に留まり、少なくとも予算の点ではわずかな市場シェアしかありませんでした。総設置電力の点では状況は大きく異なります。
1980 年代のマイクロコンピューターとローカル ネットワークの発展により、この傾向は逆転しました。 IBM はグロシュの法則に十分早くから疑問を呈しなかったため、IT問題における準覇権を失いました。当時は小規模なソリューションが流行していましたが、ハードウェア コストの低下に伴いシステム価格の大部分を占めていたコストが LusSat によって強調され、大規模システムは小規模システムよりも高価になりました (大規模システムのディスク容量は通常40 倍かかります) PC を超えています)。メインフレームの大規模ディスクでさえ、独立ディスクの冗長アレイ(RAID) に取って代わられました。
伝送価格の下落により、1990 年代後半には大規模システムの流行がわずかに戻りました。特にネットワークのメンテナンスの人的コストが、ハードウェアや通信のコストよりも大きくなり、再び増加しています。ストレージ システムを統合する方が有利です。多くの場合、外部の企業に、場合によってはセキュリティ上の理由からサイトを複製する場合もあります。いくつかの企業は、この傾向の一般化を予想しています。理想的なマイクロコンピュータは、独自の記憶手段を持たない単純な端末になる可能性があり、コンピュータ ウイルス、バックアップ、商業情報や産業情報の漏洩などの懸念から解放されます。私たちは、ワークステーションで導入された概念、つまりディスクレスワークステーション (ハード ドライブなし) の概念を再発見しています。

グロッシュが忘れたこと
グロッシュは彼のモデルでいくつかの要素を無視していました。
- 相互接続の付加価値。
- 大規模シリーズのコスト削減の差
- 複雑さの物理的な限界
- テレメトリーの基本

相互接続の付加価値
電話を持った最初(そして唯一)であることは、たとえ世界で最も先進的であっても、その装置にあまり興味を持ちません。しかし、携帯電話の数が増えれば増えるほど、たとえ初心者レベルの携帯電話であっても、それを手に入れることへの関心がより明らかになります。
同じことがコンピュータ ネットワークにも当てはまります。地理的に離れたマシンや特殊なマシンを相互接続することで、ローカルなニーズを最大限に解決できると同時に、グローバルな統合が可能になります。柔軟性の向上により、ローカルなパフォーマンスの損失が補われ、それをはるかに超えています。
サン・マイクロシステムズは、 「コンピュータはネットワークそのものである」というバークレー生まれのスローガンを採用するところまで行くだろう。当時のネットワーク (混雑した使用では 10 Mb/s がわずか 3.7 Mb/s に低下) では、すべてのステーションの単純な夜間バックアップさえ考えられないこともありました)、この主張は少し時期尚早であり、長所にはなりませんでしたが、まさに情報の流れのボトルネックです。スイッチド イーサネットとその 100Mb/s および 1Gb/s バージョン、さらには高速 FDDI、CDDI、および ATM ネットワークによって、この状況が解決されるのは 1990 年代になってからです。
IBMは遅ればせながら、グリッド・コンピューティングに参入し、Généthonなどの取り組みを後援し、ネットワーク・ベースで確立されたオンデマンド・コンピューティングの原理を導入することで埋め合わせを行うつもりだ。現在、このタイプのソリューションを積極的にサポートしています。
ルサートの透視能力も遅ればせながら…レジオンドヌール勲章を含むいくつかの勲章によって認められることになるだろう。しかし、彼は引退の前夜を迎えています。その間、フランスは、マイクロコンピューティングの分野で主導的な地位を占めるはずだった一方で、メインフレーム生産のためのコストが高く非効率な計算計画で 20 年以上迷走しました。これは、デルやマイクロソフトなどの企業の成功によって証明されています。皮肉なことに、米国でも、世界初のマイクロコンピュータはフランス人のチュオン・トン・ティ氏の作品であると考えられており、彼は省庁からの支援をほとんど受けていなかった。
非常に大規模なシリーズの値下げ
多くの分野で大まかに検証されている法則は、業界での経験を 10 倍にすると、コストを 30% 削減できるというものです (すべてのスケーリング法と同様、この「法則」のアドホックな側面)。追って通知があるまでは少し疑わしいため、原則的な推定値としてのみ考慮する必要があります)。 1980 年の世界のメインフレーム数は約 600,000 台で、1998 年の推定 PC 数は 2 億台でした。この 333 という比率は、グロッシュの法則を歪める可能性のある潜在的なコスト削減につながります。

物理的な複雑さの制限
ムーアの法則にもかかわらず、私たちは現在 (2004 年)、動作周波数の2 乗に応じて増加するマイクロ回路の加熱に関する問題に対してマイクロプロセッサの能力を高めるのに苦労しています。現時点で選択されている解決策は、チップ上のプロセッサを増やし、最初はプロセッサを 2 倍にし (2002 年に PowerPC、次に 2004 年に Intel と AMDアーキテクチャ)、最後に独自の周辺プロセッサを搭載した Cell チップを 2 倍にするというものです。巨大なコントロールデータコンピューター。したがって、単一チップ内であっても、ある程度の規模からはポイント集中を並列化によって置き換えることができると思われますが、それを効率的に利用できるのは一部のプログラム (グラフィックス、集中型) だけです。数値計算、APL などの並列言語など)。もう 1 つのアプローチは、複数のプログラム (コルーチンなど)、さらには異なるアプリケーションを同時に実行することです。
