第1回分

VLSIにはピンがたくさんあったが全部使用するのか?

全部使っているとは限りませんが、最近のVLSIは、主に次の2つの理由から ピン数が増える傾向にあって、これはこれで深刻な問題になっています。
  1. 多くがディジタル信号(=2進数)を扱うため、1つのデータをあらわすのに 多くの信号線が必要になる
  2. 消費電力が増える傾向が強く、電源ピンを多くとる必要がある

Pentium4などは消費電力がかなり上がっているが何故か?

いくつか原因がありますが、主に次の2つが原因といえると思います。
  1. スケーリング則の予定通り電源電圧が下がっていない
  2. MOSトランジスタが小さくなりすぎて、本来OFFになって 電流が流れないはずのところに余分な電流(リーク電流)が流れる

最近は性能=クロック周波数が成立していないと思う.

プロセッサの性能は、クロック周波数だけでなく、 たとえば内部で並列処理をする、分岐命令実行時の無駄を減らす、 命令セットを最適化する、など、いろいろな要因で高めることができるため、 あくまでもクロック周波数は「性能の目安」と考えられるでしょう。 (講義でも「1つの目安」と紹介したはずです)

微細化すると価格が下がるということだが,メモリーカードの価格は逆に高くなっている気がするが?

つまり容量が2倍でも、価格が1.5倍、のように、 単位容量あたりの価格、で考えると、下がっているんじゃないですかね。

ただメモリは、穀物のように需要と供給で大きく価格が変動する製品に なっていますので、これの影響もけっこう大きいんじゃないですかね。

パソコンの価格は下がっているといえるのか?

メーカの企業努力で下がっている分もあると思いますが、 劇的には下がっていないように感じますね。 あくまでも「機能単価」で考えると、お買い得感が増している、ということでしょう。

性能が上がると価格も高くなるような気がするが?

そうしなくても済むのが、スケーリング則なわけです。

スケーリング以外に性能を上げる方法はないのか?

いえ、プロセッサのアーキテクチャを最適化してデータの流れを スムーズにする、など、多くの方法があります。 が、従来はスケーリングが一番簡単で効果的だった、ということでしょうね。

近い将来スケーリング則の限界が来て3年で4倍の性能向上は見込めないのでは?

もちろんそのとおりです。

スケーリングは縦,横,高さどの方向に1/k倍するの?

すべて、ですね。

スケーリングの限界が来たとき性能を上げる手段として,どのようなものが考えられるか?

1つはコンピュータ(=計算)のパラダイム自体が大きく変わる、というものです。 量子コンピュータなどが研究されていますが、 ディジタルなコンピュータとはまったく異なる計算原理が 出てくるかもしれません。

もう1つの大切なことは、「性能を上げなくても大丈夫な用途も多くなる」 ことではないかと思います。 つまり用途によってはパソコンの性能は十分であり、 その他の機能、たとえばバッテリのもち、や、大きさ、などが 重要視されてきている、ということからも、 「常に性能をあげる」だけがすべてではない、という視点をもつことも 大切ではないかと思います。

スケーリングが進むと高度な技術が必要となり,価格が高くなることはないのか?

ご指摘のとおり、です。 つまり最先端の製造工場をもつことは数千億円近い設備投資が必要になり、 これも、企業の水平分業化がすすんだ大きな要因でもあります。 その設備投資の分、価格は多少高くなりますが、 スケーリングによって性能がそれ以上に高くなるので、 機能単価はやはり下がっている、ということでしょう。

どうして現在のスケーリングのペースはなぜ実現できているのか?

みんなががんばってきたから、ではないでしょうか。

スケーリングをすると低消費電力になるのは何故か?

簡単に言うと、電源電圧もトランジスタの大きさにあわせて低くするので、 かかる電圧も流れる電流も小さくなるため、です。

スケーリングは本当に良い面しかないのか?

作るのが大変になることと、実は信号を伝える配線での 遅延時間が相対的に大きくなって高性能化の妨げになる、ことぐらいじゃ ないですかね。

ムーアの法則に追従していく必要はあるのか?

追従したほうがいいと、業界の人が考えてきたからでしょう。

微細化が徐々に進むのはなぜか?ムーアの法則による予測を上回ることは現実的ではないのか?

各段階で解決すべき技術的課題が多すぎて、一気には進めないんでしょうね。 もちろん研究段階では、数世代先を見越していますが、 それが実際に使えるのようになるのは、結果としてほぼムーアの法則に あってきたようです。

トランジスタはどこまで小さくなれるのか?(原子の何個分まで??)

トランジスタ単体では、ゲート長が6nm程度のものもあるようです。

ムーアの法則はいつ頃まで成り立つのか?

少なくとも2010年ごろまでは大丈夫そうです。

法則を成立させるために研究されているのにムーアの法則は本当に法則と呼べるのか?

講義でもお話しましたが、それにあわせるように世の中が動いてきたわけで、 ある意味「宗教」なんじゃないかと思います。

技術進歩が頭打ちになり,技術進歩がなくなる日がくるのでは?

そのとおりだと思います。 そのときに、何をするべきか、を、工学部で学ぶみなさんには 考えてほしいと思います。

人が回路規模に遅れているが,最後はどうなるのか?

考えられることは簡単で、1)技術的にトランジスタ数を多くできても それを使いこなせない、2)チーム力が重要になる、 などではないでしょうか。

家庭用パソコンの性能は一般的な用途には十分な性能になったが,この分野の成長が遅くなることはないのか?

性能以外の、サイズ、使い勝手、騒音、など、別のポイントに 移っていくんでしょうね。

車は機能飢餓になく,情報機器が機能飢餓であるのは何故か?自分はどちらも機能飢餓を感じない.

評価基準は主観的なものですので、人によって異なると思います。 世間一般の評価は、ということを紹介しました。

機能飢餓は意識的なものだけか?

少なくとも私はそう思います。 つまりユーザである人間が、「不満だ」と思えば、機能飢餓であり、 それに答えていくのが工学・技術、そして市場だと思うのです。

機能飢餓は今後も続くか?

上記のとおり、ユーザの人間とのあり方しだいだと思います。

消費者が機能単価が良いものを求めるのは理解できるが,メーカー側がそれを求めるのは何故か?

(それが必ずしもよいことだとは思いませんが)「そのほうが売れる」からじゃ ないですかね。

4MのDRAMが良く売れないことは商品化の段階で気づかなかったのか?技術者は技術以外にどういった点に注目して開発をしていくのでしょうか?

今考えれば、盲目的に「1Mの次は4Mだ」と信じられていたんでしょうね。 技術は、あくまでも人類の幸福に寄与すべきものであり、 技術者はその視点を忘れてはいけないと思うのです。 極端な話を紹介すると、相対性理論を考えたアインシュタインは、 その理論がもとで原爆が開発されたことを非常に後悔し、晩年、 反核運動を行っていました。 自分の理論・技術が、社会にどのような影響を及ぼすか、という視点を、 常に技術者はもつべきだと、私は思います。

仕事を複数の会社で分けると価格は上がらないのか?

結果として、すべてを自社でもつより、外注したほうが安い、 ということでしょうね。

作る人は (価格/性能)をあげて儲かりたいのでは?

もちろんそうだとおもいますが、直接利益に関係するのは「価格」であるはずです。 したがって、それの「性能」がどれぐらいか、は儲けにはあまり関係なく、 原価が同じならば価格だけ上げたいわけですが、 「性能」が高いほうが、売れるわけですから、 結果として「価格/性能」は下げたほうが得策でしょう。 ただし「価格が下げる」とは限らないのがミソです。

企業の価格競争で値段が下がっていると思っていたが,スケーリング則の寄与で企業の利益はそれほど変化していないと聞いてショックだった.

いえ、上記のとおり「価格が下がっている」とは限らないのがミソです。

予定している性能が市場から求められていないと分かっているときは性能を予定性能からずらすことはあるのか?

もちろんそうすべきだと思いますし、実際にも多くあるようです。

PS2のICをもう一度見せてほしい

準備してみます・・・

パワーポイントの画面をもう少し大きくしてくれませんか?

すいませんでした。次回からは板書がメインですので・・・
戻る