プログラマの間では昔から、この手法は処理が遅いだとか、無駄が多いだとか、再利用を心がけろだったりとか
様々なやり方で、ソフトウェアをチューンナップして処理速度を上げるためのやりとりが際限なく
繰り返されているけど、だいたいどれもハードウェアの技術革新によって記録は塗り替えられてないかな。
そりゃ、ミドルウェアレベルでは全てのパフォーマンスに影響してくるので、ちまちまとした
改良が加えられるべきなんだけど、ソフトウェアレベルではどうなの?
I/Oに引きずられるから、I/Oの処理は最低限に抑えるってのが昔から定説だけど
それもSSDの登場で、かなり緩和された感があるし、結局プログラマの努力って
ハードウェアの努力には追いつかないし、無駄なのではないかと思ってる。
10年前を支えたプログラム技術で今も生きているものってある?
オブジェクト指向とかプログラムのわかりやすさを追求したものは別でね。速度的なもので。
そう考えると、プログラマは、プログラムの変更のしやすさ、可読性のよさ、移植性の高さといった
所のみを追求していって、速度はハードウェアに依存する形で良いんじゃないんかな。
ファミコンの時代にも、ナーシャ・ジベリという天才プログラマーがファミコンの性能を
突破してFF3を作ったというのは有名だけど、でも結局そのプログラムは当人にしか解読できないし
まるのまま移植はできないから、結局リメイクという形になってしまったわけだし、
FF3は当時はすごくても、1〜2年後には他の機種もでてきて、そのすごさも塗り替えられてるわけだし
そう考えるとソフトウェアをちまちまとあれこれしたところで、一瞬脚光浴びるだけじゃないかと思う。
再利用は生産性をあげるための工夫で処理速度をあげる工夫じゃないし。
へ? オブジェクトやメモリの再利用も?
そっちの再利用か。 そこだけ妙に細かい話をしてるんだな。
そこだけってか、プログラマが速度を上げる意味での再利用て、そういう意味じゃない? まあどっちでもいいけど。
ミドルウェアと対比するならアプリケーションレベル、かな。細かいけど。
そうだね。ソフトウェアにはミドルウェアも含まれるしね。