title
TOP / Wiki / Diary / Profile / PC / BBS / Mail
わたしの日記は日々の出来事の鬱憤晴らしの毒だし日記がメインです。 相当病んでいます。くだを巻いています。許容出来る方のみのアクセスをお願いします。 また、この日記へのリンクは原則自由にして頂いても結構ですが、 写真への直リンクを張るのはご遠慮下さい。内容に関しては、一切保証致しません。
カテゴリ一覧 Network, Internet, IPv6, DetaCenter, NTT, Comp, Linux, Debian, FreeBSD, Windows, Server, IRC, 大学, Neta, spam, , 生活, 遊び, 仕事,
過去日記:



2012年10月28日() [晴れ]

[Diary][Neta] NTTコミュニケーションズ 第四法人営業本部というところから怪しげなアクセス

日記のアクセスログを久しぶりに見ていたら、怪しげなアクセスがあったので晒してみます。

[2012/10/26:16:26:38 +0900] 210.160.194.73 "/diary/?20120601" 
  "http://tomocha.net/notify-Keikoku-Notify?aHR0cDovL3RvbW9jaGEubmV0L2RpYXJ5Lz8yMDEyMDYwMQ=%3D"
  "Mozilla/5.0 (Windows NT 5.1; rv:9.0.1) Gecko/20100101 Firefox/9.0.1"

[2012/10/19:09:29:08 +0900] 210.160.194.73 "/diary/?20110612"
  "http://tomocha.net/notify-Keikoku-Notify?aHR0cDovL3RvbW9jaGEubmV0L2RpYXJ5Lz8yMDExMDYxMg=%3D"
  "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/537.4 (KHTML, like Gecko) Chrome/22.0.1229.94 Safari/537.4"

ターゲットとなるページは下記の通り。

後ろのURLはリファラなのですが、BASE64デコードをすると、おもしろいですね。というか、つまんなかったですね。
興味のある方はデコードしてみてください。

本日のネタはオチ無し。

[ コメントを読む(0) | コメントする ]

2012年10月26日(金) [晴れ]

[Internet] インターネットのカタチ―もろさが織り成す粘り強い世界―

Facebookや Twitterで、「極端な女の話をみつかり、あわてて写真に収めた」という話をみて、おもしろい記事を見つけた。そしたら、どうやら私のことをものすごく意識をして記載されているとの情報。



よく読んでみるとAS番号の説明に次のようにある。

インターネットではさまざまな識別番号が使われており、その「番号割り当て」に関しては、複数の組織が同じ番号を持たないように、全体の整合性を保つための組織が存在しています。その中心となっている組織の名前はIANAです。AS番号を取得している団体の代表例は、OCNやBiglobe、So-net、NiftyといったISPです。GoogleやMicrosoftのような企業も独自のAS番号を取得しています。 極端な例として、個人でAS番号を取得する事例もあります。

で、Twitterで話をしていると、 著者のあきみちさんより、次のようなコメント。

@tomocha: 先日出版されたインターネットの本のASのところ、極端な例として個人でAS番号を取得される例もあります、って、私のことを意識されました、、、?それとも、他の3名のことも含みます?汗(すでに内1つは返却すみですが)

@geekpage: 意識しないわけないじゃないっすか!(笑

やはり意識されていたようだ。。。本のネタにまで登場してしまったという事実が発覚しました。
結構おもしろい本なので、興味のある方は、買ってみて読んでみてくださいね!

本文引用については念のため許諾済み。

[ コメントを読む(0) | コメントする ]

2012年10月24日(水) [晴れ]

[DC] 大手町の有名処のDCたち

詳細は差し控えさせていただきますw

κzκz★  『ともちゃさんに伺うことじゃないかもしれませんが、ComSpaceWestってどの辺なんでしょうか?』
[ コメントを読む(1) | コメントする ]

[Other] 東京駅丸の内駅舎保存復原

ライトアップには間に合わなかったけど、銀座でごちそうになった後、東京駅まで歩いてみました。

東京駅の撮影は、元々予定外だったということ、偶然一眼レフをもっていたのもあり、撮影。
ただし、三脚は無いので、手持ちで出来る限界の写真です。

次はライトアップ時間中に三脚もっていきたいなぁ。

帰りに大手町まで歩き、撮影しまったのは秘密。ということで、ついでにupしようかしら。

[ コメントを読む(0) | コメントする ]

2012年10月21日() [晴れ]

[DC] 新日鉄第5データセンターの完成後

先日の日記(6/16 新日鉄第5データセンター@101プロジェクト)で記載した続き。プレスで工事が完了したという情報を聞きつけ、どうなってるのかなぁと思い改めて探してみました。
やっと、きれいになっているという感じですね。天気も良かったし。




見た限り駐車場は5,6台分のスペースと、障害者向けスペースがありました。
さすが老人ホームw

[ コメントを読む(0) | コメントする ]

2012年10月19日(金) [晴れ]

[Other] 深夜2時の駅の中

帰り、あほほど電車が遅れて、最寄り駅に着いたら2時前。
一眼レフをもっていたとき、メンテナンスしている方をみかけたので、撮影させていただいたら、元気にピースしてくださいました!
こういう気さくな笑顔いいですね!

[ コメントを読む(0) | コメントする ]

2012年10月18日(木) [晴れ]

[Network] Software Design 2012年11月号 OpenFlow特集

本雑誌にコラムとして執筆させていただきました。

元々、OpenFlowは実際に構築、運用したことが無く、デモスイッチをさわらさせてもらったり、NEC製の UNIVERGE PF6800を見せてもらったり、と比較的見ることは有りましたが、こんな立場で書いてもいいのかなとずっと悩んでいました。悩んでいたまま、倒れて救急車で運ばれ、今回は執筆断念しよう、無理ですね。という話をしていて、1ヶ月後ぐらいに、ふと、担当の編集者とTwitterで話ししたところ、「まだ大丈夫ですよ。○○日までに出していただければ!」といわれ、3時間ぐらいでドラフトを書き上げメールしました。校正など、何度も最終的には練りましたが、本当にこんなんでいいのかなぁという葛藤のなか、仕上げた一本です。

なので、若干おもしろく、大変そうに書いていますが、実際に聞いてみるとそういう話も多いですし、そういった空気を感じていただければなと思います。

そんなわけで、最初にも書きましたが、実際に構築、運用をしたことがないので、微妙に違っていたり、間違っていたりしてもつっこまずに生暖かく見守ってくださいね。石は投げないでくださいね。おもしろかったらムフフとしてください。
ちなみに、雑誌の 目次は、今週月曜日ぐらいにWebに公開されており、一部の方にはばれてしまいましたが、本日派手に見つかって ネタにされてしまいました。
ていうか、そこまで、いぢらなくても...orz

Twitterなどを見ていても、評価はおもしろかったということなので、一安心して、日記を書いてまったりしています(笑)

あ、ちなみに、イラストは私をイメージして、デザイナーさんに書いていただいた物だそうで、目つきの悪さは私そのものですね(^^) でも、かわいいので私のお気に入りです。かわいかったら、コメントしていってください(笑)ていうか、イラストは「かわいいよー!」 なぜ、スパナなのかというつっこみも有りましたがとある有名ブログに答えが書いてありますので、探してみてください(笑)

購入は こちらから

HLA  『定形運用の為の手順書でもそうなのですが、一番の心配はSDN特化型障害対応エンジニアは、単体でのトラブルシューティングが困難になり、その構成を作成したエンジニアから設計理念/論理物理設計書など相当量の情報を得なければ対応出来なくなってしまう点です。』
tomocha  『そうですね。物理構成から、決めてかかるとおそらくだめで、論理構成が今まで以上に複雑になるので、設計理念、何をしたいか、どういうことを想定したのか、と複数のレイヤーが1枚の絵に重ね合わせないといけないところがおそらく一番大変なんでしょうね。おそらく固定概念をもってかかると、痛い目に遭いそうです。』
[ コメントを読む(2) | コメントする ]

[Server][Linux][FreeBSD][Internet] さくらのVPS マルチリージョン本日開始!

本日開始で、大阪と石狩が選択出来るようになり、2GBプランはキャンペーンにつき、初期費用無料です!
お申し込みはこちらから

大阪と石狩の組み合わせで冗長化などの案件、用途にいかがでしょうか。

なお、収容されるサーバは下記の通りだと思われます。

www1001ui.sakura.ne.jp(133.242.128.15) 〜 www4480ui.sakura.ne.jp(133.242.135.254)
www1001uj.sakura.ne.jp(133.242.136.15) 〜 www3480uj.sakura.ne.jp(133.242.141.254)

[ コメントを読む(0) | コメントする ]

2012年10月14日() [晴れ]

[][Life] 冷蔵庫の中が...

駄目な大人の冷蔵庫、冷凍庫の中w。



お酒ばっかり...



ラーメン一式のスープ。



こうやってみて、しかも、?とかの札を立てたら、犯罪とかの証拠写真だなぁw。
ということで、いつでも、辛い好きなラーメンが食べれるのだ〜。

kaz  『このヒンジは、もしかしてシャープのどっちからでも開く奴? オイラのはそれの170リットル型。』
tomocha  『違うと思います〜。SANYOじゃなかったかな。もらい物なのでちょっと詳しく覚えていませんが、両開きにはならないです〜。』
[ コメントを読む(2) | コメントする ]

[] 家ラーメン!

おうちラーメンで、北海道、さっぽろ味噌。

さっと、野菜を軽くゆでて、中華鍋で豚バラを炒めて、スープを投入。

一煮立ちしたら、ゆであがった麺にかけてできあがり。




チャーシュー乗せてできあがり。
あっ、大量にあるピーマン入れ忘れたっ。

[ コメントを読む(0) | コメントする ]

2012年10月13日() [晴れ]

[] りんごもらった〜!

信州りんごを1箱頂いた!



ワックスが塗っていないので、果実のミツが、じわーっとでてきて、良い香り。



ということで、丸かじり!

[ コメントを読む(0) | コメントする ]

2012年10月11日(木) [晴れ]

[Internet] インターリンクの回線断、トラブルがあったんだが...

昨日、SSHなどが切断され、作業が中断された。
原因を調べたところ、一瞬、回線が切れていた事による物だった。

01:08:37  PPP.006: LCP CLOSING: state is open, closing upper-link, on FastEthernet0/0.1
01:08:37  PPP.002: NCP CLOSING: IPCP state is open, closing upper-link, on FastEthernet0/0.1
01:08:37  IP.021: Interface FastEthernet0/0.1, line protocol down
01:08:37  PPP.006: LCP CLOSING: state is open, closing upper-link, on FastEthernet0/0.1
01:08:37 PPOE.023: PADT packet sent, source 00:30:13:XX:XX:XX, destination 00:90:1a:XX:XX:XX, FastEthernet0/0.1
01:08:37 PPOE.030: Session stop, AccessCT address 00:90:1a:XX:XX:XX, SessionID 2594, FastEthernet0/0.1
01:08:42 PPOE.029: Session start, AccessCT address 00:90:1a:XX:XX:XX, SessionID 1997, FastEthernet0/0.1
01:08:42  PPP.004: LCP OPENING: state is open, opening upper-link, on FastEthernet0/0.1
01:08:42  PPP.001: NCP OPENING: IPCP state is open, opening upper-link, on FastEthernet0/0.1

上記について、インターリンクにBフレッツファミリーで○○県○○市で切断があった。同一回線で他のルータの他ISPのPPPoEは切断されていない。また、フレッツの工事、故障についてもアナウンスが出ていないが、何があったか原因を調べて教えてくれと問い合わせ。問い合わせてみたら、次のような回答だった。

内容を要約すると、朝一に問い合わせを送り、回答があったのは当日中17:16頃。上位回線に確認および接続ログ詳細に調査していると第一報の回答。

翌日15時前に、次のような回答があり、事実が発覚。上位回線(NTTPC/InfoSphere)にて、○○エリアを対象に回線工事が行われていた。それによって、その時間、ご心配をおかけして申し訳ないという回答。心配じゃなくて既存の接続中のSSHセッションが切断されるという事件があったということなのだが。


そのままだと、NTTPCとインターリンクの関係が悪いように見えて仕方がないので(事実は知りませんが)、次のように返信した。

本件について、なぜユーザ(キャリアから御社に対して含む)に対して告知が無かったのか、理由を聞かせてほしい。インターリンク側も把握しているのであれば、上位キャリアに問い合わせる事もなく、すぐに当日中の回答が出来たのではないか。そもそも把握出来ていないということ、上位キャリアに問い合わせて発覚したということは、体制に問題が有るのではないかという指摘をした。今のところ回答待ち。ま、いつものごとく、対応の経緯は公開。

(2012.10.12 追記)

で、本日早めの回答があったが、内容としては、影響範囲を確認し、インターリンクの顧客に影響があると回答があったため、メンテナンス情報に記載したとのこと。
そこまではいいが、事後だったら、それなりの一言はあってもいいんじゃないかと思ったが、気づいていないからいいのか、という感じのいつも通りのしれっと追加されているので、どうかとおもう。

まあ、このあたりは置いておいて、 インターリンク社と上位キャリア(NTTPC)の連絡体制の不備を認め、工事の影響範囲の共有、担当者との協議を重ね、連絡体制の強化を行うと回答。今後はこのようなことがないように対策しますということなので、様子を見てみることにする。

ま、安かろう悪かろうという感じではあるが、ちゃんと受け答えが出来る、調べてくれるので、そこは評価出来るのかなぁと。本当にひどいところだと回答ですらなかったりするからね。 サービスの品質は有る程度は重要だけど、普段の品質はそれなりに良くて満足していても、トラブル発生したとき、対応が曖昧だったり、不満があるとユーザは一気に解約するとおもうが、それなりの対応があれば、様子をみてみようと思うんだろうねぇ。あとはトラブルの頻度にもよるけど。許容範囲ならば、現状維持ってかんじで。

ただ、次回も同じような回答で、同じ事をやると、激怒してもっと晒すかもしれませんw。


κzκz★彡  『(NTTPC/Infosphjere)は(NTTPC/InfoSphere)かな?』
[ コメントを読む(1) | コメントする ]

[Server][Linux][FreeBSD][Internet] さくらインターネット、「さくらのVPS」でマルチリージョン対応を開始

さくらのVPSが大阪と石狩と選べるようになったそうで、さくらのVPSが始まった当初は東京(おそらく東新宿DC)、その後、震災の後は、大阪(堂島)がメインとなっていましたが、今度は、石狩が選択出来るようになったとのこと。

東京からみて、石狩までのレイテンシーは18ms程度。
大阪と比較するとおおよそ2倍程度遅延がありますが、東京から見れば九州と同程度。

ネットワーク的にも、OCN(AS4713)と直接接続しており、既存のさくらのバックボーン(AS9370,9371)と建前上は独立しているので、本当にDRなんでしょう。
内部的にはどうなっているか分かりませんが...


で、そういった条件の石狩が選択出来るようになったので、大阪と石狩、初期ユーザに限るが、東京と石狩といったDRが出来ると思います。

ちなみに、 バックボーンマップを見る限り、大阪とは直接eBGP peerでは接続されていないことになっているので、大阪と東京では、ほぼ完全に独立 *1

していると思われます。

ということで、価格据え置き、初期費用無料で、キャンペーンをやっているようなので、さくらのVPSをこの際もう一ついかがでしょうかw

お申し込みは ここからできます。

ちなみに、サービス提供開始は、10月18日からとのこと。第一号にチャレンジ!

てことで、Ishikariロケーションの識別子は、

www1001ui.sakura.ne.jp(133.242.128.15) 〜 www4480ui.sakura.ne.jp(133.242.135.254)
www1001uj.sakura.ne.jp(133.242.136.15) 〜 www3480uj.sakura.ne.jp(133.242.141.254)

となるとおもわれる!

WHOISで調べた限りでは、2012/09/27 に割り当てがあったので、連続する区間として、133.242.128.0/19 あたりが今回のVPS範囲ではないかと予想出来る。


*1: 組織内の通信はどうかはしりませんがw
HANZUBON  『「大阪(おそらく東新宿DC)」は「東京(おそらく東新宿DC)」じゃないかな〜』
tomocha  『ご指摘ありがとうございます! 書きかけの途中だったので、さくっと修正しました! 』
[ コメントを読む(2) | コメントする ]

2012年10月07日() [晴れ]

[Compter][FreeBSD] FreeBSD9.0R on DL360G6 @E5504*2 MEM24GB環境ZFSお遊び。

DL360G6 Xeon E5504 *2, MEM24GB FreeBSD9.0Rな環境でお遊び。
zfsで遊ぶよー!

[root@testsv01 /usr/home/tomo]# mptutil show drives
mpt0 Physical Drives:
 da1 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 7
 da2 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 8
 da3 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 9
 da4 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 10
 da5 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 12
 da6 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 13
 da7 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 14
 da8 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 15
 da9 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 16
da10 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 17
da11 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 18
da12 (  465G) ONLINE <Hitachi HTS72505 C70E> SATA bus 0 id 19
da13 (   29G) ONLINE <SSDSA2SH032G1GN 8850> SATA bus 0 id 20
da14 (   29G) ONLINE <SSDSA2SH032G1GN 8621> SATA bus 0 id 21
da15 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 27
da16 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 28
da17 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 24
da18 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 25
da19 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 26
da20 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 29
da21 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 30
da22 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 31
da23 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 33
da24 (   33G) ONLINE <HP DH036ABAA5 HPDA> SAS bus 0 id 32
[root@testsv01 /usr/home/tomo]# mptutil show config
mpt0 Configuration: 0 volumes, 24 drives
    drive da1 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da2 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da3 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da4 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da5 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da6 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da7 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da8 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da9 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da10 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da11 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da12 (465G) ONLINE <Hitachi HTS72505 C70E> SATA
    drive da13 (29G) ONLINE <SSDSA2SH032G1GN 8850> SATA
    drive da14 (29G) ONLINE <SSDSA2SH032G1GN 8621> SATA
    drive da15 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da16 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da17 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da18 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da19 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da20 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da21 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da22 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da23 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS
    drive da24 (33G) ONLINE <HP DH036ABAA5 HPDA> SAS

上記の環境で、カーネルは下記のように設定。

/boot/loader.conf
-----
vfs.zfs.arc_max="2048M"

まずは、SSD単体の性能試験。とりあえず、マルチレーンの恩恵があるか確認しておきます。それ以外の深い意味はありません。3Gbps/s なので、それ以上出ていれば、バスに当たっていることが無いという前提です。そのため、シーケンシャルで512kで試してみます。

zpool create -f testpool \
da13 da14
device     r/s   w/s    kr/s    kw/s qlen svc_t  %b
da13       5.0 1387.2     2.5 172087.2   10   6.8  96
da14       0.0 1239.5     0.0 152296.7   10   6.6  83
-----
da13     1593.8   0.0 202115.6     0.0   10   6.2 100
da14     1595.8   0.0 203128.5     0.0   10   6.2 100
-----
rr512k.log:  read : io=3947.0MB, bw=404132KB/s, iops=789 , runt= 10001msec
rw512k.log:  write: io=3930.6MB, bw=381971KB/s, iops=746 , runt= 10537msec

とりあえずSSDの性能はそれなりに出ていると思います。iopsの低さは気になりますがorz
ちなみに、カタログスペックの性能として、単体の性能が、readが250MB/sec程度、writeが170MB/sec程度。

ということで、ずんずん進めていきましょう。
Sequential Read/Write

zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
raidz2 da15 da16 da17 da18 da19 da20 \
raidz2 da21 da22 da23 da24
-----
rr4k.log:    read : io=3107.1MB, bw=318254KB/s, iops=79563 , runt= 10000msec
rr512k.log:  read : io=5560.0MB, bw=566963KB/s, iops=1107 , runt= 10042msec
rw4k.log:    write: io=894828KB, bw=89474KB/s, iops=22368 , runt= 10001msec
rw512k.log:  write: io=4830.6MB, bw=483333KB/s, iops=944 , runt= 10234msec
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
raidz2 da15 da16 da17 da18 da19 da20 \
raidz2 da21 da22 da23 da24 \
log da13 \
cache da14
-----
rr4k.log:    read : io=2904.7MB, bw=297435KB/s, iops=74358 , runt= 10000msec
rr512k.log:  read : io=5590.0MB, bw=572359KB/s, iops=1117 , runt= 10001msec
rw4k.log:    write: io=760964KB, bw=76028KB/s, iops=19006 , runt= 10009msec
rw512k.log:  write: io=4428.0MB, bw=449606KB/s, iops=878 , runt= 10085msec

このケースの場合、cache/logをつけたばあい、SSDにキャッシュとして乗っかってしまい、SSDの速度に引っ張られてしまい、全体で遅くなるケースがあるようです。iostatで見ていても、時々、logで設定したSSDがioの張り付きがあるようで、足を引っ張ってしまうことがしばしば。もう少し早いSSDだと話が変わるだろうが、遅いSSDならば、つけないほうが良さそうだ。

上記と同じ条件で、Random Read/Writeで実験すると、

cache,log無し
-----
rr4k.log:    read : io=15508KB, bw=1550.7KB/s, iops=387 , runt= 10001msec
rr512k.log:  read : io=502272KB, bw=50202KB/s, iops=98 , runt= 10005msec
rw4k.log:    write: io=8708.0KB, bw=890808 B/s, iops=217 , runt= 10010msec
rw512k.log:  write: io=4489.0MB, bw=432675KB/s, iops=845 , runt= 10624msec
cache,log有り
-----
rr4k.log:    read : io=17924KB, bw=1790.9KB/s, iops=447 , runt= 10009msec
rr512k.log:  read : io=544768KB, bw=54428KB/s, iops=106 , runt= 10009msec
rw4k.log:    write: io=9872.0KB, bw=986.53KB/s, iops=246 , runt= 10007msec:w
rw512k.log:  write: io=4328.6MB, bw=443194KB/s, iops=865 , runt= 10001msec

4kが少し性能が伸びるけど、余り大差なしorz

次に、ディスクの本数を減らしてやってみよう(普通順番が反対だよね?)。今回はSATAディスクのみで12本で、RAIDZ2+RAIDZ2でspan volume

Sequential Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=2835.3MB, bw=290325KB/s, iops=72581 , runt= 10000msec
rr512k.log:  read : io=4856.0MB, bw=495421KB/s, iops=967 , runt= 10037msec
rw4k.log:    write: io=807172KB, bw=80709KB/s, iops=20177 , runt= 10001msec
rw512k.log:  write: io=3441.6MB, bw=341747KB/s, iops=667 , runt= 10312msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=3237.7MB, bw=331537KB/s, iops=82884 , runt= 10000msec
rr512k.log:  read : io=5560.0MB, bw=568605KB/s, iops=1110 , runt= 10013msec
rw4k.log:    write: io=756868KB, bw=75679KB/s, iops=18919 , runt= 10001msec
rw512k.log:  write: io=2082.0MB, bw=180706KB/s, iops=352 , runt= 11798msec

Random Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=11164KB, bw=1115.1KB/s, iops=278 , runt= 10004msec
rr512k.log:  read : io=350720KB, bw=35061KB/s, iops=68 , runt= 10003msec
rw4k.log:    write: io=6216.0KB, bw=635818 B/s, iops=155 , runt= 10011msec
rw512k.log:  write: io=3250.0MB, bw=331111KB/s, iops=646 , runt= 10051msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 \
raidz2 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=14392KB, bw=1438.4KB/s, iops=359 , runt= 10006msec
rr512k.log:  read : io=427520KB, bw=42748KB/s, iops=83 , runt= 10001msec
rw4k.log:    write: io=7888.0KB, bw=807004 B/s, iops=197 , runt= 10009msec
rw512k.log:  write: io=2193.6MB, bw=224592KB/s, iops=438 , runt= 10001msec

次に、SATA 12本で、1ボリュームでGo!

Sequential Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
-----
rr4k.log:    read : io=3031.9MB, bw=309999KB/s, iops=77499 , runt= 10015msec
rr512k.log:  read : io=4408.0MB, bw=450029KB/s, iops=878 , runt= 10030msec
rw4k.log:    write: io=701500KB, bw=70150KB/s, iops=17537 , runt= 10000msec
rw512k.log:  write: io=3948.0MB, bw=395070KB/s, iops=771 , runt= 10233msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=3114.9MB, bw=318925KB/s, iops=79731 , runt= 10001msec
rr512k.log:  read : io=5304.0MB, bw=542370KB/s, iops=1059 , runt= 10014msec
rw4k.log:    write: io=764164KB, bw=76409KB/s, iops=19102 , runt= 10001msec
rw512k.log:  write: io=3694.6MB, bw=378279KB/s, iops=738 , runt= 10001msec

Random Read/Write

cache,log無し
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12
-----
rr4k.log:    read : io=9300.0KB, bw=952034 B/s, iops=232 , runt= 10003msec
rr512k.log:  read : io=313344KB, bw=31322KB/s, iops=61 , runt= 10004msec
rw4k.log:    write: io=5164.0KB, bw=524024 B/s, iops=127 , runt= 10091msec
rw512k.log:  write: io=2509.6MB, bw=250363KB/s, iops=488 , runt= 10264msec
cache,log有り
-----
zpool create -f testpool \
raidz2 da1 da2 da3 da4 da5 da6 da7 da8 da9 da10 da11 da12 \
log da13 \
cache da14
-----
rr4k.log:    read : io=12876KB, bw=1287.9KB/s, iops=321 , runt= 10004msec
rr512k.log:  read : io=419328KB, bw=41828KB/s, iops=81 , runt= 10025msec
rw4k.log:    write: io=7224.0KB, bw=738334 B/s, iops=180 , runt= 10019msec
rw512k.log:  write: io=3815.6MB, bw=377495KB/s, iops=737 , runt= 10350msec

ちなみに、一定の本数を超えると、ディスクの数が増えても大きなパフォーマンスの向上は無しorz
raidz2 + span でつないでも、どこか遅いraidz2ボリュームに性能が引きずられるようだ。。。
そして、遅い環境で、SATA+CACHEは結構有効なようだ。

次に、SASで遊んでみよう。

面倒なので、Randomのみの掲載。

zpool create testpool raidz2 \
da15 da16 da17 da18
-----
rr4k.log:    read : io=19288KB, bw=1928.3KB/s, iops=482 , runt= 10004msec
rr512k.log:  read : io=498688KB, bw=49849KB/s, iops=97 , runt= 10004msec
rw4k.log:    write: io=10168KB, bw=1016.8KB/s, iops=254 , runt= 10001msec
rw512k.log:  write: io=1612.0MB, bw=156969KB/s, iops=306 , runt= 10516msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19
-----
rr4k.log:    read : io=20280KB, bw=2027.5KB/s, iops=506 , runt= 10003msec
rr512k.log:  read : io=589824KB, bw=58935KB/s, iops=115 , runt= 10008msec
rw4k.log:    write: io=10996KB, bw=1099.6KB/s, iops=274 , runt= 10001msec
rw512k.log:  write: io=2250.6MB, bw=228396KB/s, iops=446 , runt= 10090msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20
-----
rr4k.log:    read : io=19324KB, bw=1931.3KB/s, iops=482 , runt= 10006msec
rr512k.log:  read : io=646144KB, bw=64531KB/s, iops=126 , runt= 10013msec
rw4k.log:    write: io=10764KB, bw=1075.8KB/s, iops=268 , runt= 10006msec
rw512k.log:  write: io=2718.0MB, bw=275622KB/s, iops=538 , runt= 10098msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21
-----
rr4k.log:    read : io=18712KB, bw=1871.2KB/s, iops=467 , runt= 10001msec
rr512k.log:  read : io=622592KB, bw=62216KB/s, iops=121 , runt= 10007msec
rw4k.log:    write: io=10000KB, bw=999.62KB/s, iops=249 , runt= 10004msec
rw512k.log:  write: io=3020.6MB, bw=309237KB/s, iops=603 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22
-----
rr4k.log:    read : io=19752KB, bw=1974.3KB/s, iops=493 , runt= 10005msec
rr512k.log:  read : io=638976KB, bw=63859KB/s, iops=124 , runt= 10006msec
rw4k.log:    write: io=10956KB, bw=1084.5KB/s, iops=271 , runt= 10103msec
rw512k.log:  write: io=3224.6MB, bw=330123KB/s, iops=644 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23
-----
rr4k.log:    read : io=20268KB, bw=2025.4KB/s, iops=506 , runt= 10007msec
rr512k.log:  read : io=701952KB, bw=70160KB/s, iops=137 , runt= 10005msec
rw4k.log:    write: io=10988KB, bw=1072.7KB/s, iops=268 , runt= 10244msec
rw512k.log:  write: io=3329.6MB, bw=340907KB/s, iops=665 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24
-----
rr4k.log:    read : io=19432KB, bw=1942.5KB/s, iops=485 , runt= 10004msec
rr512k.log:  read : io=624640KB, bw=62408KB/s, iops=121 , runt= 10009msec
rw4k.log:    write: io=10460KB, bw=1043.7KB/s, iops=260 , runt= 10023msec
rw512k.log:  write: io=3384.6MB, bw=346503KB/s, iops=676 , runt= 10002msec

結論として、6発目からスケールしない。。。

次に、log, cacheをつけた結果。

zpool create testpool raidz2 \
da15 da16 da17 da18 log da13 cache da14
-----
rr4k.log:    read : io=33508KB, bw=3349.5KB/s, iops=837 , runt= 10004msec
rr512k.log:  read : io=893952KB, bw=89324KB/s, iops=174 , runt= 10008msec
rw4k.log:    write: io=15636KB, bw=1563.5KB/s, iops=390 , runt= 10001msec
rw512k.log:  write: io=1636.6MB, bw=157750KB/s, iops=308 , runt= 10623msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 log da13 cache da14
-----
rr4k.log:    read : io=28392KB, bw=2838.1KB/s, iops=709 , runt= 10001msec
rr512k.log:  read : io=785408KB, bw=78478KB/s, iops=153 , runt= 10008msec
rw4k.log:    write: io=14824KB, bw=1482.3KB/s, iops=370 , runt= 10001msec
rw512k.log:  write: io=2325.6MB, bw=238107KB/s, iops=465 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 log da13 cache da14
-----
rr4k.log:    read : io=27792KB, bw=2777.6KB/s, iops=694 , runt= 10006msec
rr512k.log:  read : io=805888KB, bw=80581KB/s, iops=157 , runt= 10001msec
rw4k.log:    write: io=14944KB, bw=1493.9KB/s, iops=373 , runt= 10004msec
rw512k.log:  write: io=2792.6MB, bw=285866KB/s, iops=558 , runt= 10003msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 log da13 cache da14
-----
rr4k.log:    read : io=27996KB, bw=2798.3KB/s, iops=699 , runt= 10005msec
rr512k.log:  read : io=812544KB, bw=81222KB/s, iops=158 , runt= 10004msec
rw4k.log:    write: io=15032KB, bw=1502.5KB/s, iops=375 , runt= 10005msec
rw512k.log:  write: io=2867.0MB, bw=293522KB/s, iops=573 , runt= 10002msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 log da13 cache da14
-----
rr4k.log:    read : io=23388KB, bw=2338.6KB/s, iops=584 , runt= 10001msec
rr512k.log:  read : io=695808KB, bw=69546KB/s, iops=135 , runt= 10005msec
rw4k.log:    write: io=12528KB, bw=1252.5KB/s, iops=313 , runt= 10003msec
rw512k.log:  write: io=2957.6MB, bw=291452KB/s, iops=569 , runt= 10391msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 log da13 cache da14
-----
rr4k.log:    read : io=26536KB, bw=2652.9KB/s, iops=663 , runt= 10006msec
rr512k.log:  read : io=719872KB, bw=71937KB/s, iops=140 , runt= 10007msec
rw4k.log:    write: io=14116KB, bw=1360.8KB/s, iops=340 , runt= 10374msec
rw512k.log:  write: io=3159.0MB, bw=305546KB/s, iops=596 , runt= 10587msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 log da13 cache da14
-----
rr4k.log:    read : io=22760KB, bw=2274.9KB/s, iops=568 , runt= 10005msec
rr512k.log:  read : io=671232KB, bw=67076KB/s, iops=131 , runt= 10007msec
rw4k.log:    write: io=12476KB, bw=1208.1KB/s, iops=302 , runt= 10320msec
rw512k.log:  write: io=3265.0MB, bw=332111KB/s, iops=648 , runt= 10067msec

結論として、5本目から、ほとんどパフォーマンスの変化は無しw。

ついでに、ARC CACHEの制限を外してみて、最大20GBまで伸張できるように、カーネルの設定を変更して測定。
ちなみに、これも、RandomRead/Writeです。

log/cache無し

zpool create testpool raidz2 \
da15 da16 da17 da18
-----
rr4k.log:    read : io=2903.7MB, bw=297333KB/s, iops=74333 , runt= 10000msec
rr512k.log:  read : io=34609MB, bw=3460.6MB/s, iops=6921 , runt= 10001msec
rw4k.log:    write: io=104740KB, bw=10051KB/s, iops=2512 , runt= 10421msec
rw512k.log:  write: io=1703.6MB, bw=162920KB/s, iops=318 , runt= 10707msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19
-----
rr4k.log:    read : io=2710.8MB, bw=277579KB/s, iops=69394 , runt= 10000msec
rr512k.log:  read : io=34936MB, bw=3493.3MB/s, iops=6986 , runt= 10001msec
rw4k.log:    write: io=182216KB, bw=13525KB/s, iops=3381 , runt= 13473msec
rw512k.log:  write: io=2264.6MB, bw=229453KB/s, iops=448 , runt= 10106msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20
-----
rr4k.log:    read : io=2660.9MB, bw=272438KB/s, iops=68109 , runt= 10001msec
rr512k.log:  read : io=34953MB, bw=3494.1MB/s, iops=6989 , runt= 10001msec
rw4k.log:    write: io=160864KB, bw=15376KB/s, iops=3844 , runt= 10462msec
rw512k.log:  write: io=2866.0MB, bw=293449KB/s, iops=573 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21
----
rr4k.log:    read : io=1407.8MB, bw=144142KB/s, iops=36035 , runt= 10001msec
rr512k.log:  read : io=34749MB, bw=3474.6MB/s, iops=6949 , runt= 10001msec
rw4k.log:    write: io=309152KB, bw=30912KB/s, iops=7728 , runt= 10001msec
rw512k.log:  write: io=2794.0MB, bw=277611KB/s, iops=542 , runt= 10306msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22
----
rr4k.log:    read : io=195952KB, bw=19576KB/s, iops=4893 , runt= 10010msec
rr512k.log:  read : io=36164MB, bw=3616.5MB/s, iops=7232 , runt= 10000msec
rw4k.log:    write: io=185756KB, bw=18574KB/s, iops=4643 , runt= 10001msec
rw512k.log:  write: io=3127.0MB, bw=320077KB/s, iops=625 , runt= 10004msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23
----
rr4k.log:    read : io=232576KB, bw=23241KB/s, iops=5810 , runt= 10007msec
rr512k.log:  read : io=36386MB, bw=3638.3MB/s, iops=7276 , runt= 10001msec
rw4k.log:    write: io=134356KB, bw=13009KB/s, iops=3252 , runt= 10328msec
rw512k.log:  write: io=3273.6MB, bw=317882KB/s, iops=620 , runt= 10545msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24
----
rr4k.log:    read : io=257672KB, bw=25754KB/s, iops=6438 , runt= 10005msec
rr512k.log:  read : io=34942MB, bw=3493.9MB/s, iops=6987 , runt= 10001msec
rw4k.log:    write: io=203688KB, bw=16299KB/s, iops=4074 , runt= 12497msec
rw512k.log:  write: io=3397.0MB, bw=347818KB/s, iops=679 , runt= 10001msec

6本目まで性能が良いが、そこから徐々に性能が落ち始めるので、RAIDZ2のときは、6本までにしたほうが良さそうだ。

次に、log/cache有りにして測定。

zpool create testpool raidz2 \
da15 da16 da17 da18 log da13 cache da14
-----
rr4k.log:    read : io=3000.7MB, bw=307238KB/s, iops=76809 , runt= 10001msec
rr512k.log:  read : io=32933MB, bw=3292.1MB/s, iops=6585 , runt= 10001msec
rw4k.log:    write: io=62364KB, bw=6235.8KB/s, iops=1558 , runt= 10001msec
rw512k.log:  write: io=1689.0MB, bw=165174KB/s, iops=322 , runt= 10471msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 log da13 cache da14
-----
rr4k.log:    read : io=3012.4MB, bw=308462KB/s, iops=77115 , runt= 10000msec
rr512k.log:  read : io=32315MB, bw=3231.2MB/s, iops=6462 , runt= 10001msec
rw4k.log:    write: io=84148KB, bw=7992.8KB/s, iops=1998 , runt= 10528msec
rw512k.log:  write: io=2248.6MB, bw=223453KB/s, iops=436 , runt= 10304msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 log da13 cache da14
-----
rr4k.log:    read : io=2949.4MB, bw=301979KB/s, iops=75494 , runt= 10001msec
rr512k.log:  read : io=35100MB, bw=3509.7MB/s, iops=7019 , runt= 10001msec
rw4k.log:    write: io=95064KB, bw=9425.4KB/s, iops=2356 , runt= 10086msec
rw512k.log:  write: io=2596.6MB, bw=265855KB/s, iops=519 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 log da13 cache da14
-----
rr4k.log:    read : io=2977.2MB, bw=304828KB/s, iops=76206 , runt= 10001msec
rr512k.log:  read : io=34903MB, bw=3489.1MB/s, iops=6979 , runt= 10001msec
rw4k.log:    write: io=104916KB, bw=10009KB/s, iops=2502 , runt= 10482msec
rw512k.log:  write: io=2862.0MB, bw=287125KB/s, iops=560 , runt= 10207msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 log da13 cache da14
-----
rr4k.log:    read : io=2923.5MB, bw=299200KB/s, iops=74800 , runt= 10004msec
rr512k.log:  read : io=35268MB, bw=3526.5MB/s, iops=7052 , runt= 10001msec
rw4k.log:    write: io=113676KB, bw=11366KB/s, iops=2841 , runt= 10001msec
rw512k.log:  write: io=3084.0MB, bw=315770KB/s, iops=616 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 log da13 cache da14
-----
rr4k.log:    read : io=2927.7MB, bw=299702KB/s, iops=74925 , runt= 10001msec
rr512k.log:  read : io=34227MB, bw=3422.4MB/s, iops=6844 , runt= 10001msec
rw4k.log:    write: io=112080KB, bw=11207KB/s, iops=2801 , runt= 10001msec
rw512k.log:  write: io=3249.6MB, bw=332716KB/s, iops=649 , runt= 10001msec
zpool create testpool raidz2 \
da15 da16 da17 da18 da19 da20 da21 da22 da23 da24 log da13 cache da14
-----
rr4k.log:    read : io=2984.6MB, bw=305476KB/s, iops=76368 , runt= 10003msec
rr512k.log:  read : io=35715MB, bw=3571.1MB/s, iops=7142 , runt= 10001msec
rw4k.log:    write: io=112520KB, bw=11047KB/s, iops=2761 , runt= 10186msec
rw512k.log:  write: io=2948.0MB, bw=300343KB/s, iops=586 , runt= 10051msec

この場合は、6本以上であっても、性能劣化は余り見られない。cache/logは非常に有効的に聞いているように見える。

結果としては、キャッシュの影響は絶大ですね。。
ディスクの本数にかかわらず、性能は変わりません。ただし、キャッシュのヒットが100%なのでこのような結果ですが、乗らなくなる状態(常に期待は出来ないため)では、先ほどのベンチのような値になるでしょう。

ということで、グラフはそのうちに作成しようかなとおもいまふ。
また、OpenIndianaの環境では、後日。
お酒を飲みながら酔っぱらいの検証でした。

ということで、関連サイトとして、下記のサイトを紹介。

tomocha  『あとで、sataで、raidz2で、4本からどのように変わるか、データを取ろう。わすれてた。』
[ コメントを読む(1) | コメントする ]

2012年10月04日(木) [晴れ]

[] COFFEE HOUSE POEM 西小山北口店

最近、仕事とか打ち合わせでこのお店を使うことが増えた今日この頃。くらーい話になりそうでも、ほほえましく思える猫。



あーっぷ!



ついでにメニューも!



ブラジル・オン・ザ・ロックス。



お店の雰囲気。

COFFEE HOUSE POEM 西小山北口店
東京都目黒区原町1-8-6a
03-3793-6934

[ コメントを読む(0) | コメントする ]

2012年09月29日() [晴れ]

[Other] 日産、ゼロエミッション車の新モデルは燃料電池×SUV

この車、顔が、不細工すぎるww。

[ コメントを読む(0) | コメントする ]

[Server] HP DL120G6 システムボード交換してみたよ

やっと、保守パーツが届いたので、システムボードの交換をしてみた。
まずは、マニュアルが無いか、 HPのサイトを探してみた。
そしたら、 HP ProLiantサーバーにとばされ、製品情報からたどることらしいです。
古いモデルは、一覧にないし、そこへたどることが出来ないので、不親切ですが...

そして、目的のマニュアルを見つけることが出来なかったので、Google先生に聞いてみることにorz
ちなみに、旧製品情報にはありますが、目的の情報が無く、 英語のスペックだけでしたorz

というわけで、英語サイトで、 マニュアル(Japanese)を見つけることが出来ましたが、サービスマニュアルは見つかりませんorz...

Manual Languageを Englishにしたところ、 HP ProLiant DL120 G6 Maintenance and Service Guideを見つけることが出来たが、システムボードの交換手順の記載はありませんでした。。。

さらに調べてみると、 カスタマセルフリペア(部品送付対応)というドキュメントを見たところ、対象製品にはいっていないとか。ひどすぎる。

これを、HPは、自分で交換しろ、マニュアル、方法はときいたら、部門が違うからわからないの一点張りの対応の悪い対応。しかも日本人は出てこない。腐っていた。

そういうわけで、壊れたらクレームいれたらいいやとおもい、強引に交換開始。

ちなみに、交換するときに、トルクスドライバーが必要だという説明も無ければ、工具もありません。これを3日で交換しろというのがHPの回答。あまりにも対応が悪いのがわかります。

さて、届いた部品から、順に写真で紹介します。

届いた段ボール箱。



取り出したパーツ。



システムボードの段ボールは何度も使い回されているのがわかりますね。



まずは、今動いている環境の写真。



LSI Logic MegaRAIDを使用しています。



外部のDASに接続するために、SFF-8087 to SFF-8088変換を5000円で調達したものを装着。



手元にあるHBAなり。



まずは、ライザーカードが怪しいということもあり、交換。
ネジ2本外せば簡単に交換できます。
ドライバは本体についているトルクスでも対応可能なサイズです。



ハコから取り出しました。



袋がおもしろいw。
窒息死w



届いた良品のパーツです。こいつは、返品不要な物。



ライザーカード等を取り外した元の状態。配線を記録する意味もかねて写真撮影しておきます。
ちなみに、壊れているので、まあいいやとおもい、ライザーカードを外した状態で、PCIeカードを刺してみたら、ライザーカードなしでもちゃんといけました。特殊な変換がは行っているわけではないようです。ただし、ケースに金具が当たるので、金具を外す必要がありますが。。あくまでもライザーカードは、向きを変更することが目的のようです。



届いたシステムボード。型番が入っていますね。



ハコをあけてみると、グリスがついています。



良品のシステムボード。袋などは使い回しでした。



システムボードの取り外し。



正しく装着して戻します。



交換後の写真。シリアルナンバーが、0123456789ABCDEF がデフォルト値。
変更する方法はわかりません。説明もマニュアルも入っていませんでした。不親切きわまりない。
聞いてもわかりませんと。死ねよ。>サポート。



そんなかんじで、交換完了。BIOSの設定も終わりました。
システムボードが新しくなったので、LOの設定も必要ですね。

あとは、しばらくしたらHPから電話があるらしいので、指示に従って回収してもらうだけですが、また、平日しか無理ですとか言われるのかな。日通がくるだけなのに、平日しか無理ですというサポート死ね。

kaz  『部門と言うか、会社が違うからね。トルクスドライバは旧Compaqの印。 今は日本メーカもサポセンはインドとかにオフショアと言うかアウトソーシングだな。 それにしても基板の写真が綺麗に撮れてるな。』
tomocha  『ほら、一応フラッシュ(バウンス)も併用しながら、一眼で撮影していますから。で、まあ、トルクスとかはちゃんと有るんだけど、これをいきなりDCとか現場で対応しろといわれると、さすがに困りますね。基本的にはパーツは送りますとはいえど、柔軟に対応出来る人、限られた時間で確実に交換出来る人はそうそういないので、オンサイトで別途費用をいただいて対応します。という、あきらめさせてきてもらおうというサポートビジネスなんだろうなぁという感じがひしひしとかんじられました。 』
nork  『ごめん。DCにトルクス置いてある:-)。 シリアル変更は裏メニューであるみたいだけど、 今後の機種では対応しないみたいなこと言われた。 私が対応してもらった時代(DL140G3)、 「フロッピーでしか対応」できない言われて、 「はい」と渡したことがある:-)。 まぁオンサイトだったから色々オネダリできたやも。。。』
[ コメントを読む(3) | コメントする ]

2012年09月27日(木) [晴れ]

[Server][FreeBSD] FreeBSD9.0R + zfs + samba3.6.1 の環境で動かすと...

FreeBSD9.0R 上で、zfs + sambaの構成で、下記のようなメッセージが表示される。 どうやら、zfsを使ったとき、aclの関係だというのはつかんだけど、全く何が原因か分からない。 困った困った。

smbd[45797]: modules/vfs_posixacl.c:170(smb_ace_to_internal)
smbd[45797]:   unknown tag type 64
[ コメントを読む(0) | コメントする ]

2012年09月25日(火) [晴れ]

[Server] HDDがまたしんだ。。。

確か、これは、ドスパラで買ったハードディスクだったような。。。
一応2年はもったのかな・・・?
確か、BOXで買っているので、3年保証モデル。早めに交換しないとなぁ...

Sep 25 21:39:53 storage01 scsi: [ID 365881 kern.notice] /pci@0,0/pci8086,2944@1c,2/pci103c,322b@0 (mpt1):
Sep 25 21:39:53 storage01       Log info 0x31130000 received for target 4.
Sep 25 21:39:53 storage01       scsi_status=0x0, ioc_status=0x8048, scsi_state=0xc
root@storage01:~/smartmontools-5.40# ./smartctl -a /dev/rdsk/c4t4d0
smartctl 5.40 2010-10-16 r3189 [i386-pc-solaris2.11] (local build)
Copyright (C) 2002-10 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Model Family:     Hitachi Deskstar 7K2000
Device Model:     Hitachi HDS722020ALA330
Serial Number:    JK1175YAXXXXXX
Firmware Version: JKAOA3EA
User Capacity:    2,000,398,934,016 bytes
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   8
ATA Standard is:  ATA-8-ACS revision 4
Local Time is:    Tue Sep 25 22:58:49 2012 JST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
Drive failure expected in less than 24 hours. SAVE ALL DATA.
See vendor-specific Attribute list for failed Attributes.

General SMART Values:
Offline data collection status:  (0x84) Offline data collection activity
                                        was suspended by an interrupting command from host.
                                        Auto Offline Data Collection: Enabled.
Self-test execution status:      (   0) The previous self-test routine completed
                                        without error or no self-test has ever
                                        been run.
Total time to complete Offline
data collection:                 (23359) seconds.
Offline data collection
capabilities:                    (0x5b) SMART execute Offline immediate.
                                        Auto Offline data collection on/off support.
                                        Suspend Offline collection upon new
                                        command.
                                        Offline surface scan supported.
                                        Self-test supported.
                                        No Conveyance Self-test supported.
                                        Selective Self-test supported.
SMART capabilities:            (0x0003) Saves SMART data before entering
                                        power-saving mode.
                                        Supports SMART auto save timer.
Error logging capability:        (0x01) Error logging supported.
                                        General Purpose Logging supported.
Short self-test routine
recommended polling time:        (   1) minutes.
Extended self-test routine
recommended polling time:        ( 255) minutes.
SCT capabilities:              (0x003d) SCT Status supported.
                                        SCT Error Recovery Control supported.
                                        SCT Feature Control supported.
                                        SCT Data Table supported.

SMART Attributes Data Structure revision number: 16
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000b   059   059   016    Pre-fail  Always       -       90973161
  2 Throughput_Performance  0x0005   131   131   054    Pre-fail  Offline      -       107
  3 Spin_Up_Time            0x0007   124   124   024    Pre-fail  Always       -       559 (Average 610)
  4 Start_Stop_Count        0x0012   100   100   000    Old_age   Always       -       17
  5 Reallocated_Sector_Ct   0x0033   001   001   005    Pre-fail  Always   FAILING_NOW 1818
  7 Seek_Error_Rate         0x000b   100   100   067    Pre-fail  Always       -       0
  8 Seek_Time_Performance   0x0005   119   119   020    Pre-fail  Offline      -       36
  9 Power_On_Hours          0x0012   098   098   000    Old_age   Always       -       18530
 10 Spin_Retry_Count        0x0013   100   100   060    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       17
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       45
193 Load_Cycle_Count        0x0012   100   100   000    Old_age   Always       -       45
194 Temperature_Celsius     0x0002   166   166   000    Old_age   Always       -       36 (Min/Max 20/51)
196 Reallocated_Event_Count 0x0032   004   004   000    Old_age   Always       -       1932
197 Current_Pending_Sector  0x0022   097   097   000    Old_age   Always       -       233
198 Offline_Uncorrectable   0x0008   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x000a   200   200   000    Old_age   Always       -       0

SMART Error Log Version: 1
ATA Error Count: 8019 (device log contains only the most recent five errors)
        CR = Command Register [HEX]
        FR = Features Register [HEX]
        SC = Sector Count Register [HEX]
        SN = Sector Number Register [HEX]
        CL = Cylinder Low Register [HEX]
        CH = Cylinder High Register [HEX]
        DH = Device/Head Register [HEX]
        DC = Device Command Register [HEX]
        ER = Error register [HEX]
        ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 8019 occurred at disk power-on lifetime: 18529 hours (772 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 05 ba 10 70 0c  Error: UNC 5 sectors at LBA = 0x0c7010ba = 208670906

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 05 ba 10 70 40 00  39d+12:20:43.030  READ DMA EXT
  35 00 0e 4a c5 2c 42 00  39d+12:20:42.981  WRITE DMA EXT
  35 00 0f 93 b6 2c 42 00  39d+12:20:42.961  WRITE DMA EXT
  35 00 0f 1a b3 2c 42 00  39d+12:20:42.909  WRITE DMA EXT
  35 00 0d 5f ab 2c 42 00  39d+12:20:42.854  WRITE DMA EXT

Error 8018 occurred at disk power-on lifetime: 18529 hours (772 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 05 ba 10 70 0c  Error: UNC 5 sectors at LBA = 0x0c7010ba = 208670906

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 05 ba 10 70 40 00  39d+12:20:25.930  READ DMA EXT
  35 00 0d 5d b4 2c 42 00  39d+12:20:25.831  WRITE DMA EXT
  25 00 05 ba 10 70 40 00  39d+12:19:59.457  READ DMA EXT
  ef 66 00 00 00 00 00 00  39d+12:19:43.021  SET FEATURES [Disable revert defaults]
  ef 02 00 00 00 00 00 00  39d+12:19:43.019  SET FEATURES [Enable write cache]

Error 8017 occurred at disk power-on lifetime: 18529 hours (772 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 01 be 10 70 0c  Error: UNC 1 sectors at LBA = 0x0c7010be = 208670910

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 05 ba 10 70 40 00  39d+12:19:59.457  READ DMA EXT
  ef 66 00 00 00 00 00 00  39d+12:19:43.021  SET FEATURES [Disable revert defaults]
  ef 02 00 00 00 00 00 00  39d+12:19:43.019  SET FEATURES [Enable write cache]
  ef aa 00 00 00 00 00 00  39d+12:19:43.018  SET FEATURES [Enable read look-ahead]
  ef 03 46 00 00 00 00 00  39d+12:19:43.016  SET FEATURES [Set transfer mode]

Error 8016 occurred at disk power-on lifetime: 18529 hours (772 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 05 ba 10 70 0c  Error: UNC 5 sectors at LBA = 0x0c7010ba = 208670906

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 05 ba 10 70 40 00  39d+12:19:21.325  READ DMA EXT
  35 00 0d 5c a3 2c 42 00  39d+12:19:21.270  WRITE DMA EXT
  35 00 0d 9f a2 2c 42 00  39d+12:19:21.215  WRITE DMA EXT
  35 00 0d db a1 2c 42 00  39d+12:19:21.175  WRITE DMA EXT
  35 00 58 71 6d fd 41 00  39d+12:19:21.122  WRITE DMA EXT

Error 8015 occurred at disk power-on lifetime: 18529 hours (772 days + 1 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 05 ba 10 70 0c  Error: UNC 5 sectors at LBA = 0x0c7010ba = 208670906

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  25 00 05 ba 10 70 40 00  39d+12:19:04.427  READ DMA EXT
  35 00 10 20 32 5c 4f 00  39d+12:19:04.377  WRITE DMA EXT
  35 00 0b 91 37 23 4f 00  39d+12:19:04.311  WRITE DMA EXT
  25 00 08 d1 2c 4c 40 00  39d+12:19:04.249  READ DMA EXT
  25 00 05 ba 10 70 40 00  39d+12:18:47.676  READ DMA EXT

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]


SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
# zpool status -v
  pool: datapool6
 state: ONLINE
  scan: resilvered 181G in 10h0m with 0 errors on Fri Aug 31 11:34:49 2012
config:

        NAME        STATE     READ WRITE CKSUM
        datapool6   ONLINE       0     0     0
          raidz2-0  ONLINE       0     0     0
            c4t2d0  ONLINE       0     0     0
            c4t3d0  ONLINE       0     0     0
            c4t4d0  ONLINE       0     0     0

errors: No known data errors

あれれ?なぜ、zfsでは、エラーをはかない?

 # zpool scrub datapool6

repairingが始まるが、ひどいことになったので、OFFLINEにした。

 # zpool offline datapool6 c4t4d0
# zpool status -v
  pool: datapool6
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: scrub in progress since Tue Sep 25 23:22:25 2012
    2.34G scanned out of 3.21T at 312K/s, (scan is slow, no estimated time)
    1.89M repaired, 0.07% done
config:

        NAME        STATE     READ WRITE CKSUM
        datapool6   DEGRADED     0     0     0
          raidz2-0  DEGRADED     0     0     0
            c4t2d0  ONLINE       0     0     0
            c4t3d0  ONLINE       0     0     0
            c4t4d0  OFFLINE      0     0     0  (repairing)

とりあえず、2本でしばらくがんばってもらおう...orz

[ コメントを読む(0) | コメントする ]

2012年09月23日() [晴れ]

[遊び] 荒川で花火!

その後、車で荒川まで移動し、花火したよ。
大きな物から、小さな物まで。3種類あったから全部試してみよう!ってことに。

スカイツリーがみえますね。小さかったですが(笑)



ま、遊ぶよね!(w

荒川の土手ってどっかで見たことがあるなぁとおもったら、金八先生のロケ地だったんですね。
第6シリーズからずっと見ていました。
今は、第6と第5シリーズの再放送をやっていて見ています(笑)

楽しい一日が終わりました。。

[ コメントを読む(0) | コメントする ]

[遊び][] 九州・炭火焼創菜料理 うまや@北千住

夏の思い出をおいて行こうってことで、スカイツリーが見える荒川で夏の思い出をつくるべく、無邪気に花火花をしてきました。
メンバーは、@tudumi @yoshfuji @naru0ga @aliceinwire @Koedoyoshida 他2名...
そのまえに、ちょっと腹ごしらえということで、うまやという店でお食事。もちろんノーアルコール!。

サラダ!



キノコと豆腐の鶏すき鍋



焼き鳥盛り合わせ(タレと塩)



佐賀県唐津 川島豆腐店のざる豆腐。



蒸し鶏と野菜のごま風味サラダ。



博多明太子の海苔巻き?



超うまかった、香ばしく焼き上げた大分冠地鶏
オリーブオイルたっぷり。ハーブ焼きでもうまそう!



うまやの鶏飯
そぼろご飯みたい!
たまご、そぼろ、椎茸と3種類。



だし汁を注ぎます!



雑炊!



甘みのデザート!
紫芋アイスのきな粉黒蜜かけ



黒ごまアイス!



わらび餅と黒ゴマアイス



杏仁豆腐!
普通の杏仁豆腐とちがった〜。



お店!



うまや
〒120-0034 東京都足立区千住3-92 北千住マルイ9F
03-4376-5905
11:00〜23:00(L.O.22:30)

[ コメントを読む(0) | コメントする ]

Diary for 15 day(s)
Powered by hns-2.19.6, HyperNikkiSystem Project




(c) Copyright 1998-2012 tomocha. All rights reserved.