2007年12月05日 |
ニュースサイトとウェブ魚拓のキャッシュ
先日、あるニュースサイトのウェブ魚拓を取ろうとしたところ以下のような画面になった。
「robots.txtによってキャッシュが禁止されており取得できません。」とのことで、調べてみると、
キャッシュの取得を禁止するにはどうすればいいですか?
以下の3つの方法のどれかを行うことでキャッシュの取得を禁止できます。
(1) 以下のMETAタグをHEADタグ内に書く
<meta name="robots" content="noindex,nofollow">(2) ルートディレクトリにrobots.txtを設置して、"Megalodon"が取得不可能なパスを指定する
なお、robots.txtはキャッシュしておりますので、変更が反映されるまで長くて3日かかります。(3) ウェブサイトオーナーとして削除依頼を行い、その際にキャッシュ禁止登録のチェックボックスをONにする
とのことみたい。
朝日、読売、産経、毎日のニュースサイトのrobots.txtを調べてみたところ読売だけ上記のような措置を取っているみたいだった。
以下は、「ニュースサイトとウェブ魚拓のキャッシュ」の関連エントリーです。
この記事を読んだ人はこんな記事も読んでいます
- 桜肉を食べた! - 馬刺しと馬肉ステーキ (26 hits)
- タクシーの不満点について (9 hits)
- 黒川温泉に行って来た! (6 hits)
- 「配達証明」と「配達記録」の違い (4 hits)
- ゴルフ レッスン 8回目 in 池袋 (4 hits)
- 「ウェブ魚拓」が変わった! (3 hits)
- sitemapsとrobots.txtについて (3 hits)
- ゴールドブレンドが値上げされてた件について (2 hits)
- 串カツ 松葉 - 梅田地下街の名店 (1 hits)
- ページランクと被リンク(バックリンク)数 (1 hits)