PAGE TOP

自分たちに合ったコンテンツマーケティング戦略がわからない方へ

トップページ |

【第2弾】特許情報とGoogleの発表から導き出した”順位決定にマイナスに働く”内部要因78項目

はてなブックマーク
52
Facebook
70
google+
0
pocket
46
プロモニスタ

2015.12.02

【第2弾】特許情報とGoogleの発表から導き出した”順位決定にマイナスに働く”内部要因78項目

検索順位にマイナスに働くSEO内部対策要因

Google社員の発言や特許情報など、信頼度の高いソースから検索順位の決定要因と考えられる項目を導き出し、発表した記事を翻訳してご紹介します。

今回は第2弾、「順位決定にマイナスに働く内部SEO要因」です。
あくまで1個人(会社)によるものですが、各要因の信憑性まで書かれており、非常に参考になる内容になっています。

ぜひSEO対策の参考にしてください。

第1弾:順位決定にプラスに働く内部SEO要因74項目

 

元記事
Google Ranking Factors: 260+ Facts & Myths | Northcutt
※本記事は、オリジナル記事の著者に許可を取って翻訳し、公開しています。

 

マイナスに働く内部SEO要因

減点的な内部SEO要因とはそれを行うことによって、現状の順位を下げる可能性があるものである。これらの要素はアクセシビリティ・評価減・ペナルティの3つに分類できる。

アクセシビリティの問題はGoogleクローラービリティを妨げたことによる、正当な評価の妨害に起因するものである。
評価減は質の低いサイトの指標になるものや、サイトの評価の妨げになる問題のことである。
ペナルティはもっと深刻な問題で、長年築いてきた努力も一瞬で無に帰す可能性を持っている。

繰り返しになるが、内部要因はすべてあなたのサイト上の管理でコントロールすることができるものである。

 

※訳注:原文のそれぞれの要因に対する信憑性は「concrete(確実)」「probable(もっともらしい)」「likely(ありえる)」「maybe(かもしれない)」「iffy(疑わしい)」「myth(迷信)」という表記だったが、訳文では上から順に「100%」「80%」「70%」「50%」「20%」「5%」と表記している。

 

ランキング要因 – 目次

▼目次を見る(クリック)

  1. ドメイン全体で薄いコンテンツ【100%】
  2. ドメイン評価が低い【100%】
  3. 過剰な内部リンク【80%】
  4. 過剰な外部リンク【100%】
  5. 過剰なフッターリンク【80%】
  6. 孤立したページ【100%】
  7. リンク販売【80%】
  8. 発リンク【5%】
  9. Body内の過剰なキーワード出現率【80%】
  10. キーワード出現の希薄化(内容の薄いコンテンツ)【80%】
  11. タイトルタグ内のキーワード出現率【80%】
  12. あまりに長いタイトルタグ【80%】
  13. Hタグ内のキーワード出現率【80%】
  14. Hタグの過剰使用【80%】
  15. URL内キーワードの繰り返し【70%】
  16. やたら長いURL【80%】
  17. ALTタグ内のキーワード出現率【80%】
  18. やたら長いALTタグ【80%】
  19. 長い内部リンクアンカー【70%】
  20. テキストに対してリンクが多い【50%】
  21. くどいほどの箇条書き【80%】
  22. 著作権違反【100%】
  23. ドアウェイページ【100%】
  24. 画像内のテキスト【100%】
  25. 動画内のテキスト【100%】
  26. リッチメディア内のテキスト【100%】
  27. 薄いコンテンツ【100%】
  28. 他ドメインとの重複コンテンツ【100%】
  29. 自ドメイン内での重複コンテンツ【100%】
  30. ペナルティを受けているサイトへのリンク【100%】
  31. noindexページ【100%】
  32. 内部リンクのnofollow【80%】
  33. アフィリエイトへのリンク【70%】
  34. 検索結果ページ【100%】
  35. 自動生成コンテンツ【100%】
  36. フィッシング【100%】
  37. 期限切れのコンテンツ【80%】
  38. 露骨なアダルトコンテンツ【70%】
  39. メタ・ディスクリプションのキーワードスタッフィング【50%】
  40. メタ・キーワードのキーワードスタッフィング【50%】
  41. スパムなユーザージェネレイトコンテンツ【80%】
  42. 分離していない外国語のコンテンツ【70%】
  43. 自動翻訳コンテンツ【80%】
  44. JavaScriptによる隠しコンテンツ【50%】
  45. CSSによる隠しコンテンツ【80%】
  46. 背景と同じ文字色【100%】
  47. 1ピクセルの画像リンク【100%】
  48. 空のリンクアンカー【100%】
  49. 太文字や斜体文字などを多用する【70%】
  50. 内部リンクエラー【100%】
  51. FrameとIframe【100%】
  52. 動的コンテンツ【70%】
  53. 過剰な広告【100%】
  54. ポップアップの使用【70%】
  55. robots.txtのdisallow【100%】
  56. メタまたはJavaScriptリダイレクト【100%】
  57. JavaScript内のテキスト【100%】
  58. 正しくないHTML/CSS【70%】
  59. 感染したサイト【70%】
  60. ページ上のコードエラー【50%】
  61. ソフトエラーページ【70%】
  62. サイトマップ優先度【50%】
  63. robots.txtが無い【5%】
  64. リダイレクトされている内部リンク【100%】
  65. 読み込みが遅い【100%】
  66. 環境の良くないIPアドレス【70%】
  67. あまりに長い応答時間【100%】
  68. プライベートWhois【50%】
  69. 嘘のWhois【20%】
  70. レジスタ単位でのペナルティ【20%】
  71. グローバル順位におけるccTLD【70%】
  72. パークドメイン【80%】
  73. サブドメインの使用【50%】
  74. サブドメインの数【50%】
  75. ページのHTTPステータスコード 4XX/5XX【100%】
  76. ドメイン全体でのエラーページの割合【50%】
  77. HTTP期限切れヘッダー【50%】
  78. サイトマップchangefreq【50%】

 

サイト全体に関する要因

 

1.ドメイン全体で薄いコンテンツ【100%】

大昔にGoogleはコンテンツの質やオリジナリティを理解しようと躍起になっていたことがあった。パンダ・アルゴリズムが導入されたことにより、もはやこれはページ単位の問題ではなく、ドメイン全体の問題になったと言っても良いだろう。ということで、この問題はいかに検索エンジン上のコンテンツの平均的な質を向上させるかということであり、ブログの「タグ」ページに代表されるような、どうしようもない繰り返しページにnoindexを入れたりすることが効果的だったりする。

ソース: Google (https://support.google.com/webmasters/answer/2604719?hl=en)

 

2.ドメイン評価が低い【100%】

ドメインは時を超えてGoogleに評価される。それは例えドメイン所有者が変わって完全に違うサイトが運営されていたとしてもだ。前オーナーのせいでペナルティを引き継いでしまうことだってある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=C-EdhaMDXho)

 

3.過剰な内部リンク【80%】

かつてマット・カッツは1ページあたりのリンクの数は明確に100個以内に制限していると述べていたが、のちに「妥当な数に保つこと」と表現を変更した。これはかつてGoogleのクローラーが1ページあたり100kb以上ダウンロードしなかったことに起因している。これはもはや事実ではないが、それでも全てのリンクはPageRankを受け渡してしまうので、Googleの仕組みを考えるならあり得る話だとは考えられる。

Matt (blog) (https://www.mattcutts.com/blog/how-many-links-per-page/), Matt(video) (https://www.youtube.com/watch?t=46&v=QHG6BkmzDEM)

 

4.過剰な外部リンク【100%】

PageRankアルゴリズムの単純な構造を考えれば、過剰な外部リンクがPageRankをドメインの外に流出させてしまうということは簡単に理解できる。マイナス要因になるのはあくまでも「過剰な」場合に限る。「適度な」外部リンクはむしろプラスの要因になることをマット・カッツも同じソースで認めている。

ソース: Matt Cutts (https://www.mattcutts.com/blog/pagerank-sculpting/)

 

5.過剰なフッターリンク【80%】

まず明確にしておかなければならないが、フッター部分に詰め込まれたリンクというのは、本文(コンテンツ)部分に記述されたリンクよりも価値が下がる。また、有料リンクスパムへの対応についてGoogleが初めて説明し始めた時、有料リンクスパムの手法としては、サイトのフッター部分に何十という有料リンクを詰め込むことが主流だった。そのためフッターに外部へのリンクを付け過ぎると、なにかしらのペナルティを引き起こす可能性がある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=D0fgh5RIHdE)

 

6.孤立したページ【100%】

内部リンクをどう辿ろうが行き着くことがほぼ不可能な孤立したページは、ドアウェイページとして扱われWebスパム判定される可能性がある。そこまでの事態にはならないにせよ、そういったページは内部のPageRankの恩恵を受けられず、権威からは程遠いものになるが。

ソース: Google Webmaster Central(http://googlewebmastercentral.blogspot.com/2015/03/an-update-on-doorway-pages.html)

 

7.リンク販売【80%】

マット・カッツはツールバーPageRankが、リンク販売を行ったことにより7から3に落ちてしまった例を見せている。PageRankの受け渡しを目的としたリンク販売はGoogleのWebマスターガイドラインでペナルティ項目として扱われている。

ソース: Matt Cutts (https://www.mattcutts.com/blog/why-did-my-pagerank-go-down/)

 

8.発リンク【5%】

ある意味では、「PageRank流出」として知られているものは存在する。つまり配布できる「ポイント」は予め決まっていて、一度出て行った「ポイント」はすぐには回復しないと言う考え方だ。しかしマット・カッツは本当に関連があり信頼のできる発リンクには評価を与える別の制御があると認めている。Webサイトというは集合体であるべきで、袋小路になるべきではない。

ソース: Matt Cutts (https://www.mattcutts.com/blog/pagerank-sculpting/),Nicole V. Beard (https://northcutt.com/seo-myths-from-experts/)

 

コンテンツに関する要因

 

9.Body内の過剰なキーワード出現率【80%】

キーワードスタッフィングペナルティは、過去にキーワードを詰め込めば詰め込むだけ順位が上がった時代のスパムに対抗するために導入された。とある実験によればキーワード出現率が6%を超えた段階でペナルティが発動することもあった。TF-IDFは働いていたが、トピックやキーワードの種類、文脈に大きく左右されるようだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA),Remix (https://www.youtube.com/watch?v=b7W0o65tTIQ)

 

10.キーワード出現の希薄化(内容の薄いコンテンツ)【80%】

もし高いキーワード出現率やTF-IDFがポジティブに働いているときなら、キーワードの出現頻度や出現率が足りてないと、関連性が薄いと判断されてしまう。Googleが自然言語理解を深めてきたおかげで、この項目は内容の薄いコンテンツと書き変えたほうがよいかもしれない。明確なテーマなく書かれたコンテンツはいかなるキーワードにも関連付けられないのである。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA)

 

11.タイトルタグ内のキーワード出現率【80%】

タイトルタグ内のキーワードスタッフィングもペナルティになる可能性があるようだ。理想的なタイトルタグの長さは30文字程度で、検索結果に表示された際、良い検索広告としての機能も果たす。控えめに言っても、同じキーワードを何回も同じタグの中で繰り返し使う意味があるとは思えない。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA)

 

12.あまりに長いタイトルタグ【80%】

同上

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA)

 

13.Hタグ内のキーワード出現率【80%】

H1やH2に代表されるようなHタグは、そこに記載されているキーワードに重めの比重をかけることができる。そう聞くと、このタグに出来る限りのキーワードを詰め込もうとしたり、できるだけHタグを長くしようとしたりする誘惑にかられるだろう。ただ、そんなことをしてもキーワードスタッフィングペナルティに引っかかるだけだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA)

 

14.Hタグの過剰使用【80%】

原則として、もしSEOペナルティなんてものが本当に存在するのかどうかはっきりとした答えが欲しいのなら、プラスに働くい内部要因であげた項目を常識的な範囲を超えてためしてみるといい。一番簡単な方法はWebサイト全てをH1タグ内に設置してみることだろう。マット・カッツはH1に大量のテキストを挿入した際のヒントを動画で残してくれている。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Bz0KQNPDUoc)

 

15.URL内キーワードの繰り返し【70%】

URL内で複数回キーワードを繰り返した場合のペナルティは今のところ聞いたことはないが、それをしたからといってSEO的にプラスになるということも基本的にはない。実際URLの中に複数回キーワードを入れてみたが、何の意味もなかった。

ソース: 考察による

 

16.やたら長いURL【80%】

マット・カッツによると、URLの最初の5単語程より後に記述されているキーワードに関しては、SEO的なプラスの要素は減っていくとのことだ。
直接確証されているわけではないものの、Google上でこの現象が起こっているのを目にすることはできる。とはいえ、この問題に関しては扱われ方も多様で、BingはURL内のキーワードスタッフィングを完全にペナルティとして扱うことにしたと公表している。

ソース: Matt Cutts (http://www.stephanspencer.com/matt-cutts-interview/)

 

17.ALTタグ内のキーワード出現率【80%】

通常ALTタグというものはページ上に表示されることがないものだから、ALTタグ内のキーワードスタッフィングというのは横行しがちだった。的確な表現の数単語なら全く問題ないどころかむしろ歓迎されるべきだが、それを超えるとペナルティの対象になりえる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=T4VarHQNqRo)

 

18.やたら長いALTタグ【80%】

同上

ソース: Matt Cutts (https://www.youtube.com/watch?v=T4VarHQNqRo)

 

19.長い内部リンクアンカー【70%】

控えめに言っても内部リンクのアンカーテキストを長くすることによるプラスの効果など全く無く、大抵の場合マイナスになる可能性のほうが高い。長過ぎる内部アンカーテキストは、下手をするとキーワードスタッフィングペナルティを引き起こす可能性がある。

ソース: 考察による

 

20.テキストに対してリンクが多い【50%】

リンクしかなく、内容の全くないサイトは低品質とみなされていると考えられる。もちろん検索結果ページのようなランキングページではなく、内容が必要なコンテンツページだった場合の話だが、明確に証明するソースはまだない。

ソース: 考察による

 

21.くどいほどの箇条書き【80%】

マット・カッツによれば、どんな書き方であれキーワードを箇条書きにしただけのコンテンツはキーワードスタッフィングとみなされる可能性があるとのことだ。例えば、事柄・単語・ことわざ・アイデア・コンセプト・キーワード・キーフレーズなどをやたらと箇条書きにするのはどう考えても普通ではない。やり過ぎるとペナルティの可能性もある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=7y-m_jiayLQ)

 

22.著作権違反【100%】

Digital Millennium Copyright Act(DMCA)や米国外のこれに似た著作権規約に違反したコンテンツを載せていると色々なペナルティに引っかかる可能性がある。Googleは自動で出所不明もしくは無許可のコンテンツ流用を発見できるよう努力しているようだが、ユーザー自身がGoogleに違反コンテンツを通報し、手動対応を促す事もできる。

ソース: Google (https://support.google.com/legal/answer/1120734)

 

23.ドアウェイページ【100%】

検索エンジン上でランディングページとなることを狙って、ドアウェイページやゲートウェイページと呼ばれるユーザーにとって無価値なページを利用していると評価が下がる。例えば、同一商品のページをアメリカ中の全都市名で作ったりすると、Googleにスパムだと判定される。

ソース: Google (https://support.google.com/webmasters/answer/2721311?hl=en)

 

24.画像内のテキスト【100%】

Googleは画像の分析能力を上げてきてはいるが、今のところリッチメディア内のコンテンツはGoogleに正しくクロールされていない。画像内にテキストを入れたからといって悪いことはなにもないのだが、そのテキストで評価されるチャンスは失われることになる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=3NbuDpB_BTc)

 

25.動画内のテキスト【100%】

画像と同じく動画内のテキストもGoogleは正しくクロールできない。動画の内容を文字起こししたものを一緒に公開することで、検索されやすくすることができる。これはHTML5やFlash、SilverLightなどのリッチメディアの形式にかかわらず言えることである。

ソース: Matt Cutts (https://www.youtube.com/watch?v=3NbuDpB_BTc)

 

26.リッチメディア内のテキスト【100%】

同上

ソース: Matt Cutts (https://www.youtube.com/watch?v=3NbuDpB_BTc)

 

27.薄いコンテンツ【100%】

トピックについて包括的に書かれた詳細なコンテンツというものが良いものとされてきたが、パンダ・アルゴリズムの導入によってオリジナリティの一切ないコンテンツは、Googleによって激しく罰せられるようになってしまった。

ソース: Google (https://support.google.com/webmasters/answer/2604719?hl=en), DaniWeb Study (https://www.daniweb.com/internet-marketing/search-engine-optimization/news/364574/daniweb-has-recovered-from-google-panda-sorta)

 

28.他ドメインとの重複コンテンツ【100%】

他サイトとコンテンツが重複していた場合、たとえそれが著作権を侵害しているか否か、あるいは出典の表示方法が正しくおこなわれているか否かにかかわらず、順位に著しい不利益を生じさせることがある。この順位ロジックは「コンテンツがWeb全体に対してもっとユニークで特別であれば優遇される」という理論と一致する。

ソース: Google (https://support.google.com/webmasters/answer/2721312?hl=en)

 

29.自ドメイン内での重複コンテンツ【100%】

他ドメインとのコンテンツ重複と同様、コンテンツのどんな断片であれ、ページ内もしくはサイト内で重複が発生していると評価に影響を与える可能性がある。(ブログの)タグページが大量にインデックスされてしまっていたり、「www」有り無しが統一できてなかったり、「URLのパラメータ有り無し」が統一できてなかったりすると、この問題が発生する原因となる。

ソース: Google (https://support.google.com/webmasters/answer/66359?hl=en)

 

30.ペナルティを受けているサイトへのリンク【100%】

「Bad Neighbourhood」アルゴリズムとして導入された。マット・カッツの言葉を借りるなら、「スパムサイトやそういった類のサイトへのリンクが少なければ少ないほど、Googleからの信頼性は向上する」。どうしてもそういうサイトにリンクを貼らなければならないのなら、rel=nofollowを使用すべきだとGoogleは推奨している。再びマットの言葉を借りると「nofollowを使えばそういったサイトとの関係を断ち切る事ができる」。

ソース: MC: Bad Neighbors (https://www.mattcutts.com/blog/pagerank-sculpting/), MC: Nofollow (https://www.seroundtable.com/archives/015603.html)

 

31.noindexページ【100%】

もしページにnoindexタグを入れていたら、検索エンジンはそのページをインデックスしない。順位を付けたいページにこのタグが入っていないことを今一度確認しよう。逆に、Googleからのランディングページとしてふさわしくないページには入れたほうがユーザーエクスペリエンス的にとても良い。

ソース: 論理

32.内部リンクのnofollow【80%】

2通りのパターンがあるが、ひとつ目はrobotsタグにnofollowをつけている場合。この場合そのページ全てのリンクがnofollow扱いになる。ふたつ目は、個々のリンクにnofollowをつける場合。どちらの場合にせよ、nofollowが示すことは、「信用できないリンク先」「これ以上はクロールするな」「PageRankを渡すな」ということだ。マットいわく「絶対に自分のサイトにむけてnofollowはするな」。

ソース: Matt Cutts (https://www.youtube.com/watch?v=bVOOB_Q0MZY)

 

33.アフィリエイトへのリンク【70%】

Googleは過去に「何も付加価値を与えないアフィリエイトサイト」に対して、正面切って対策をしたことがある。これはガイドラインにも記載されている。アフィリエイトリンクはrobots.txtでブロックしたディレクトリから301リダイレクト経由で行うというSEO病が蔓延しているようだが、そんなことをしてもGoogleはHTTPヘッダ情報を見ることはできる。何人ものアフィリエイトマーケターが、アフィリエイトリンクを貼り過ぎたことによりペナルティを受けたという科学的に信憑性の高いケーススタディを発表しているのでこの項目の信憑度を70%で設定させてもらった。

ソース: Google (https://support.google.com/webmasters/answer/76465?hl=en), Affiliate Marketer’s Study (http://www.nichepursuits.com/how-to-get-a-google-penalty-using-af?liate-links-and-how-to-recover/)

 

34.検索結果ページ【100%】

原則としてGoogleはユーザーにちゃんとコンテンツにランディングしてもらいたいと考えている。つまり、コンテンツへのリンクリストページや、たった今までいたのと同じような検索エンジンの検索結果ページ(SERP)とかではなくだ。もしもページが検索結果ページのようなものなら、ただ単リンクの多いだけのページとして分類され、良い順位がつかない傾向にある。検索結果だけでなく、ブログのタグページ、カテゴリページなども同様だ。

ソース: Matt Cutts (https://www.mattcutts.com/blog/search-results-in-search-results/)

 

35.自動生成コンテンツ【100%】

ユーザーの検索クエリに合わせてコンテンツを自動生成している場合、「もちろんペナルティ対象になる」とGoogleとGoogleの作成したWebマスターガイドラインにより確認が取れている。幾つかの手法はガイドラインで明確な例として詳細に記載されている。自動生成のメタタグなどのように例外として認められている例もある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=JGCA2I8hfWc),Webmaster Guidelines (https://support.google.com/webmasters/answer/2721306)

 

36.フィッシング【100%】

もしサイトでフィッシング(例えば情報を盗もうとして、どこかのサイトのログインページをそっくりにコピーしているなど)をしているのでは、とGoogleに判断されかねないような問題があるなら、覚悟しておいたほうがいい。多くの場合、Googleは「違法な行動」や「ユーザーに危害を加える行動」とひとくくりにして説明しているが、このインタビューでマット・カッツはフィッシングフィルターについて詳しく解説している。

ソース: Matt Cutts (https://www.reubenyau.com/google-trustrank-myth-busted/)

 

37.期限切れのコンテンツ【80%】

様々な方法を使って、コンテンツの期限(※訳注情報としての期限)を確かめる特許をGoogleは所有している。そのうちの1つの方法は単純にコンテンツの作成された古さを見るというものだ。この要因に関して不確かなことは、はたしてこれが適応されるのはすべてのクエリでのことか、あるいはQDFのようにGoogleが明らかにコンテンツ期限を定めた方がいいと判断したクエリに限られるのかわからないという点だ。

ソース: Patent US 20080097977 A1

 

38.露骨なアダルトコンテンツ【70%】

Googleは18禁コンテンツをインデックスもするし検索結果として返しもするが、デフォルトで「オン」になっているセーフサーチフィルタでは出てこない。だから今一度、ちゃんと確認していないユーザージェネレイテッドのコンテンツや過去のコンテンツがうっかりセーフサーチにひっかかる一線を超えてしまっていないかの確認くらいはしておいたほうが良いだろう。

ソース: Google Safe Search (https://support.google.com/websearch/answer/510?hl=en)

 

39.メタ・ディスクリプションのキーワードスタッフィング【50%】

Googleはすでにメタ・ディスクリプションをランキング要因から取り下げ、ただの広告として利用しているにすぎないと言ってはいるものの、不正な利用をした場合にはスパム判定を送る要因になる可能性がある。

ソース: 考察による

 

40.メタ・キーワードのキーワードスタッフィング【50%】

2009年以降、Googleはこのタグを一切見ないと言っているが、未だにそれを知らないか、あるいは効果を信じている人たちはココにキーワードを詰め込もうとする。最近起きた事例によれば、未だにWebスパムシグナルをGoogleに送る要因にはなり得るとのことだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=jK7IPbnmvVU)

 

41.スパムなユーザージェネレイトコンテンツ【80%】

Googleはユーザージェネレイトコンテンツ部分だけにフォーカスした問題点をあぶり出し、そこに特化したペナルティを作り出している。これはSearchConsole上に警告として現れる数少ない事例の1つである。そのペナルティは通常、特定のページにのみ適応されるとのことだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=gjmXYBQZQ8Q)

 

42.分離していない外国語のコンテンツ【70%】

当たり前だが、ターゲットオーディエンスの使っている言語ではない言語でコンテンツを作成したら、ほとんどマイナス方面に内部要因ははたらいてしまう。適切に分離されていない外国語コンテンツはクローラーとユーザーどちらにとってもマイナスになるということをマット・カッツも認めている。

ソース: Matt Cutts (https://www.youtube.com/watch?v=GyWx31GeQWY)

 

43.自動翻訳コンテンツ【80%】

Babelfish(※訳注日本で言うエキサイト翻訳)やGoogle翻訳を利用して、お手軽に「インターナショナル化」を図ろうとするのは、マット・カッツの言うところのWebマスターガイドラインに完全に違反する行為である。Googleがそういうことを言ったときは「評価が下がるのではなく、ペナルティ扱いにするからね。それもかなり重めの」という意味なので注意しておくように。Webマスタービデオでマットは自動翻訳を、自動生成コンテンツに分類すると言っていた。

ソース: Matt Cutts (https://www.youtube.com/watch?v=GyWx31GeQWY)

 

コードに関する要因

 

44.JavaScriptによる隠しコンテンツ【50%】

GoogleはJavaScriptに入れたコンテンツを正しくクロールできないから、あまりそこにコンテンツを入れることを推奨しないとしているが、実際クロールができないというわけではない。ただ、かつてNoScriptタグがクローキングに使われていた時代があったため、下手をするとクローキングペナルティにひっかかる可能性もあるので注意が必要だ。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

 

45.CSSによる隠しコンテンツ【80%】

最もよく語られる内部要素ペナルティの一つが、ユーザーに見えないように故意に隠したテキストやリンクである。特に、Google上でのキーワード順位アップを狙ってやっていた場合にはかなり重めのペナルティが与えられる。ただ、タブであるとかツールチップであるとか、明確に理由がある場合はこの限りではない。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

 

46.背景と同じ文字色【100%】

よくあるクローキングペナルティの例としてあげられるのが、特定のコンテンツを背景と同色にしてユーザーから見えにくくするというものである。Googleはページレイアウトアルゴリズムを用いて、ユーザーにはコンテンツがどのように見えているのかを分析することで、この問題に対処している。実験の結果、ほんの一握りのケースだが、未だにこれが原因でペナルティが来ることはある。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

 

47.1ピクセルの画像リンク【100%】

昔はやった隠しリンクの手法だが、もちろんこの「小さい画像リンク」はGoogleによって隠しリンクとして認定されている。大抵の場合、縦横1pxの画像を利用するか、とんでもなく小さいフォントの文字リンクを使用する。こういう姑息な手段はかくも魅惑的に思えるが、確実にGoogleにバレるのでオススメはしない。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

 

48.空のリンクアンカー【100%】

隠しテキストとはちょっと違うかもしれないが、空のアンカーテキストを利用した隠しリンクもクローキングペナルティの対象となる。これも危険かつ、かつて一世を風靡したスパム手法なので、うっかりそうなっているリンクがないか今一度サイトをチェックしよう。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

 

49.太文字や斜体文字などを多用する【70%】

太文字で表示したテキストが、そうでない残りのテキストより評価される可能性が高いからと言って、サイト全体の文字を太文字表記にしたところで、サイトの評価上がるなんてことはない。このような行為は、Googleの定める「スパム行為」とみなされるだろう。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Bz0KQNPDUoc)

 

50.内部リンクエラー【100%】

壊れた内部リンクを放置しておくと、クローラービリティ的にもユーザーエクスペリエンス的にも全く良いことがないし、サイトの質が低いと自分で公言しているようなものだ。出来る限り修正することをおすすめする。

ソース: Patent US 20080097977 A1, Google via SEL(http://searchengineland.com/googles-quality-rating-guide-leaked-version-?ve-196619)

 

51.FrameとIframe【100%】

昔、検索エンジンはフレーム内のコンテンツをクロールすることが全くと言っていいほどできなかった。時が経ち、この問題はほぼほぼ解決できるようにはなってきたものの、未だにクローラーにとってフレームというのは厄介な代物のようだ。Googleはフレーム内のコンテンツもページに含めようとはしているようだが、その精度は100%と言うには程遠い。

ソース: Google (https://support.google.com/webmasters/answer/34445?hl=en)

 

52.動的コンテンツ【70%】

動的コンテンツはクローラーにとって理解したり正しく順位づけしたりするのが難しい代物だ。特にGoogleがアクセスしてくる可能性があるページでは、noindexを使ったりあまり動的コンテンツを使用したりしないほうが、結果としてユーザーエクスペリエンス的にも順位評価的にも良くなる可能性が高いというのが通説だ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=bAIsnr0dIgo)

 

53.過剰な広告【100%】

ページ、特にファーストビュー部分に過剰な広告があると、ユーザーエクスペリエンスを著しく損ね、Googleによる対処の対象になる可能性がある。Googleは実際にユーザーが見るページのスクリーンショットを基準に算出しており、これはページレイアウト・アルゴリズムの一部や、トップヘヴィー・アルゴリズムに組み込まれていたりする。

ソース: Google (http://insidesearch.blogspot.com/2012/01/page-layout-algorithm-improvement.html)

 

54.ポップアップの使用【70%】

2010年、マット・カッツはこれに対してNOと答えているが ,Googleの ジョン・ミュラーは2014年にYESと答えている。ページレイアウト・アルゴリズムの仕組みと効果を考えた際に、筆者の私見としては、タイブレーク効果として考えると「YES」というものだ。

ソース: Google (http://insidesearch.blogspot.com/2012/01/page-layout-algorithm-improvement.html)

 

55.robots.txtのdisallow【100%】

ルート・ディレクトリにおいているrobots.txtに対象クローラーを「*」か「googlebot」にした状態でdisallowにしたら、クロールされなくなる。この命令はすでにGoogleが持っているインデックスを削除する命令ではないが、コンテンツ更新等のアップデートがなされなくなり、色々なプラス要因が反映されなくなってしまう。

ソース: Google (https://support.google.com/webmasters/answer/6062608?hl=en)

 

56.メタまたはJavaScriptリダイレクト【100%】

古いペナルティの一種で、もうそんなに一般的ではなくなってきたが、Googleはmeta-refreshやJavaScriptの時間差リダイレクトを使わないように推奨している。ユーザーを混乱させ、離脱率を引き上げる原因になるし、クローキングとみなされる可能性があるためだ。代わりにサーバレベルでの301や302リダイレクトを使うようにしよう。

ソース: Google (https://support.google.com/webmasters/answer/2721217?hl=en)

 

57.JavaScript内のテキスト【100%】

GoogleはJavaScriptのクローリングの機能改善に努めているようだが、JavaScriptによって吐き出されるコンテンツをクロールすることに関する問題は抱えているようだし、それ以上にGoogleにはそのコンテンツが「いつ」「誰に対して」吐き出されたものなのかを理解することはできない。もちろんJavaScriptで吐き出されたテキストがペナルティの原因になるといったことはないが、不必要なリスクということに変わりはないので、マイナス要因という枠に入れさせてもらった。

ソース: Matt Cutts (https://www.youtube.com/watch?v=8yTn_HLDaJs)

 

58.正しくないHTML/CSS【70%】

マット・カッツはこれをランキング要因にしていないと言っていた。しかし筆者が定期的に行っている実験の結果を見る限り、使っているようにしか見えないのだ。もちろんコードを完璧に書く必要はないだろうし、どちらかというと間接的な影響が大きいのだろう。ただコードが関係する要因は他にもあるので、間違ったコードが問題を引き起こすことは間違いないだろう。例えばタグ使用、ページレイアウト、クローキングなどの問題を引き起こす可能性は十分に備えているといっても過言ではない。

ソース: Matt Cutts

 

59.感染したサイト【70%】

多くのWebサイトオーナーは、最も不正アクセスの多かったWebサーバが別に何の書き換え被害にあっていないということに驚きを感じるだろう。しかし、そういったクラッカーというのは、セキュリティホールの修正が行われるまで、バレないように侵入し続け、できるだけ多くの情報を盗み見ようとするものである。そして最終的には、あなたになり変わってマルウェアの配布などを行う悪意ある行動として姿を表わすのである。そしてこのことをGoogleは非常に重く考えている。

ソース: Webmaster Guidelines (https://support.google.com/webmasters/answer/163633?hl=en)
 

60.ページ上のコードエラー【50%】

PHPやJavaその他のサーバ側の言語に起因するエラーが発生していると、Googleにユーザーエクスペリエンスが低く、品質の低いサイトだと判断されてしまいかねない。少なくとも、そういったエラーメッセージがページ上にテキストとして吐き出されていると、Googleのテキスト分析に干渉してしまう。

ソース: 考察による

 

61.ソフトエラーページ【70%】

Googleはソフト404やその他のソフトエラーページを使用しないように繰り返し推奨している。それらは本質的にはエラーページなのだが、ステータスコードは依然として200を返している。理論的に言って、そういったページをGoogleが正しく処理するのは難しいし、ユーザーの混乱も招く。Googleは(少なくとも)そういったページを低い品質とみなしているし、その数が多ければサイト全体のコンテンツ品質に影響もしかねない。

ソース: Google (http://googlewebmastercentral.blogspot.com/2008/08/farewell-to-soft-404s.html)

 

62.サイトマップ優先度【50%】

多くの人がXMLサイトマップで個々のページに指定した優先度属性がクロールとランキングに影響があるという仮説を唱えている。SearchConsoleからGoogleに要求することのできる他のシグナル同様、要求したからといって特定のページの順位を引き上げることができるわけではないし、どちらかと言えば重要度の低いコンテンツの優先度を下げるために使うべきだ。

ソース: Sitemaps.org (http://www.sitemaps.org/protocol.html)

 

63.robots.txtが無い【5%】

2015年現在、SearchConsoleはrobots.txtがない場合は、作成することをおすすめしている。これによって多くの人がrobots.txtがないことマイナス評価になるという説を信じるようになった。Googleのジョン・ミュラーが、GoogleBotに特に制限を掛ける必要がないなら、robots.txtは消してしまって構わないとアドバイスしていたのを考えるとおかしな話だ。誤解により生じた迷信に過ぎない。

ソース: John Mueller via SER (https://www.seroundtable.com/google-robotstxt-advice-12759.html)

 

サーバーに関する要因

 

64.リダイレクトされている内部リンク【100%】

ページランクはリダイレクトを挟むと少し効力を落とすように設計されている。そのため「www」有り無しや、トレイリングスラッシュの有り無しで、内部リンクをリダイレクトしてしまっているのなら、とてももったいないことになっている。

ソース: Patent US 6285999 B1, Matt Cutts via SER(https://www.seroundtable.com/archives/021832.html)

 

65.読み込みが遅い【100%】

読み込み速度が遅いサイトは、速いサイトより評価が低くなる。サーバ側、端末側両方の要因を検査できるツールは世の中に沢山あるから、ぜひとも利用すべきだ。また、読み込み速度の問題は、ユーザーの地理や端末、接続速度などの環境に依存するものだから、ターゲットユーザーの使用環境を念頭に入れてサイト構築すべきである。

ソース: Google (http://googlewebmastercentral.blogspot.ca/2010/04/using-site-speed-in-web-search-ranking.html)

 

66.環境の良くないIPアドレス【70%】

昔から続くWebホスティングによるSEO手法のデマに関してマット・カッツがすでにそんなことはないと否定はしているものの、未だにIPアドレスが何かしらのプラス要因を生むと信じて熱心に打ち込む輩がいる。そんな方々に言いたいのは、めったには無いケースだが、Googleはスパムが蔓延していると思しきプライベートネットワークであれ、パブリックであれ、対象範囲のIPアドレス全体にペナルティを課すことがあるということだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=4peSUa2FKvk)

 

67.あまりに長い応答時間【100%】

Googleはアクセスできないサイトはインデックス(再インデックスを含む)できない。またこのロジックはサイトの不信頼性と低いユーザーエクスペリエンスという不名誉も決定づけてしまう。一時的なサイトダウンは順位に影響をあたえるようなものではないが、適切な応答時間でサイトを表示するのはとても大切だ。サイトダウンが一日二日なら問題ないが、それ以上になると問題を引き起こすだろう。

ソース: Matt Cutts (https://www.youtube.com/watch?v=qXrwyTGOf1E)

 

68.プライベートWhois【50%】

Googleは常に全てのレジスタラのwhois情報にアクセスできるわけではないという指摘はもっともだが、2006年のPubConでマット・カッツは、Googleはwhois情報を見に行っており、他の幾つかのマイナス要因とあいまったときペナルティを引き起こす可能性があると発言していた。

ソース: Matt Cutts (https://www.mattcutts.com/blog/2006-pubcon-in-vegas-thursday-site-reviews/)

 

69.嘘のWhois【20%】

プライベートWhoisと同様、Googleは嘘のWhoisを使ったトリックに気づいているし、またそれが問題であるとも認識している。ICANNの規約違反であるし、ドメインハイジャッカーに抵抗するまもなくドメインを乗っ取られてしまう可能性があるという以前に、ドメイン登録に嘘の情報を使うな。

ソース: Matt Cutts (https://www.mattcutts.com/blog/false-whois-data/)

 

70.レジスタ単位でのペナルティ【20%】

もし「プライベートWhois」と「嘘のWhois」の話に賛同してくれたのなら、マット・カッツがそれらをスパムの判定に利用しようと考えているということにも納得できるだろう。そういったことを行っているドメインオーナーのサイトが一斉摘発、手動対応されるかもしれないというのは想像に難くない。が、あくまでもこれは考察でそういった証拠は何もないが。

ソース: 考察による

 

71.グローバル順位におけるccTLD【70%】

「.jp」や「.uk」に代表されるようなccTLDは、国を特定するためのドメイン拡張子である。グローバルドメインであるgTLDの逆の存在だ。ccTLDはインターナショナルSEOにおいて便利ではあるが(※訳注どこの国のサイトかひと目でわかるため)、同じ理由でその国の外のGoogleでの順位を狙った際にはいささか不利である。ただし、幾つかのccTLDにおいては一般的にもっと広い枠で使われているためGoogleに例外として認められてり、例えば「.co」のようなドメインはgccTLDとしてgTLDと同等の扱いをされる。

ソース: Google (https://support.google.com/webmasters/answer/1347922?hl=en)

 

72.パークドメイン【80%】

パークドメインとは、まだ実際にサイトが載せられていない状態のドメインのことで、たいていの場合ドメインレジスタラ側で設定している自動生成の広告ページが表示されている。現在では他の多くのランキング基準の一つとして組み込まれているが、あまりうまくは働いていないようだ。Googleは大量のパークドメインをインデックスしていたこともあった。ただ、彼らの姿勢としてはやはりパークドメインをランキングに表示することはしたくないらしい。

ソース: Google (https://support.google.com/webmasters/answer/66376?hl=en)

 

73.サブドメインの使用【50%】

多くの場合サブドメインは、サブフォルダと違い、Googleに完全に別のサイトであると判断される。色々な他の要因との兼ね合いで、サブドメインの使用が不利益を生み出すことはありえる。例えば、1つのトピックについて書いたサイトをたくさんのサブドメインで分割してしまったら、他の「ドメイン全体」とつく要因から受けることのできる利益を全てムダにすることになる。

ソース: Matt McGee and Paul Edmondson (http://searchengineland.com/google-panda-two-years-later-5-questions-with-hubpages-ceo-paul-edmondson-149767)

 

74.サブドメインの数【50%】

サイト上のサブドメインの数は、そのサブドメインが別々のオーナーによって運営されている別サイトかどうなのかを判断する、最も顕著な要因になりうる。

ソース: 考察による

 

75.ページのHTTPステータスコード 4XX/5XX【100%】

もしもWebサーバが200(OK)か301/302(リダイレクト)以外のステータスコードを頻繁に返しているようなら、それは適切なコンテンツを表示していないということを暗に示しているようなものである。ブラウザで見ることができても(※訳注キャッシュ等が残っていて)、実際にコンテンツはなくなってしまっている場合も有り得るので注意が必要だ。もし、本当にコンテンツがなくなっていて404を返していることが正しいのなら、それが間違いでないことをGoogleに正しく伝えるべきだ。

ソース: 考察による

 

76.ドメイン全体でのエラーページの割合【50%】

ステータスコード4XXや5XXを返すページに着地する可能性が高いということは、品質の低いサイトだと評価されうる。そういったコードを返しているためにインデックスされない可能性があるので、リンク切れを起こしている発リンクがないかをチェックするのと同様、注意しておくに越したことはないであろう。

ソース: 考察による

 

77.HTTP期限切れヘッダー【50%】

Webサーバでヘッダーの「期限」を設定しておけば、ブラウザのキャッシュをコントロールでき、パフォーマンスを向上させることができる。しかしながら、加減にも左右されるが、インデックスに問題を引き起こす可能性もある。つまり検索エンジンにコンテンツを長いこと更新しないと宣言してしまっている可能性があるということだ。

ソース: Moz Discussion (https://moz.com/ugc/expires-headers-for-seo-why-you-should-think-twice-before-using-them)

 

78.サイトマップchangefreq【50%】

XMLサイトマップのchangefreqで、どれだけ頻繁にコンテンツを更新しているのかを示すことができる。Googleは指示された以上に早く再クロールすることはないとする説もある。ただ、changefreqの指示通りGoogleがクロールしているのか否かの確証はなく、もしそうだとしても、SearchConsoleで設定できるクロール速度の設定が優先されているように感じる。

ソース: Sitemaps.org (http://www.sitemaps.org/protocol.html)

 


 

次回はプラスに働く外部SEO要因をご紹介します。

プロモニスタ編集部
Webマーケターに役立つ情報を発信していきます!

カテゴリー