国内&海外SEO情報ウォッチ 「海外SEO情報ブログ」の鈴木 謙一氏が、日本と海外の検索マーケティング情報をさらっとまとめて毎週金曜日にお届け。
海外&国内SEO情報ウォッチ

グーグル検索結果で“グーグル保証”マーク表示、月々5000円からってこれマジ!?【SEO情報まとめ】

グーグルの検索結果で「GOOGLE GUARANTEED(グーグル保証)」というバッジ(認定マーク)を表示するという、驚きの試験プログラムの情報が入ってきた
よろしければこちらもご覧ください

グーグルの検索結果で「GOOGLE GUARANTEED(グーグル保証)」というバッジ(認定マーク)を表示するという、驚きの試験プログラムの情報が入ってきた。

と言っても通常のウェブ検索ではなく、ローカル検索のビジネスリスティングの話だ。グーグルの審査を受けたローカルビジネスの仕事に満足いかなかったら費用をグーグルが返金するというこのプログラム、日本ではまだのようだが、どうなっていくのだろうか。

今週は、ほかにも良質な情報が多い。特に、「YouTube埋め込みやいいね!ボタンをカンタンに遅延読み込みできるiframeのlazyload」「世界トップ580万サイトをもとにウェブの現状を分析した貴重なレポート」は必見だ。

あなたのSEO力をアップさせる情報を、ぜひしっかりと把握しておいてほしい。

  • robots.txtをrobots.txtでブロックしたらどうなる?
  • 特殊なファイルをrobots.txtでブロックすべきか?
  • Search Consoleは複数の手段で所有者確認すべし
  • グーグル社員がクロールバジェットを徹底解説
  • iframeもYouTube埋め込みもFacebookボタンも簡単に遅延読み込み。HTMLに14文字追加するだけ
  • 404ページへのアクセスで自動ブロックする仕組みがGooglebotに影響してしまう場合は
  • AMPページで測定すべき成功指標をGoogleアナリティクスで設定する方法
  • 大手経済誌がWebストーリーのTIPSを語る
  • 【必見・保存版】世界トップ580万サイトをもとにウェブの現状を分析した貴重なレポート
  • Google Discoverのヘルプ記事が大幅に刷新、E-A-Tへの言及を追加
  • ネイティブLazy-loadのしきい値をChromeが改良。ビューポートからの距離を短くし、遅延読み込みが適用されやすく

今週のピックアップ

グーグル検索結果で“グーグル保証”マーク表示、月々5000円から!?
顧客が満足できなかった場合グーグルが代わりに返金 (Search Engine Land) 海外情報

グーグルの検索結果で「グーグル保証」の認定マークを表示できるとしたら、あなたはいくら払うだろうか?

GOOGLE GUARANTEED(グーグル保証)」というバッジをローカル検索のグーグル マイビジネス リスティングに表示する月額50米ドル(約5300円)の有料サービスをグーグルが試験的に始めたようだ。

GOOGLE GUARANTEED
Google Guarantee対象のビジネスには緑色のチェックマークのバッジが付いている。

Google Guarantee(グーグル保証)のサービスは、米国とカナダにおいて、鍵修理・クリーニング・水漏れ修理など特定の業種を対象に提供されている。このプログラムはローカル検索広告サービスに含まれれている。したがって広告を出稿している必要があり、さらにグーグルの審査・認定というハードルがある。

しかしこのプログラムに参加すると、グーグル経由で申し込まれたサービスに顧客が満足しなかった場合、グーグルが料金を顧客に返金してくれるようになる。つまりグーグルによる返金保証だ。もちろん、ビジネスリスティングで保証マークが表示されるようになる。

GOOGLE GUARANTEED
GOOGLE GUARANTEED

今回の試験提供では、広告出稿する必要はなく、その代わりに月額料金を支払うらしい。どういった業種が対象になるのかまではわからない。

日本で提供されるかもまったく不明だが、月々5000円だったらグーグル保証のサービスをあなたは利用したいだろうか?

★★★☆☆
  • ローカルSEOがんばってる人用(ふつうの人は気にしなくていい)

グーグル検索SEO情報

robots.txtをrobots.txtでブロックしたらどうなる?
robots.txtクイズに挑戦 (Gary Illyes on Twitter) 海外情報

前回に続いて、グーグルのゲイリー・イリェーシュ氏が出題したrobots.txtクイズを紹介する。

質問 次の記述のように、Googlebotがrobots.txtをクロールするのをrobots.txtでブロックしたらどうなるか?

User-agent: Googlebot
Disallow: /robots.txt
  • 回答①: Googlebotは通常どおりクロールする
  • 回答②: Googlebotはクロールしない

正解は①だ。robots.txtをrobots.txtでブロックしても機能しない。robots.txtの仕様に従うクローラはrobots.txtの記述を命令として必ず適用する。しかし、ブロック対象としてrobots.txtは例外だ。

検索エンジンはサイトにアクセスする際にまずrobots.txtの内容を確認する。イメージ的には、robots.txtを見たら「robots.txtを見てはダメ」と書かれていたけれど「もう遅いよ! 見ちゃったよ!」といった感じだろうか。

回答者の3分の2強が正解していた。さほど難しくなかったようだ(同じ質問をジョン・ミューラー氏に以前に聞いたことがあったので筆者は正解できた)。

★★★★☆
  • ホントにSEOを極めたい人だけ

特殊なファイルをrobots.txtでブロックすべきか?
CSSはブロック禁止、php.iniと.htaccessはブロック不要 (#AskGoogleWebmasters on YouTube) 海外情報

特殊なファイルのクロールをrobots.txtでブロックすべきかどうかという質問にグーグルのジョン・ミューラー氏が動画で回答した。

具体的には次の3種類のファイルだ。

  • *.css(CSSファイル全般)
  • php.ini
  • .htaccess

Googlebotのクロールをブロックするとしたら次のような記述になるだろう。

User-agent:Googlebot
Disallow: *.css$
Disallow:php.ini$
Disallow:.htaccess$

しかし、このとおりに記載するべきではない。

というのも、原則的にCSSはブロックしてはいけないからだ。GooglebotがCSSにアクセスできないとそのページを正しくレンダリングできない。ランキングに悪影響が出る可能性がある。

一方で、php.iniと.htaccessはブロックする必要はない。そもそもこれらのファイルは外部からのアクセスが禁止されている。robots.txtでブロックしていようがしていまいが、もともとGooglebotはアクセスできないはずだ。

というよりも、もしGooglebotに限らず外部ユーザーがアクセスできたとしたらセキュリティ上大問題だ。robots.txtでなんとかしようとするのではなく、Webサーバーの設定をしっかりと確認するべきだろう。

Loading video
★★★★☆
  • ホントにSEOを極めたい人だけ

Search Consoleは複数の手段で所有者確認すべし
備えあれば憂いなし (John on Twitter) 海外情報

Search Consoleのサイト登録に関する重要なTIPSをお伝えする。それは、次のようなものだ:

サイトの所有権は、複数の方法で確認しておくことをおすすめする。たとえば、確認用metaタグとDNSによる確認の併用だ。

グーグルはサイト確認状態が保持されているかを定期的にチェックしている。このおかげで、たとえば退職した人がSearch Consoleを見られなくするなどできるのだが、意図的ではなく確認状態が失われてしまったら問題が発生する。

1つの手段(metaタグだけ)で所有確認していると、それが失われるとSearch Consoleにアクセスできなくなってしまうのだ。未確認の状態が短期間であれば気にすることはないだろうが、もし長期にわたってサイト確認に失敗するとひょっとしたらその期間のデータが手に入らなくなるかもしれない。

そういった状況を避けるためにも、複数の方法でサイト所有を確認しておくのがいいと、グーグルのジョン・ミューラー氏は解説している。もし何らかの原因で、1つの確認手段が無効になったとしても、別の手段でGoogleは所有権を確認できる。いわばバックアップだ。

確認手段の種類と設定はヘルプ記事で参照できる。

★★★★☆
  • すべてのWeb担当者 必見!

グーグル社員がクロールバジェットを徹底解説
難易度高 (アユダンテ コラム) 国内情報

グーグルのマーティン・スプリット氏がクロール バジェットについて動画で詳細に解説した。アユダンテのコガン・ポリーナ氏が日本語に書き起こしてくれた。

次の関連トピックに触れている。

  • クロールバジェットとは
  • クロール頻度とクロールの必要性とは
  • クロール頻度とクロールの必要性の判断条件
  • ETag、HTTPヘッダー、Sitemap.xmlの最終更新日など
  • クロールバジェットに注意するべきサイトの規模
  • クロールバジェットの「問題」
  • コンテンツの品質とクロール頻度の関係
  • サーバーがGoogleに試されているときのサーバーログ
  • サイト移転のポイント
  • クロールバジェットとサイトの構造
  • レンダリングへの影響
  • リソースのキャッシュ
  • サイト業種とクロールバジェットの関係
  • Googlebotのクロールを手伝う基本的な方法
  • 良く起こりえる課題
  • クロール頻度を上げるための設定があるか

技術的に高度な内容も多く含まれているが、テクニカルSEOに強くなりたければ読むといい。

オリジナルの英語で聴きたい人のために動画も埋め込んでおく。

Loading video
★★★★☆
  • ホントにSEOを極めたい人だけ
  • 技術がわかる人に伝えましょう
Web担当者に役立つ最新情報
  • iframeもYouTube埋め込みもFacebookボタンも簡単に遅延読み込み。HTMLに14文字追加するだけ
  • 404ページへのアクセスで自動ブロックする仕組みがGooglebotに影響してしまう場合は
  • AMPページで測定すべき成功指標をGoogleアナリティクスで設定する方法
  • 大手経済誌がWebストーリーのTIPSを語る
  • 【必見・保存版】世界トップ580万サイトをもとにウェブの現状を分析した貴重なレポート
海外SEO情報ブログの掲載記事から
  • Google Discoverのヘルプ記事が大幅に刷新、E-A-Tへの言及を追加
  • ネイティブLazy-loadのしきい値をChromeが改良。ビューポートからの距離を短くし、遅延読み込みが適用されやすく

Web担当者に役立つ最新情報

iframeもYouTube埋め込みもFacebookボタンも簡単に遅延読み込み。HTMLに14文字追加するだけ
lazyloadが本格化 (web.dev) 海外情報

ネイティブlazy-load(レイジー・ロード)は、JavaScriptのライブラリなしで遅延読み込みを実現できる仕組みだ。画像(imgタグ)またはiframe(iframeタグ)にloading="lazy"属性を追加するだけで実装できる。

「遅延読み込み」とは、ページ表示を高速化しUXを改善するための挙動。ページの初期表示では画像やiframeを読み込まず、近くまでスクロールした時点で読み込むようにする。

当初はグーグル独自の技術でChromeだけがサポートしていたが、現在は、画像のネイティブLazy-loadもiframeのネイティブLazy-loadもウェブ標準となり、FirefoxやEdgeなどメジャーなブラウザがサポートするようになった(Safariは試験機能として有効にできる)。

iframeのネイティブLazy-loadは、つい最近ウェブ標準になったばかりだ。iframeの利用頻度は画像に比べると低いかもしれないが、それでもネイティブLazy-loadにはおおいに利用価値がありそうだ。グーグルが利点を紹介している。

グーグルによれば、iframeを遅延読み込みさせることで次のような効果が出たそうだ(数値はすべて中央値):

iframeのネイティブLazy-loadのコードを確認しておこう。

<iframe src="https://example.com" 
    loading="lazy" 
    width="600" 
    height="400"></iframe>

難しいことはなにもないはずだ。iframeタグの中にloading="lazy"を追加するだけだ。ブラウザがサポートしていれば、そのiframeが読み込むページを遅延読み込みする。ブラウザがサポートしていなければ、通常どおり読み込むだけだ。弊害は発生しない。

たとえば、YouTube動画やSpotifyプレイリストをウェブページに埋め込むコードはiframeを使っている。YouTube動画をネイティブLazy-load仕様にするには次のようにすればいい。

<iframe loading="lazy" width="560" height="315" src="https://www.youtube.com/embed/Wmd3dLj5Y1s" frameborder="0" allow="accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
※挿入場所はどこでもいい

フェイスブックのいいね!ボタンのプラグインもネイティブLazy-loadに対応した。こちらは、loading="lazy"を追加するのではなくコードをカスタマイズする。data-lazyを追加する。

<div class="fb-like"
       data-href="https://example.com/your-page.html"
       data-width=""
       data-layout="standard"
       data-action="like"
       data-size="small"
       data-share="true"
       data-lazy="true">
</div>
値にはtrueを指定する

ページの読み込み速度の改善はユーザー体験の向上につながる。画像はもちろんのことiframeにもネイティブLazy-loadをぜひ実装しよう。

★★★★★
  • すべてのWeb担当者 必見!

404ページへのアクセスで自動ブロックする仕組みがGooglebotに影響してしまう場合は
ブロックも301リダイレクトもダメ (John on Twitter) 海外情報

404ページに10回アクセスがあったら、以後のアクセスをブロックする仕組みがサイトにある。

Googlebotが存在しないページをクロールしようとすることが多く、この対象になってしまって困っている。リダイレクトするのがいいのだろうか?

こんな相談がツイッターであった。

グーグルのジョン・ミューラー氏は、もともと存在しないページへのクロールをブロックする必要はないし、リダイレクトも意味がないと回答している。

結局この質問者は、アクセスしているのがGooglebotかどうかを確認したうえで制限を回避するように動くようだ。

検索エンジンはさまざまなソースからクロール対象URLを収集するため、もともと存在しないURLへのアクセスは日常茶飯事だ。このコーナーで過去に何度も解説しているが、対策は今でも変わらず「気にせず放っておく」が一番だ。

さらに言えば、存在しないURLへのアクセスだからといってブロックしてしまうのは問題がある。ブロックしてしまったら、そのページが存在しないことを検索エンジンは認識できないからだ。

みつからなかったURLが404を返すのはウェブの仕様だ。アクセスできるはずのページが404を返すのは問題だが、存在しないページが404返すのは当然のことなのだ。

★★☆☆☆
  • SEOがんばってる人用(ふつうの人は気にしなくていい)

AMPページで測定すべき成功指標をGoogleアナリティクスで設定する方法
3つの指標が重要 (Google Developers Japan) 国内情報

AMPページの効果測定の方法をグーグルが解説した。測定すべき成功指標として次の3つを推奨している。

  • トラフィック(ユーザーが AMP ページにアクセスしているか?)
  • ユーザー エンゲージメント(ユーザーが AMP ページに滞在しているか?)
  • 収益化(AMP ページが収益につながっているか?)

Googleアナリティクスでの具体的な設定を説明しているので、AMP対応しているなら試してみるといい。

とはいえ、解説が初心者向けではなく日本語訳もこなれていないので、難解だと感じたら詳しい人に相談するのもいいだろう。情報自体は役に立つものだ。

★★★★☆
  • AMP対応しているすべてのWeb担当者 必見!
  • アクセス解析担当者に伝えましょう

大手経済誌がWebストーリーのTIPSを語る
ウィスキーとバーボンのWebストーリーを公開中 (Google Developers Japan) 国内情報

米国の大手経済誌、Forbes(フォーブス)はWebストーリーを公開している(Webストーリーは、以前「AMPストーリー」と呼ばれていたもので、複数コンテンツで作る視覚的な効果を出せるAMP機能)。

グーグルはフォーブスにインタビューしてWebストーリーに関する次のような情報を聞き出した。

  • なぜウィスキーとバーボンをテーマにしたWebストーリーを作成したのか
  • Webストーリーに最適なテーマ
  • フォーブスが工夫したデザイン要素
  • 読者はどうやってWebストーリーを見つけているか?
  • フォーブスからのアドバイス

このフォーブスの体験談は、Webストーリーをすでに公開している、あるいは公開を検討しているコンテンツ発行者には参考になるだろう。

★★★☆☆
  • Webストーリーを公開しているすべてのWeb担当者 必見!
  • Webストーリーに興味がある人用(ふつうの人は気にしなくていい)

【必見・保存版】世界トップ580万サイトをもとにウェブの現状を分析した貴重なレポート
ウェブページの10.67%には見出しタグがまったくない! (The 2019 Web Almanac) 海外情報

世界のトップ580万サイトの情報をもとにして、ウェブサイトの

  • ページコンテンツ(技術やメディア)
  • ユーザー体験(パフォーマンス・セキュリティ・アクセシビリティ・SEOなど)
  • EC
  • CMS
  • コンテンツ配信(圧縮、キャッシュ、CDNなど)

といったさまざまなデータを分析した全20章のレポート「Web Almanac(ウェブ アルマナク)」というサイトがある。100名近くの有志の協力を得てHTTP Archiveが運営しているサイトだが、日本語ページが公開されている。

たとえば、次のようなデータを提供している:

  • HTTPSを使用しているサイトは79%
  • ウェブページの10.67%には見出しタグがまったくない
  • ウェブページの40%以上が何らかのCMSプラットフォームを利用
    • WordPressはモバイルサイトの74.19%、デスクトップサイトの73.47%
  • すべてのデスクトップの0.44%とすべてのモバイルページの0.37%がService Workerを登録
    • 数値としては小さいが、時間の経過に伴い数値は急成長している
  • 20.52%のサイトでは、全ユーザー体験の少なくとも半分が大きなCLSを発生させている
※2019年のデータ。2020年版は作成中

新しい技術が常に生まれ、少し前にふつうだったことがすぐに変わってしまうのが、いまのウェブの世界だ。ウェブの現状を知って今後のプランを考えるといいだろう(そのプランを実現するための企画書に入れる役立つデータも手に入る)。

★★★★★
  • SEOがんばってる人用(ふつうの人は気にしなくていい)

海外SEO情報ブログ海外SEO情報ブログの
掲載記事からピックアップ

グーグルDiscoverとネイティブLazy-loadに関する記事をピックアップ。

テーマ別カテゴリ: 
Outbrain