Google のインデックス登録システムは、CSS と JavaScript を有効にすることで一般的な最新のブラウザと同じように
ウェブページをレンダリングしていると先日お伝えしました。本日、Google ではこの内容を踏まえ、
技術に関するウェブマスター向けガイドラインを一部更新いたします。
新しいガイドラインでは、最適なレンダリングおよびインデックス登録のため、ページ内で使用している JavaScript、CSS、画像ファイルに Googlebot がアクセスできるようにする必要がある、としています。サイトの robots.txt を使って Javascript や CSS ファイルのクロールを拒否するように設定すると、Google のアルゴリズムによるコンテンツのレンダリングとインデックス登録を妨げ、最適な結果が得られなくなる可能性があります。
インデックス登録の最適化に関するおすすめの方法を更新
Google のウェブマスター向けガイドラインに記載されていたように、これまで Google のインデックス登録システムは、テキスト ベースの古いブラウザ(Lynx など)にたとえられてきました。しかし、ページのレンダリングに基づいてインデックス登録を行うようになったいま、もはや Google のインデックス登録システムをテキスト ベースのブラウザと同じように考えるのは正しくありません。より正確には、現在使われているウェブ ブラウザに例えるほうが適切です。このような新しい観点からの注意事項は以下のとおりです。
- 現在使われているブラウザと同じように、Google のレンダリング エンジンも、あるページ内で使用される技術のすべてに対応しているとは限りません。プログレッシブ エンハンスメントという考えに基づいてページをデザインすることにより、ページ内で使われている技術がサポートされていないブラウザやシステムに対しても、基本的なコンテンツと機能が提供できるようになります。
- すばやくページがレンダリングできれば、ユーザーがあなたのコンテンツをスムーズに閲覧できるだけではなく、ページのインデックス登録をより効率的に行うことができます。特に、ページのパフォーマンスを最適化(英語)するためのおすすめの方法をご紹介いたします。
- 必ず、JavaScript や CSS ファイルを Googlebot に配信する際に生じる追加の負荷をサーバーが処理できるようにします。
テストとトラブルシューティング
レンダリングベースのインデックス登録を始めるに伴い、Google ではウェブマスター ツールの
Fetch as Google 機能も更新しました。この機能により、ウェブマスターの皆様は Google のシステムが、あるページをどのようにレンダリングしているかを把握できるようになります。また、インデックス登録に関する多くの問題(robots.txt による不適切な制限や Googlebot が対応できないリダイレクトなど)を特定することもできます。
最後に、ご不明な点やご質問がありましたら、
ウェブマスター ヘルプ フォーラムまでお寄せください。