SEM Vol.25|Webマスター向けTips | Discover Bing

Web マスター向け Tips

Vol.25 あなたのサイトのランキングに不満はありませんか?パート5

あなたのサイトレビューについての5回連載の最後です。前回のブログでは、サイトの見直しをする理由( パート1 )、最初に見るべきページレベルの問題( パート2 )、サイト全般の問題に関する議論( パート3パート4 )でした。この最後のブログでは、サイトレビューで調べるべき設計上の問題をみていきます。

重複コンテンツの難問

パート4 で議論した非正規化に起因し、重複してインデックスされたコンテンツ以外にも、セキュアプロトコルのHTTPSを使っているサイトで、HTTPSコンテンツがメインのHTTPコンテンツから切り離して整理されていない場合、インデックス上では重複コンテンツ(同じページのHTTPとHTTPSバージョン)となります。

検索エンジンは、重複コンテンツをインデックス上の貴重なスペースの無駄と見なしますので、発見すると協調して重複コンテンツを排除します。問題は、あなたがインデックスして欲しいと望むコンテンツの特定のバージョンが、インデックスされていない可能性があるということです(これが、正規化が有用である理由です)。特定のディレクトリにHTTPSを置くようにサイトを設計し(セキュアではないコンテンツをルートに置いてスタートするよりも)、そのディレクトリのコンテンツを検索ボットにインデックスさせない技術を採用することは(robots.txt fileを使うことについては、後ほど述べます)、この戦略上、役に立つでしょう。

サイトの見直し作業:どのコンテンツが検索インデックスにあるかを確認し、重複コンテンツがあれば取り除く戦略を実施します。あなたのサイトが HTTPSコンテンツを使っている場合、それをあなたのウェブサーバー上の場所に隔離し、クローラーのアクセスをブロックします。

robots.txtでインデックスをブロック

クロールを許可しないファイルやディレクトリを検索ボットに指示する際、すべてのウェブマスターが robots.txt ファイルを使うわけではありません。しかしそれを使うならば、適切な形式で構成することが非常に重要です。不満を抱いた以前のコンサルタントや、無能なウェブマスターが作ったrobots.txtファイルで、すべての検索ボットからサイトのクロールをブロックし、検索エンジンのインデックスからすべての参照を殺してしまっているという話は山ほどあります。

robots.txtファイルでは、ボットが具体的なファイル、ディレクトリ、あるいはサイト全体にアクセスすることをブロックするためにロボット排除プロトコル(REP)で書かれたテキストベースの命令を使います。それによって、ウェブ上の様々な検索エンジンボットの中の一つだけ、複数、全部のクロールをブロック、あるいはブロックしないように指示することができます。また、ボットのクロール頻度を設定することもできます(デフォルトのクロール頻度があなたのサーバーにとって多過ぎる場合)。プライベートなデータ、たとえばスクリプト、ユーザー情報、テストデータなどや、まだリリースされていないページに、ボットがアクセスすることをブロックすることは、robots.txtファイルを使って簡単に管理できます。しかし、robots.txtの使用は、セキュリティ対策ではありません。robots.txtファイル自体は常にウェブサイトのルートディレクトリに置かれており、誰でもアクセスできますので、そのリストでインデッックスをブロックしていても当事者からは(興味があれば?)簡単に見られます。

また、REP命令は、ウェブページのコードのトップの<meta>タグや、あらゆるウェブサーバーのHTTP Headerで作れることにも注意が必要です。ウェブページのコンテンツが期待どおりにクロールされていない場合は、思いがけない排除命令がないかチェックします。

テキストエディターでrobots.txtを作成したり、編集するときは、あるボットのためだけにカスタマイズされた命令に対する、以下の共通の習性に注意してください。すべてのボットに適用される一般的な命令のセクションに加え、特定の検索ボットのためのカスタムセクションを追加する場合、そのボットは一般的なセクションにある命令を無視する可能性があります。そのため、ボットに従って欲しい一般的な命令はすべて、カスタム命令に繰り返して追加することを忘れないでください。

あなたのサイト用のrobots.txt ファイルを作ったら、それを検証してください。 Bingの Robots.txt Validation Tool が利用できます。ファイルが検証できたら、ウェブサイトのルートディレクトリにアップロードします。常に検索ボットはサイトをクロールする前にルートディレクトリでrobots.txtと名付けられたファイルを探します。それがそこにあれば、REPに準拠したボットが自動的にそれを読み、そこに含まれる命令に従います。

robots.txt ファイルに許可されているコンテンツの適切な形式と構文について、さらに知るためには、 ボットが「ロスト イン スペース(迷子)」にならないため のブログをご覧ください。サイトのページに、思いがけずrobots.txtでブロックされているページがないかどうかを確認するためには Bing Webmaster Tools でクローラーの詳細情報をチェックしてください。

サイトの見直し作業: あなたのサイトがrobots.txtファイルを導入しているかどうかをチェックします。もしそうであれば、あなたがブロックして欲しいものだけをブロックする命令になっているかどうかを確認してください。特定のボットを対象とした命令が1つ以上ある場合は、必ず一般的な命令のすべてがそこに含まれているようにします。そして、ファイルが有効になっていることを確認します。また、ウェブページの<meta>タグや、HTTP HeaderのREPコマンドの有効性をチェックして見直します。

Sitemapでサイトの実態を明らかにしよう

robots.txtが、検索ボットにクロールしてはいけないものを伝えるのに対して、Sitemapは逆にあなたのサイトでインデックスして欲しい最も重要な部分を特定します。よく練られたSitemapがあれば、サイトがより効果的にクロールされますので、インデックスされたコンテンツの検索ランクの最適化に役立ちます。

しかし、サイトの全ページのURLを並べて、Sitemapを無駄にする必要はありません。インデックスして欲しい重要なコンテンツページだけを含みましょう。そして、時間と共に既存のコンテンツページを更新したり、新しいコンテンツページを追加しながら、Sitemapも更新し、ボットが最新かつ最旬のコンテンツを参照できるようにします。

robots.txtファイルと違い、検索ボットは自動的にSitemapファイルを見つけたり、使ったりしません。Sitemap作成の努力を最大限に活かすためには、Sitemapを直接、様々な検索エンジンに送信する必要があります。それが受け取られると、あなたのサイトにアクセスしたときに探すべきファイルをボットが知るようになります。

Sitemapには、XMLタグをベースに標準化された構造があり、最大5万のURLリストを収容することができます。たくさんの特定すべきコンテンツページを持つ大規模サイトに対しても、BingはSitemapインデックスファイルの使用に対応していますので、ウェブマスターは最大5万の標準Sitemapファイルのインデックスを示すことができます。Sitemapの構造、コードの構文、送信方法に関する情報は、 Sitemap でウェブの宝物を発掘 の投稿をご覧ください。

BingにSitemapを送信する前に、あなたのSitemapファイルで使われているURLの有効性をチェックしてください。Sitemap内の壊れたリンクによるエラーに対し、検索エンジンの許容度は非常に低いのが普通です。たくさんの壊れたURLを見つけた場合、ボットはそのSitemapファイルのデータを破棄します。

サイトの見直し作業:Sitemap戦略を見直します。コンテンツをコンスタントに刷新したり、更新しているならば、Sitemapも定期的に刷新するようにしましょう。Sitemapに使われているURLの有効性を確認してください。最初のSitemapは必ず検索エンジンに送信し、検索エンジンがウェブサイトにアクセスしたとき、ディレクトリ構成の中のどのファイルを見れば良いかを知らせます。

ページの読み込み時間

検索エンジンがウェブサイトの価値を測定する重要なSEO要素のひとつに、ページの読み込み時間があります。膨大なページを持つサイトをホストしているサーバー(たとえば、高解像度の画像を持つコンテンツが多すぎるサイト)や、日常的なトラフィックに対する帯域が狭すぎるサーバー、常に最大キャパシティで稼働しているサーバーは断続的に使えなくなりますし、対象マーケットから物理的に遠かったり、時間のかかりすぎるルーターでホップが常に阻害されていると、これらの問題の結果としてランキングが低くなります。

あなたのサイトを素早く簡単に移動できないと、ボットは少ないページしかクロールしませんし、問題が深刻であれば、クロールすること自体を止めてしまします。もちろん、これはどれだけのページがインデックスされるか、どれくらい頻繁にクロールされるかに影響し、ページの読み込み時間が極端に長いときが頻繁にあるとボットが判断すると、インデックス化されるページのランキングに悪影響を及ぼします。もちろん、ページの読み込みが遅いと、そのサイトにアクセスするお客様にも影響を及ぼしますので、これも問題視される理由です。だからこそBingは、ランク付けに際して、そのようなエクスペリエンスを深刻に捉えているのです。

大規模サイトがページの読み込み時間を短縮するために使えるソリューションのひとつとして、サイトでHTTP圧縮を可能にするということがあります。ウェブサイトでのこの技術の使い方に関する詳細は、 Optimizing your very large site for search - Part 2 の記事をご覧ください。あなたのウェブサーバーがこのサービスに対応しているかどうかをテストするために、Bing HTTP Compression Test Tool を利用してください。

サイトの見直し作業:IT部門あるいはホストプロバイダーと協力してページの読み込み時間をテストしましょう。何日もかけ、一日の様々な時間帯で実施します。問題が現れたら、時間や場所に基づいて応答時間が速いときのパターンを見つけ、ボトルネックを示す手助けとします。可能であれば HTTP 圧縮を使います。

ジオロケーション(地理的な位置)がすべて

サーバーの場所についてですが、あなたのサーバーはターゲットとするマーケットの地域に、物理的に置かれていますか? たとえば、米国のユーザーを対象としたサーバーを別の大陸に置いていれば、ページ読み込み時間の遅れの問題だけでなく、ランキングの問題も発生します。検索エンジンは、ホストサーバーのIPアドレスを、対象ユーザーの適切性に関する要素として扱います。もしあなたのウェブサイトのIPアドレスが、対象マーケットの地域外にあれば、そのユーザーに対するウェブサイトの適切性に影響を及ぼし、その結果、他の要件がすべて同じだとしても、マーケット内に位置するライバルに比べてランキング的に不利になります。 トップレベルのドメイン(TLD) も同じ理由から適切性の要素となり得ます。 .comは一般的なTLDで、米国マーケットでは最も一般的に使われていますが(もちろん例外もたくさんありますが)、国別コードをベースにしたTLDはその国のユーザーに関連付けられています。ウェブサイトを、対象とするユーザーの外部のTLDにおくことは、適切性の観点から、対象ユーザーのランキングにネガティブな影響を及ぼします。

サイトが意図するマーケットへ適切に関連付けられるようにするためのひとつの方法は、住所をテキストベースでホームページのコンテンツに加えることです(対象マーケットの現地に住所があると仮定します)。

サイトの見直し作業:ウェブサーバーのサイトのホストロケーションとTLDが、対象マーケットに基づいているかを見直します。必要であれば、地域のマーケットの適切性を高めるために、コンテンツに物理的な場所情報を追加します。

サイトの見直しの後の作業

サイトの見直しが完了したら、作業のまとめに入ります。あなたのサイトの問題を解決するための変更を実施します。もしあなたのサイトが、多くの組織のようなら、いつ(あるいはどれくらい)までに最適化の作業を終了できるかによって利用できるリソースの問題が生じます。基本は、実行計画を作り、作業項目に優先順位を付け、それを最後までやり遂げることです。実施されなければ、最高のプランも価値がありません。

実行プランの一部として、サイトの状況やパフォーマンスを定期的にモニターする努力を忘れないでください。検索エンジン会社が提供している様々なウェブマスターツールセットを使いたいと思うでしょう。また、最適化のために行った変更が、ページのインデクス化率、サイトのランキング、検索エンジン結果ページ(SERP)からのクリックスルー率、コンバージョン率へどのように影響したかを、最適化作業の前の分析指標と見比べ、努力の成果の確認を始めましょう。

もう一度やってみよう

そして、あなたの最適化されたサイトの設計やコンテンツを、検索エンジンボットが探すのを待った後、検索エンジンのコマンドラインとウェブ分析の両方で、再び最初( パート1 で見出したこと)からチェックを繰り返すことを計画しましょう。進歩を確かめ、優先事項に基づいて引き続き変更を行います。

そして一定の時間内に他のサイト見直しを行うことを計画します。結局、SEOは一度きりのことではないということです。時間と労力を要する継続的なプロセスです。ウェブが静止していないのと同じで(あなたのウェブサイトもそうであって欲しい!)、ウェブの世界は常にあなたの周りで動いています。あなたのウェブサイトが競合、お客様、コンバージョンのゴールに遅れないでついていけるように努力する必要があります。

まとめです

サイトの見直し連載の第5回では、サイトの見直しで検討すべきたくさんの項目を網羅しました。検索エンジンボットの視点から(そして、潜在顧客の視点から)サイトを見て、改善点を見極め、実行することで、ユーザーと検索エンジンがあなたの周りに集まってくるようになることは間違いありません。

究極的には、エンドユーザーにとってメリットのあるサイトを開発することが、良いランキングを得るための最高のゴールなのです。ユーザーのために優れたコンテンツを作って公開することは、常に非常に重要です。しかしながら、技術的に正当で、設定ミスやマルウェアもなく、論理的に構成されていて、適切で正当なリンクを持つサイトであったとしても、提供しているコンテンツが他者よりも抜きん出るには長い道のりが必要です。

ご愛読ありがとうございます。これからもブログは続きます!

-- Rick DeJarnette, Bing Webmaster Center