web-dev-qa-db-ja.com

GoogleはJavaScript文字列を相対パスとして追跡します-404エラーを生成します

これは私の最初の質問ですので、ルールに違反しないことを願っていますが、問題があります。

オンライン分析にAdobe Site Catalystを使用するサイトがあります。スイートはJavaScriptを介したタグ付けをサポートし、実装されると、http://www.mydomain.comに配置される次のようになります。

<script language="JavaScript" type="text/javascript">
s.channel="/my-tracking-tag/"
</script>`

問題は、GoogleがこのJavaScriptを読み取り、s.channel文字列をWebサイト上の相対位置として解釈し、それをクロールしていることです。次に、Googleウェブマスターツールで、URL http://www.mydomain.com/my-tracking-tag/が存在せず、JavaScriptタグコードが存在するURLによってリンクされたという404エラーが表示されます。

この動作を回避する方法はありますか? robots.txtファイルに404エラーのあるURLを追加することを考えましたが、トラッキングキャンペーンは絶えず更新され、絶えず更新するタグでテキストファイルを更新するのは面倒です。また、s.channelの文字列を's.channel= "/" + "my-tracking-tag" + "/"のようなものとして構造化することについても考えていますが、それがトリックによるものかどうかはわかりません。

5
user2587704

私もこれに遭遇しました。 Googleが実際にリンクすることのないものについて404エラーを報告しているのは面倒ですが、JavaScriptコードでリンクを見つけるヒューリスティックにのみ基づいています。

これらの報告されたエラーは、対処する必要があるよりも実際の問題を示していないようです。 GoogleのJohn MuellerがGoogle+に投稿

  1. 無効なURLの404エラーは、サイトのインデックス作成やランキングに一切影響を与えません。 1億または1千万であっても、サイトのランキングに悪影響を与えることはありません。 http://googlewebmastercentral.blogspot.ch/2011/05/do-404s-hurt-my-site.html
  2. 場合によっては、クロールエラーは、WebサイトまたはCMS内の正当な構造上の問題に起因する場合があります。どうやって言うの?クロールエラーの原因を再確認してください。サイトの壊れたリンクがページの静的HTMLにある場合は、常に修正する価値があります。 (ありがとう マティーノモスナ
  3. 「明らかに壊れている」ファンキーなURLについてはどうでしょうか?あなたのサイトのような当社のアルゴリズムは、たとえばJavaScriptで新しいURLを見つけようとすることで、より素晴らしいコンテンツを見つけようとします。これらの「URL」を試して404を見つけたら、それは素晴らしいことであり、期待されています。重要なものを見逃したくないだけです(ここに過剰に添付されたGooglebotミームを挿入してください)。 http://support.google.com/webmasters/bin/answer.py?answer=1154698
  4. ウェブマスターツールでクロールエラーを修正する必要はありません。 「修正済みとしてマークする」機能は、進捗状況を追跡したい場合にのみ役立ちます。 Googleのウェブ検索パイプラインでは何も変わりませんので、不要な場合は無視してください。 http://support.google.com/webmasters/bin/answer.py?answer=24674
  5. ウェブマスターツールのクロールエラーは、いくつかの要因に基づいて優先度順にリストされています。クロールエラーの最初のページが明らかに無関係である場合、他のページで重要なクロールエラーを見つけることはおそらくないでしょう。 http://googlewebmastercentral.blogspot.ch/2012/03/crawl-errors-next-generation.html
  6. ウェブサイトのクロールエラーを「修正」する必要はありません。 404を見つけることは正常であり、健全で適切に構成されたWebサイトに期待されます。同等の新しいURLがある場合は、そのURLにリダイレクトすることをお勧めします。それ以外の場合は、偽のコンテンツを作成したり、ホームページにリダイレクトしたり、robots.txtでこれらのURLを禁止したりしないでください。これらのすべてにより、サイトの構造を認識して適切に処理することが難しくなります。これらを「ソフト404」エラーと呼びます。 http://support.google.com/webmasters/bin/answer.py?answer=181708
  7. 明らかに-これらのクロールエラーが、関心のあるURL、おそらくサイトマップファイルのURLで表示されている場合は、すぐに対処する必要があります。 Googlebotが重要なURLをクロールできない場合、検索結果から削除され、ユーザーもそれらにアクセスできない可能性があります。
7

この影響を受けるのはクロールの予算だけなので、数百万のURLでない限り心配することはありません

2