web-dev-qa-db-ja.com

構造化されたデータを検索エンジンのボットに表示するのは人間ではなくブラックハットと見なされますか?

JSON-LD構造化データが検索エンジンにのみ表示される場合、ブラックハットと見なされますか?コンテンツはユーザーのWebサイトに引き続き存在しますが、訪問者がボットであることを検出した場合にのみ構造化データとしてマークアップされます。このためにペナルティを科せられますか?

これは、サイトをスクレイプしようとする人々に対する保護の層を追加することです。

(質問のタイトルを変更してポイントを繰り返します。あるタイプのコンテンツを検索エンジンに表示し、別のタイプのコンテンツを人間に表示することが許される場合があります。たとえば、Flashを使用するサイトです。構造化データには例外があります。)

データの例

次に、ボットが読み取ることになっているソースコード内にある構造化データの例を示します。この同じコンテンツは、人間が読むことができるように、目に見える形式でページ上に存在する必要があります。

{
 "@context": "http://schema.org",
"@type": "Person",
"address": {
"@type": "PostalAddress",
"addressLocality": "Good city",
"addressRegion": "Great State",
"postalCode": "47918",
"streetAddress": "701 N Nice St"
},
"name": "Firstname LastName",
"telephone": "765-764-1111" 
}
1
Robert Sinclair

クローキングとは、ユーザーに表示するコンテンツとは異なるコンテンツを検索エンジンに表示することです。

Googleは、自身のネットワークの外部からWebページをテストします。 googlebotとユーザーの表示内容に違いがある場合、Googleはより多くのページの違いをスポットチェックします。十分な数のページに十分な有意差があるように見える場合、ペナルティが適用されます。

それはそれと同じくらい簡単です。

あなたの質問に答えるために、コンテンツの変更が十分に重要である場合、それはクローキングである可能性があります。ユーザーとは異なるコンテンツを検索エンジンに表示しないでください。すべてを単純にしてください。

[更新]

あなたが具体的に求めていることの例に感謝します。

クローキングは私が以前に定義したものですが、特にデスクトップ対モバイルの観点から、多少の耐性があります。初期のクローキングは、クローラーを介して1回、別のネットワークからクローラーの外部に頻繁に1回、ページを2回キャプチャし、各ページのチェックサムを比較することで簡単に判断できました。ただし、最近では、デスクトップとモバイルではそれほど単純ではありません。

Googleは一連のページを取得し、テンプレートコンテンツとページコンテンツをかなり簡単に決定できることを知っています。最近のWebの状況に照らして、ページのコンテンツ部分と、場合によってはページのテンプレート部分を別々に比較するために、ある程度の分析が行われると仮定する必要があります。最近のクローキングに関するページの分析方法は謎のままです。ただし、場合によっては、ページのコンテンツ以外の部分にわずかな違いがあると想定するのが妥当です。

次の質問は、クローラーのみにJSONデータを提示するのが賢明か?

検索エンジン、特にGoogleはBingがかなり寛容であると思われるため、JSONの省略を欺くものと見なす場合、誰も具体的に言うことはできません。たとえ小さくて合理的なことのように思えても、リスクとして認識される必要があります。推奨事項として、問題を回避するために、ユーザーとクローラーの両方にJSONデータを含めることをお勧めします。どうして?少なくともGoogleの目には、クローキングは小さな違反ではないからです。クローキングが検出された場合、Googleはサイトをスポットチェックしてからペナルティを適用します。これは自動化されたプロセスです。ペナルティが適用されると、ペナルティを削除するのにかなり時間がかかる可能性があり、ペナルティが解除された後でも、検索に影響するサイトの信頼メトリックがノックされる可能性があります。

1
closetnoc