web-dev-qa-db-ja.com

セマンティックWebおよび構造化データ-検索エンジンは、ページ上の最初のインデックス付きバイト数の制限を増やしますか?

Webページのペイロードは、構造化データの作成に必要なコードが追加されると増加します。これは、ページの最初の120kほどに実際のコンテンツを収めることができないことを意味します。

これについてはこれまでに議論がありましたが、もしそうなら、より多くのデータを許可するためにこの制限を増やす可能性はありますか?

3
ElHaix

これがまだ起こっていない/継続的に起こっていないと思われる理由は何ですか?
私は、ページが〜40ktotal未満に留まることが推奨されたポイントを覚えています。ページが簡単に平均して120万を超えると、最近では、そのカットオフが定期的に調整されないことを考えるのは正気ではありません。

あなたが提起している本当の「問題」は、特定の番号を公表するエンジンはおそらくないということです。とにかくあまり有用ではありません。その数字だけでは、非常に単純で特定の場合を除いて、何も伝えられないからです。そのため、大きなページは必ずしもトップヘビーでさえありません。

また、ドキュメント内のコンテンツが「初期」であるということは、過去よりもはるかに問題が少ない可能性があります(これは推測に値しますが、もっともらしい)。ドキュメントの主な内容が何であるかを判断する方法(Instapaperがどのように機能するかを考える)があり、Googleのリソースでここに適用するのは簡単です。

より有用で興味深い数は、ページローディング時間であり、これは間違いなくisランキングファクターとして知られている =。繰り返しますが、非常に小さなJavascriptでも、バカなことをするとページの読み込みが遅くなる可能性があることに注意してください。

4
Su'