web-dev-qa-db-ja.com

「robots.txtは重要なページをブロックしていますか?」静的フォルダに関するSearch Console

これは私のrobots.txtファイルの内容です:

User-agent: *
Disallow: /static/*
Disallow: /templates/*
Disallow: /translations/*
Sitemap: https://xx.xxx.com/sitemap.xml

ただし、Google Search Consoleでこのエラーが発生する理由はわかりません。

Is robots.txt blocking important pages? Some important page is blocked by robots.txt.

たぶん静的フォルダが原因ですか?質問は、ロボットから静的フォルダを削除する必要がありますか?

https://example.com/static/css/A.landing.css.pagespeed.cf.ScWDdlA8KO.css Style Sheet Blocked High robots.txt Tester

2
anvd

GooglebotがCSSにアクセスするのをブロックしないでください。

2
grg