robots文件disallow all agencies解决方法

我们有一个客户今天反馈developer在更新数据库的时候,将liuxue网站的robots.txt文件换成了disallow all agencies,导致任何搜索引擎都无法正常爬取内容,进而影响关键字排名和流量都下跌。

这种情况对于甲方来很少见,但对我们来说会经常碰到,去年的10月份我们同样遇到一起。哪遇到robots文件disallow all agencies怎么办?

  1. 首先,也是最重要的是稳住心态,慌则乱;
  2. 其次,将robost.txt文件中内容还原,并周每天在百度站长工具后台提交主要栏目的链接(或者主要的排名页链接);
  3. 再次,重新上传sitemap.xml文件,其中的日期全部填写最新;
  4. 最后,等。一般会在第2周恢复约60%的词排名,并在后续2个月内逐步恢复屏蔽百度蜘蛛前的排名。当然,如果不同的网站恢复时间可能会略有差异。

如果以上方法,仍然没有效果,可以咨询我们提供搜索引擎优化解决方案。

 

相关推荐