盐城信息港
金融
当前位置:首页 > 金融

網站的重要目錄對百度進行了封禁原因分析

发布时间:2019-11-09 08:59:21 编辑:笔名

很多朋友近可能发现,百度站长平台无缘无故提示站的重要目录对百度进行了封禁

如图:

很多新手乍一看到这样一个官方提醒,就开始着急,是不是站什么地方出了问题当然大家首先想到的是站的t文件是否真的被恶意修改了

一些平时小心翼翼的新手站长可能就会在群里,或者SEO论坛里各种求助,希望能够有人解决这个问题,而给予答复一般都是说是去检查t文件,但是没有检查出个所以然,然后就听信某些人把t文件删掉了!(这是本人在某群里亲眼所见,当时我就呵呵了)

事实+

在2014年年初左右,其实有很多站长都收到了这样的百度提醒,如上图,我的博客在两个月里被提醒了两次既然这么多站都有提示robots文件有问题,那么一定是百度官方算法的调整而引起的波动,而不是这么多站robots文件同时出现了问题

其实百度算法在去年年底,进行了不少更新,百度站长平台也给予了相应提示,站长平台出现这样的提醒大家也要保持淡定,我们通常将这样的现象称之为百度抽风

其实作为站长应该了解自己的站,而不是别人说什么就是什么,就拿robots文件来说,既然站robots文件本身并没有问题,而且百度官方也没有通知robots算法的更新,那么我们就应该对此情况有个大体的认识,而不是盲目的去改这里改那里,就算要改,那也要找到问题所在

解决方案

既然这种情况是属于百度算法更新而引起的误判,那么我们也不必太在意,只要我们的robots文件确实没有封禁百度即可!

如果非要干涉下,那么我们可以手动更新下robots文件,让百度重新索引我们的robots

方法:打开百度站长平台找到站分析,如图输入址,点击检测

我们可以看到我们的robots文件内容与百度更新时间,一般百度有了封禁提示后,百度更新时间都是无记录的,其实这也是没有关系的,在这里直接点击更新,过几天即可在这里看到百度更新时间

科普:

其实这里的robots更新功能根本目的是:当我们修改了robots文件后,希望百度蜘蛛能够及时了解站路径索引的变化,就使用这里的更新功能,当robots文件没有发生变化时,更不更新是无所谓的

新手告诫:

robots文件是站SEO工作中的很重要的一个方面,一个站应当要适当的屏蔽不需要百度蜘蛛爬取的路径,而不是为了能够让蜘蛛全方位的爬取而删掉robots文件,这样做是很明显不利于SEO的

原创文章来源于合肥seo:,转载请注明,万分感谢!

生物谷药业
生物谷药业
生物谷
友情链接