大家有没有发现很多时候我们在robots文件中添加了禁止抓取的内容,但是还是被正常的收录了,这个就比较气人了有的人是不管怎么折腾就是不收录,有的人禁止抓取的内容尽然还在收录,没有对比就没有伤害!
那么为什么明明已经设正确设置的robots的屏蔽规则,但是就是不生效导致不该收录的内容被收录了呢?
robots更新周期
造成这一问题主要的原因,潘某人SEO认为主要还是在于robots的更新周期,搜索引擎每次抓取网站的内容的时候并不会每次都抓取下robots文件,因此很多时候站点更新了robots文件的规则了,但是搜索引擎并没有抓取最新的robots规则,还是会按照之前的规则进行抓取。
如何避免
首先网站搭建的时候就应该做好结构的规划,在网站上线的时候就应该完成robots文件的配置,避免后期去调整,是最有效的方法。但是在实际情况中很少有站点可以做到这一点,那么在robots文件规则发生变化的时候,要避免不该收录的内容被继续收录的问题,就需要及时通知搜索引擎站点更新了robots文件。
以百度搜索引擎为例子,百度搜索资源平台为站长们提供了相关的robots更新工具,在robots文件更新之后,可以前往这个工具进行更新,从而加快搜索引擎发现robots更新周期,如下图所示。
已收录内容如何处理
即使我们已经进行了robots规则更新,但是已经收录的内容,虽然在robots文件中进行了屏蔽,但是这些已收录的内容往往需要很长一段时间才会消失,甚至有可能长期不消失。
其实当我们最新版本的robots文件生效之后,新收录的内容会规则当前规则进行;但是已经收录的内容并不会马上消失,而是要等待之后的再次抓取的时候才会生效。然而不同的站点的已收录内容的抓取周期上的差距会很大,即使是同一个站点,不同内容的抓取更新周期也不一样。
如何加快已收录内容的删除
有时候一些已经被收录的内容,需要快速的让搜索引擎删除收录,仅仅靠robots文件进行屏蔽是做不到的。潘某人SEO在此分享一个简单高效的方法,那就是死链接提交。将误收录的页面状态码设为404,但如果页面仅仅只是不想被搜索引擎收录,但是还是允许被用户访问。
那么这个时候就不可以简单粗暴使用404页面,这个时候就可以通过后端根据客户端的user-agent判断当前访问如果是属于搜索引擎则返回404页面,其它的访问者则正常的访问。然后在搜索引擎提交死链,会比你单纯的等待robots文件生效的效果高很多。
-
robots文件作用对于SEO优化不可忽视给i,可以有效提高网站内容的质量减少重复收录,保护隐私数据不被抓取!
-
robots文件里该不该加上sitemap地址,有种说法就是搜索引擎抓取一个网站首先会抓取robots文件,这样把sitemap地址写在robots文件里,这样搜索引擎可以地址直接的对网站地图进行抓取,可以加快链接收录的速度,真相并不是这样
-
今天我们来了解下什么是蜘蛛黑洞,黑洞大家应该有一定的了解,属于一种高质量高引力天体,包括光任何的物体都无法逃逸。蜘蛛黑洞既是蜘蛛进入之后无法再出来,对正常的抓取工作产生负面影响。
-
robots文件使用来申明网站哪些内容允许搜索引擎抓取,哪些内容禁止搜索引抓取的;正确的设置robots可以提升搜索引擎对网站的抓取效率,同时避免不必要的内容被抓取展现。但在实际运用中很多站点没有正确的使用robots导致了一些问题,今天潘某人SEO就为大家揭秘下robots的注意点。
-
搜索引擎的蜘蛛黑洞指的是搜索引擎蜘蛛在抓取站点内容的时候出现了大量雷同内容的url,导致搜索引擎蜘蛛一直被困在无限的循环中,如黑洞一般。直接的结果就会导致消耗大量的抓取资源。
-
如何屏蔽某些页面的抓取,但是让页面中链接正常抓取,对于这种情况,使用meta标签来进行屏蔽页面的抓取,可以变得更加的有效。相比常用的robots文件屏蔽,或者nofollow标签屏蔽的实用性更加的广。
-
Simhash算法又被SEO站长们成为关键词匹配算法,当用户搜索一个关键词的时候,会出现相关的网站进行展现,但是前些年有个别站长发现关键词密度越高排名越好,这是搜索引擎前期的漏洞,Simhash算法(也成分词匹配算法)对关键词堆砌起到了决定性的打击,
-
大家觉得SEO优化的核心重点是什么呢?关键词排名展现,如果您是这么认为的那请看完这篇文章,你会有不同的感悟。SEO的核心并不是在于关键词的排名,关键的排名只是途径。
-
百度快照时间更新和网站的权重是一个什么样的关系呢?很多站点一直的对于快照和权重的关系存在着误解。
-
SEO(搜索引擎优化)与程序语言、框架的选择密切相关。不同技术栈直接影响网站的渲染方式、加载速度及内容可读性,进而影响搜索引擎排名。常见的网站编程语言及框架,哪种更适合SEO优化。
-
SEO是一项惊心动魄的工作,你永远不知道第二天迎接你的是惊喜还是惊吓。尤其是当你的网站突然“消失”在搜索引擎中,流量断崖式下跌时,那种焦虑和无助感几乎每个站长都曾经历过。今天潘某人SEO就来聊一个让无数站长夜不能寐的话题——网站被K。到底什么是网站被K?有哪些典型症状?如何判断自己是否被K?被K后该如何处理?又该如何预防?
-
SEO优化还值得做吗?为什么要继续坚持做SEO优化和为了SEO没效果这两个关键点分析一下。关键点从来不是SEO没有流量,而是你获取不到一个好的效果。
-
SEO删除旧内容,对排名有影响吗?SEO人员开始研究“以旧换新”或者直接删除旧内容的策略。前期页面排名一定是会有影响,可能下降,也可能上升,但从长期的角度来衡量,
-
百度不收录网站怎么办,不收录对于SEO人员来说是一个致命一击。我们如何才能保证网站出现不收录的问题,当网站出现收录问题的时候我们又应该如何应对呢?
-
对小型站点使用独立服务器的成本会有点高,尤其是网站前期流量不大的时候,使用虚拟服务器就足够应付了。同一个服务器部署很多站点,是否回被判断为群站被惩罚,导致SEO优化效果不佳呢?
-
合理的配置服务器防火墙的出入站规则,可以有效的屏蔽恶意访问,从而提升网站的安全性防止网站被黑,望着那别攻击很有可能优化规则前功尽弃。
-
如果你错误的选择dns服务器,那么对于站点的SEO优化是致命的,轻则影响SEO效果,严重的甚至站点会被搜索引擎所屏蔽。因此重视dns服务器,正确的选择对于seo优化是必要的也是重要的。
-
对于seo们清楚掌握主流搜索引擎的爬虫名称十分的关键,掌握各大搜索引擎蜘蛛爬虫,对我们开展网站SEO优化具有挺大作用;作者搜集了各大搜索引擎的蜘蛛爬虫UA,便于你需要时查看。