我们在日常运营网站的时候,相信很多站长都会碰到这种状况,那就是经常因为改动栏目或者文件名称,导致站内出现大量的无效链接,而这种链接又是存在但是却打不开的,因此这对搜索引擎的蜘蛛爬行以及收录来说是非常不利的,因为搜索引擎蜘蛛会将这些错误页面信息返回到数据库中,当你的网站出现过多的这种死链接页面的时候则会对网站的“健康度”有很大的影响,同时也很容易被各大搜索引擎所不喜欢,所以这个时候站长就需要做个404错误页面了,不过在制作404错误页面过程中,站长还是需要注意以下几点事项才行。
1)不要在404页面放置跳转代码,以免影响搜索引擎对网站整体观感!
本人曾经做过一个试验,那就是用两个网站来检测,在404错误页面放置跳转代码是否对搜索引擎有什么影响,得到的结果却是一个没有在404错误页面放置跳转代码的网站,各大搜索引擎依旧是正常新新,正常收录,没有因为多了404错误页面有了什么;可是相反的,那个在404错误码率页面放置了跳代码的网站却是很不正常,先是网站被百度降权,导致百度收录新新网站十分的缓慢,后来则是直接不新新不收录了,从得到的这两个结果来看,在404错误页面放置跳转代码对网站来说则是一大灾害,因此要是站长不想网站被各大搜索引擎惩罚的话。那么在制作404错误页面的时候很好是不要放置跳转代码比较好!
2)在制作完404页面之后很好是禁止搜索引擎蜘蛛爬行收录!
当站长做好404错误面之后,为了避免日后影响网站,站长很好是禁止各大搜索引擎蜘蛛爬行或是收录404这个错误面,为什么要这样做呢?其实原因说白了也是非常的简单,因为此举是为了防止各大搜索引擎收录太多的重复页面,导致被各大搜索引擎厌恶,从而导致各大搜索引擎降低了网站的权重及好感度,毕竟对于一直都在宣传原创内容的各大搜索引擎来说,重复性过高的网站只会很被各大搜索引擎惩罚,严重点还有可能导致网站被K,我想各大站长也不想因此这个原因导致网站被惩罚吧!
所以,站长在制作完404错误面之后,很好是禁止各大搜索引擎蜘蛛爬行收录404这个页面,要是站长不知道如何禁止各大搜索引擎蜘蛛爬行或是收录404这个页面的话,本人在这倒可以简你,只要进入robots.txt这个文件,然后在其加入一段“Disallow: /你的404错误页面路径”这个代码就行了!
3)站长在制作完404页面之后应仔细检查一下,而不是就此完事!
站长在设置完404页面后很好是应该去检查一下,返回的状态码是否为404,如果是的话就是正确的,要是返回的状态码是200的话,那就说明有问题了,可能会有站长问,200返回状态码为什么是不正确的呢?原因则是,我们在浏览器输入一个错误的链接,没有设置个性化404页面的时候,返回的状态码肯定是404的,这就是告诉搜索引擎该链接是错误的,放弃对该链接的索引,
在设置个性化404页面之后,虽然显示出来的是个性404页面,但是浏览器上面的地址栏仍然是那个错误的链接,而不是跳到“www.xxxx.com/404.htm”,因此链接仍然是无效的,所以返回的状态码还是应该是404,而不是200,如果返回的是200的话,那么搜索引擎就会为该链接建立索引,这就会导致大量不同的无效链接指向了相同的网页内容,结果是搜索引擎对该网站的信任度大幅降低.
评论加载中...
|
Copyright@ 2011-2017 版权所有:大连仟亿科技有限公司 辽ICP备11013762-1号 google网站地图 百度网站地图 网站地图
公司地址:大连市沙河口区中山路692号辰熙星海国际2215 客服电话:0411-39943997 QQ:2088827823 42286563
法律声明:未经许可,任何模仿本站模板、转载本站内容等行为者,本站保留追究其法律责任的权利! 隐私权政策声明