【爱否SEO】SEO视频教程-SEO优化教程-SEO教程自学网:306090669(QQ)
4008883171

【爱否SEO】 > SEO技术 > seo优化技术 >

影响网站收录之:利用robots.txt 禁止不想被收录的

编辑:【爱否SEO】发布时间: 2017-12-12
影响网站收录之:利用robots.txt 禁止不想被收录的url robots.txt 文件位于您网站的根目录下,用于表明您不希望搜索引擎抓取工具访问您网站上的哪些内容。此文件使用的是 Robots 排除标准,该标准是一项协议,其中含有一小组命令,用于表明哪些类型的网页抓取工具(比如移动版抓取工具与桌面版抓取工具...

影响网站收录之:利用robots.txt 禁止不想被收录的url

t010cb9f85c9fa23059.png
robots.txt 文件位于您网站的根目录下,用于表明您不希望搜索引擎抓取工具访问您网站上的哪些内容。此文件使用的是 Robots 排除标准,该标准是一项协议,其中含有一小组命令,用于表明哪些类型的网页抓取工具(比如移动版抓取工具与桌面版抓取工具)可以访问您网站的哪些部分。

什么样的URL需要robots.txt 禁止搜索引擎蜘蛛抓取呢?
1.同时存在动态和静态URL
通常情况下很多网站都会对URL进行静态化,但是很多时候在网站的运营过程中,往往导致动态URL也被抓取了,比如营销部门不小心用动态URL来推广,比如产品部门不小心也用了动态URL,这个时候就会导致两个不一样的URL对应相同的内容,这对搜索引擎来讲是不友好的,也会导致权重的分散,或者导致搜索引擎抓取的页面不是站长需要的,这时候就需要用robots.txt来屏蔽动态的URL了。
2.有些内容我们不需要搜索引擎进行抓取
大家都知道淘宝不希望被百度抓取,淘宝认为他的商品页面最具价值,不希望百度收录之后导致用户搜索商品到来百度搜索,这样对淘宝来讲是不利益的,所以淘宝就屏蔽了百度的抓取,自然淘宝也少了很多流量。
我们有些会员信息,网站程序URL等都不希望被搜索引擎抓取,那么也可以用robots.txt进行屏蔽。
利用robots.txt 禁止不想被收录的url的好处:
1.重复的URL被屏蔽之后,有利于权重的积累
2.屏蔽一些无效的URL能提高搜索引擎的抓取效率,因为搜索引擎到网站的时间是固定的,那么如果有很多无效的URL,对于大型网站来讲,比如几千万级别的,搜索引擎花了大量的时间处理无效的URL,自然对有效的URL处理的时间就会减少,自然就会导致收录有问题。
robots.txt的撰写规则:
robots.txt文件是一个文本文件,使用任何一个常见的文本编辑器,比如Windows系统自带的Notepad,就可以创建和编辑它[2]。robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。

当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。
站内导航
 
QQ在线咨询
售前咨询热线
4008883171
售后咨询热线
13622373171