【爱否SEO】SEO视频教程-SEO优化教程-SEO教程自学网:306090669(QQ)
4008883171

【爱否SEO】 > SEO百科 >

你真的知道robots怎么用吗?实践胜雄辩!

编辑:【爱否SEO】发布时间: 2018-09-21
相信各位站长都知道你的网站中有robots文件,但他的作用有哪些?还是有些站长一知半解的,接下来篇章教大家robots怎么用。一、我们一个新站如果没把站内布局做完,可以用robots文件设置禁止搜索引擎抓取访问,它禁止全部蜘蛛爬行的语法是:User-agent: *Disallow: /如果你想禁止个别搜索引擎蜘蛛,我拿谷...
相信各位站长都知道你的网站中有robots文件,但他的作用有哪些?还是有些站长一知半解的,接下来篇章教大家robots怎么用。一、我们一个新站如果没把站内布局做完,可以用robots文件设置禁止搜索引擎抓取访问,它禁止全部蜘蛛爬行的语法是:User-agent: *Disallow: /如果你想禁止个别搜索引擎蜘蛛,我拿谷歌的举例:User-agent: GooglebotDisallow: /按理说我们设置了禁止这样蜘蛛就不会爬行了,然而事实真是这样吗?篇章的答案是否定的。
请看案例(以百度蜘蛛为例)大家在百度搜索“淘宝”就能看到了,截图:结果显示:“由于该网站的robots.txt文件存在限制指令(限制搜索引擎抓取),系统无法提供该页面的内容描述”而且是可以访问,(ps:这个是大的网站是特殊例外,笔者也想过之前做过查证,而且确实有这样的网站,只是在无意中看到的当时没有记录,实在抱歉今天再找却记不起来了)应用:新网站测试,站长心想没有提交蜘蛛应该不会被收录,谁知被奇妙的收录了(ps:可怜的优化策略没有上马,就这样跟百度蜘蛛邂逅了)之后采取robots屏蔽发现这些需要时间不能达到预期效果,网站被竞争者窃取,由于时间紧急的原因,最后是关闭服务器提交死链才消除百度搜索收录记录。
 
2、robots.txt具有屏蔽死链接的作用,提交后会不会立马这些死链接会消失收录?篇章的答案是否定的,因为我们都知道百度在各个省都有各个百度的服务器,因此不可能同时清楚缓存,为此我们可以ping一下百度。操作过程:
一、打开系统的运行,快捷键是“WIN+R”
二、输入ping-空格-百度域名-最后回车操作完我们会看到这样的:我本地是上海的IP,它显示的是115.239.211.112 各位的IP肯定跟我不一样,因此验证了我上面所说。不过想快速消失死链百度站长平台倒是有一个“死链提交”的功能,大家可以去看看,那是快速清除死链的方法,前些天试了一下,还挺好用,很快就能得到响应。
站内导航
 
QQ在线咨询
售前咨询热线
4008883171
售后咨询热线
13622373171