现在位置: 首页 > robots
+0°
2012年05月29日 WP技巧 ⁄ 共 715字 ⁄ 被围观 2,816+
前两天刚刚为网站配置了robots.txt文件,但有童鞋在留言中提出质疑,说我的robots.txt文件有一些错误,至少baidu的站长平台——robots工具,检测出来有很多不合规范的地方。 主要的错误原因是说“路径必须以/开始”,而我有几项以“*”开始的,还有几个错误都是和000webhost的统计代码有关。关于这一点,之前的删除000webhost免费空间robots.txt里的统计代码已经解决。所以只要将以“*”开头的路径重新设置即可。 除了百度的站长平台以...
阅读全文

+1°
2012年05月28日 WP技巧 ⁄ 共 206字 ⁄ 被围观 2,614+
话说昨天已经删除000webhost免费空间自带的Analytics Code,所以在网站首页及其他页面确实没有再看到类似的代码,但是在robots.txt文件里却始终是阴魂不散,无论怎么重写,检测工具始终都会发现robots.txt文件里存在着000webhost的统计代码。 可恨的是通过网站打开或者在FTP工具里打开robots.txt并看不到这个代码,只有用Google工具或者robots检测工具才能查到。
阅读全文
+2°
2012年05月26日 WP技巧 ⁄ 共 1770字 ⁄ 被围观 3,336+
谈到robots,那些擅长SEO的童鞋一定不会陌生,但对于我等菜鸟,这完全是个陌生的领域。所以,先来看看维基百科的解释。 robots.txt(统一小写)是一种存放于网站根目录下的ASCII编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被(漫游器)获取的。因为一些系统中的URL是大小写敏感的,所以robots.txt的文件名应统一为小写。robots.txt应放置...
阅读全文

无觅相关文章插件,快速提升流量

×