最近很多人在用wordpress蜘蛛爬行记录生成这个功能,出于对网站优化的研究,清楚的了解蜘蛛爬行规律也是很重要的,我们就可以知道蜘蛛的爬行规律,根据这个规律我们再来写文章,这样符合了蜘蛛的胃口是很利于优化的。。。但是小编一直提倡着远离插件,热爱速度的口号,所以今天就教大家用代码完美实现wordpress蜘蛛爬行记录生成功能!
教程开始
在wordpress主题文件目录下找到function文件,用代码编辑软件打开,在<?php ?>内的任意位置增加下面一段代码即可完成wordpress蜘蛛爬行记录生成的功能!
function get_naps_bot(){$useragent = strtolower($_SERVER[‘HTTP_USER_AGENT’]);if (strpos($useragent, ‘googlebot’) !== false){return ‘Googlebot’;}if (strpos($useragent, ‘msnbot’) !== false){return ‘MSNbot’;}if (strpos($useragent, ‘slurp’) !== false){return ‘Yahoobot’;}if (strpos($useragent, ‘baiduspider’) !== false){return ‘Baiduspider’;}if (strpos($useragent, ‘sohu-search’) !== false){return ‘Sohubot’;}if (strpos($useragent, ‘lycos’) !== false){return ‘Lycos’;}if (strpos($useragent, ‘robozilla’) !== false){return ‘Robozilla’;}return false;}function nowtime(){date_default_timezone_set(‘Asia/Shanghai’);$date=date(“Y-m-d.G:i:s”);return $date;}$searchbot = get_naps_bot();if ($searchbot) {$tlc_thispage = addslashes($_SERVER[‘HTTP_USER_AGENT’]);$url=$_SERVER[‘HTTP_REFERER’];$file=”robotslogs.txt”;$time=nowtime();$data=fopen($file,”a”);$PR=”$_SERVER[REQUEST_URI]”;fwrite($data,”Time:$time robot:$searchbot URL:$tlc_thispage\n page:$PR\r\n”);fclose($data);}
使用上面这段代码后,最好在网站的根目录创建个robotslogs.txt的文件,并且linux主机设置权限为777,然后过段时间,访问http://网址/robotslogs.txt 即可看到蜘蛛爬行记录了!