欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

利用php抓取蜘蛛爬蟲痕跡的示例代碼

 更新時(shí)間:2016年09月30日 11:00:52   投稿:daisy  
這篇文章給大家分享了如何利用php抓取蜘蛛爬蟲痕跡的方法,文中給出了示例代碼,方便大家學(xué)習(xí)和參考,有需要的朋友們可以參考借鑒。

前言

相信許多的站長、博主可能最關(guān)心的無非就是自己網(wǎng)站的收錄情況,一般情況下我們可以通過查看空間服務(wù)器的日志文件來查看搜索引擎到底爬取了我們哪些個(gè)頁面,不過,如果用php代碼分析web日志中蜘蛛爬蟲痕跡,是比較好又比較直觀方便操作的!下面是示例代碼,有需要的朋友們下面來一起看看吧。

示例代碼

<?php
//獲取蜘蛛爬蟲名或防采集
function isSpider(){
  $bots = array(
          'Google'  => 'googlebot',
          'Baidu'    => 'baiduspider',
          'Yahoo'    => 'yahoo slurp',
          'Soso'    => 'sosospider',
          'Msn'    => 'msnbot',
          'Altavista'  => 'scooter ',
          'Sogou'    => 'sogou spider',
          'Yodao'    => 'yodaobot'
      );
  $userAgent = strtolower($_SERVER['HTTP_USER_AGENT']);
  foreach ($bots as $k => $v){
    if (strstr($v,$userAgent)){
      return $k;
      break;
    }
  }
  return false;
} 
//獲取哪種蜘蛛爬蟲后保存蜘蛛痕跡。
//根據(jù)采集時(shí)HTTP_USER_AGENT是否為空來防止采集
//抓蜘蛛爬蟲
$spi  = isSpider();
if($spi){
  $tlc_thispage  = addslashes($_SERVER['HTTP_USER_AGENT']);
  $file      = 'robot.txt';
  $time      = date('Y-m-d H:i:s',mktime());
  $handle      = fopen($file,'a+');
  $PR        = $_SERVER['REQUEST_URI'];
  fwrite($handle, "Time:{$time} ROBOT:{$spi} AGENT:{$tlc_thispage} URL:{$PR} \n\r");
  fclose($handle);
}
?>

總結(jié)

以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作能帶來一定的幫助,如果有問題大家可以留言交流。

相關(guān)文章

最新評(píng)論