麻豆小视频在线观看_中文黄色一级片_久久久成人精品_成片免费观看视频大全_午夜精品久久久久久久99热浪潮_成人一区二区三区四区

首頁 > 開發 > PHP > 正文

PHP代碼實現爬蟲記錄——超管用

2024-05-04 23:38:30
字體:
來源:轉載
供稿:網友

這篇文章主要通過創建crawler數據庫,使用robot.php記錄來訪的爬蟲信息從而將信息插入數據庫,從而使用php代碼實現爬蟲記錄,有需要的小伙可以來參考下。

實現爬蟲記錄本文從創建crawler 數據庫,robot.php記錄來訪的爬蟲從而將信息插入數據庫crawler,然后從數據庫中就可以獲得所有的爬蟲信息。實現代碼具體如下:

數據庫設計

 

 
  1. create table crawler  
  2. (  
  3. crawler_ID bigint() unsigned not null auto_increment primary key, 
  4. crawler_category varchar() not null
  5. crawler_date datetime not null default '-- ::'
  6. crawler_url varchar() not null
  7. crawler_IP varchar() not null 
  8. )default charset=utf; 

以下文件 robot.php 記錄來訪的爬蟲,并將信息寫入數據庫:

 

 
  1. <?php 
  2. $ServerName = $_SERVER["SERVER_NAME"] ;  
  3. $ServerPort = $_SERVER["SERVER_PORT"] ;  
  4. $ScriptName = $_SERVER["SCRIPT_NAME"] ;  
  5. $QueryString = $_SERVER["QUERY_STRING"];  
  6. $serverip = $_SERVER["REMOTE_ADDR"] ;  
  7. $Url="http://".$ServerName; 
  8. if ($ServerPort != ""
  9. $Url = $Url.":".$ServerPort ; 
  10. }  
  11. $Url=$Url.$ScriptName; 
  12. if ($QueryString !=""
  13. $Url=$Url."?".$QueryString; 
  14. }  
  15. $GetLocationURL=$Url ; 
  16. $agent = $_SERVER["HTTP_USER_AGENT"];  
  17. $agent=strtolower($agent); 
  18. $Bot =""
  19. if (strpos($agent,"bot")>-) 
  20. $Bot = "Other Crawler"
  21. if (strpos($agent,"googlebot")>-) 
  22. $Bot = "Google"
  23. }  
  24. if (strpos($agent,"mediapartners-google")>-) 
  25. $Bot = "Google Adsense"
  26. if (strpos($agent,"baiduspider")>-) 
  27. $Bot = "Baidu"
  28. if (strpos($agent,"sogou spider")>-) 
  29. $Bot = "Sogou"
  30. if (strpos($agent,"yahoo")>-) 
  31. $Bot = "Yahoo!"
  32. if (strpos($agent,"msn")>-) 
  33. $Bot = "MSN"
  34. if (strpos($agent,"ia_archiver")>-) 
  35. $Bot = "Alexa"
  36. if (strpos($agent,"iaarchiver")>-) 
  37. $Bot = "Alexa"
  38. if (strpos($agent,"sohu")>-) 
  39. $Bot = "Sohu"
  40. if (strpos($agent,"sqworm")>-) 
  41. $Bot = "AOL"
  42. if (strpos($agent,"yodaoBot")>-) 
  43. $Bot = "Yodao"
  44. if (strpos($agent,"iaskspider")>-) 
  45. $Bot = "Iask"
  46. require("./dbinfo.php"); 
  47. date_default_timezone_set('PRC');  
  48. $shijian=date("Y-m-d h:i:s", time()); 
  49. // 連接到 MySQL 服務器 
  50. $connection = mysql_connect ($host, $username, $password); 
  51. if (!$connection) 
  52. die('Not connected : ' . mysql_error()); 
  53. // 設置活動的 MySQL 數據庫 
  54. $db_selected = mysql_select_db($database, $connection); 
  55. if (!$db_selected) 
  56. die ('Can/'t use db : ' . mysql_error()); 
  57. // 向數據庫插入數據 
  58. $query = "insert into crawler (crawler_category, crawler_date, crawler_url, crawler_IP) values ('$Bot','$shijian','$GetLocationURL','$serverip')"
  59. $result = mysql_query($query); 
  60. if (!$result) 
  61. die('Invalid query: ' . mysql_error()); 
  62. ?> 

成功了,現在訪問數據庫即可得知什么時候哪里的蜘蛛爬過你的什么頁面。

 

 
  1. view sourceprint? 
  2. <?php 
  3. include './robot.php'
  4. include '../library/page.Class.php'
  5. $page = $_GET['page']; 
  6. include '../library/conn_new.php'
  7. $count = $mysql -> num_rows($mysql -> query("select * from crawler")); 
  8. $pages = new PageClass($count,,$_GET['page'],$_SERVER['PHP_SELF'].'?page={page}'); 
  9. $sql = "select * from crawler order by "
  10. $sql .= "crawler_date desc limit ".$pages -> page_limit.",".$pages -> myde_size; 
  11. $result = $mysql -> query($sql); 
  12. ?> 
  13. <table width=""
  14. <thead> 
  15. <tr>  
  16. <td bgcolor="#CCFFFF"></td>  
  17. <td bgcolor="#CCFFFF" align="center" style="color:#">爬蟲訪問時間</td>  
  18. <td bgcolor="#CCFFFF" align="center" style="color:#">爬蟲分類</td> 
  19. <td bgcolor="#CCFFFF" align="center" style="color:#">爬蟲IP</td> 
  20. <td bgcolor="#CCFFFF" align="center" style="color:#">爬蟲訪問的URL</td> 
  21. </tr> 
  22. </thead> 
  23. <?php 
  24. while($myrow = $mysql -> fetch_array($result)){ 
  25. ?> 
  26. <tr> 
  27. <td width=""><img src="../images/topicnew.gif" /></td> 
  28. <td width="" style="font-family:Georgia"><? echo $myrow["crawler_date"] ?></td> 
  29. <td width="" style="color:#FA"><? echo $myrow["crawler_category"] ?></td> 
  30. <td width=""><? echo $myrow["crawler_IP"] ?></td> 
  31. <td width=""><? echo $myrow["crawler_url"] ?></td> 
  32. </tr> 
  33. <?php 
  34. ?> 
  35. </table> 
  36. <?php 
  37. echo $pages -> myde_write(); 
  38. ?> 

以上代碼就是PHP代碼實現爬蟲記錄——超管用的全部內容,希望對大家有所幫助。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 欧美韩国一区 | 国产精品成人免费一区久久羞羞 | 毛片免费网 | 中文欧美日韩 | 黄色网战入口 | 特级a欧美做爰片毛片 | 日本精品黄色 | 欧美乱码精品一区 | 精品小视频 | 蜜桃麻豆视频 | av在线免费看片 | 国产在线播放一区二区 | 久久精品成人影院 | 亚洲影视中文字幕 | av在线免费看片 | 精品国产一区二区三区久久久 | 中文字幕在线观看1 | 久久久久久久久久久国产精品 | 欧美日韩在线播放 | 日本成人一区二区 | 91精选视频在线观看 | 黄视频免费在线观看 | chinese中国真实乱对白 | 伊久在线 | 欧美成人精品h版在线观看 久久久久久三区 | 98国内自拍在线视频 | 国产日产精品一区二区三区四区 | 史上最强炼体老祖动漫在线观看 | xxxeexxx性国产 | 国产午夜精品理论片a级探花 | 午色影院 | 亚洲第一成网站 | 亚洲天堂在线电影 | 色阁阁69婷婷 | 国产羞羞视频免费在线观看 | 免费男女乱淫真视频 | 精品国产精品久久 | 久久艹国产精品 | 国产亚洲精品美女久久久 | 一级做受毛片免费大片 | 亚洲一级毛片 |