亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么使用PHP實現輕量級簡單爬蟲

發布時間:2023-04-03 15:03:06 來源:億速云 閱讀:107 作者:iii 欄目:編程語言

本篇內容介紹了“怎么使用PHP實現輕量級簡單爬蟲”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

爬蟲的結構: 爬蟲的原理其實很簡單,就是分析下載的頁面,找出其中的連接,然后再下載這些鏈接,再分析再下載,周而復始。在數據存儲方面,數據庫是首選,便于檢索,而 開發語言,只要支持正則表達式就可以了,數據庫我選擇了mysql,所以,開發腳本我選擇了php。它支持perl兼容正則表達式,連接mysql很方 便,支持http下載,而且windows系統和linux系統都可以部署。

正則表達式: 正則表達式是處理文字的基本工具,要取出html中的鏈接和圖片,使用的正則表達式如下。 代碼如下:

 "#<a[^>]+href=(['\"])(.+)\\1#isU"   處理鏈接
   "#<img[^>]+src=(['\"])(.+)\\1#isU" 處理圖片

其他問題: 寫爬蟲還需要注意的一個問題是,對于已經下載過的url,不能重復進行下載,而有些網頁的鏈接會形成環路,所以需要處理這個問題,我的處理方法是計算已經 處理的url的MD5 值,并存入數據庫,這樣就可以檢驗是否已經下載過。當然還有更好的算法,有興趣的話,可以在網上找一下。

相關協議: 爬蟲也有自己的協議,有個robots.txt文件定義了那些是網站允許遍歷的,但是由于我的時間有限,沒有實現這個功能。

其他說明: php支持類編程,我寫的爬蟲主要的類. 1.url處理web_site_info,主要用處理url,分析域名等。 2.數據庫操作mysql_insert.php,處理和數據庫相關的操作。 3.歷史記錄處理,記錄已經處理的url。 4.爬蟲類。

存在的問題和不足

這個爬蟲在小數據量的情況下,運行良好,但是在大數據量的情況下,歷史記錄處理類的效率就不是很高,通過在數據庫結構中,對相關字段進行了索引,速度有了 提高,但是需要不斷得讀取數據,可能和php本身的array實現有關系,如果一次加載10萬條歷史記錄,速度非常慢。 不支持多線程,每次只能處理一個url。 php運行本身有內存使用量限制 使用的時候,先在mysql中創建net_spider數據庫,然后用db.sql創建相關表。再在config.php中設置mysql 的用戶名口令。 最后 代碼如下:

php -f spider.php 深度(數值) url

就可以開始工作。如 代碼如下: php -f spider.php 20

現在感覺下來,其實做個爬蟲沒那么復雜,難的是數據的存儲和檢索。我現在的數據庫,最大一個數據表已經15G,正在想辦處理這些數據,mysql進 行查詢已經感覺有點力不從心了。這點上還真佩服google

<?php
#加載頁面
function curl_get($url){
   $ch=curl_init();
   curl_setopt($ch,CURLOPT_URL,$url);
   curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
   curl_setopt($ch,CURLOPT_HEADER,1);
   $result=curl_exec($ch);
   $code=curl_getinfo($ch,CURLINFO_HTTP_CODE);
   if($code!='404' && $result){
    return $result;
   }
   curl_close($ch);
}
#獲取頁面url鏈接
function get_page_urls($spider_page_result,$base_url){
 $get_url_result=preg_match_all("/<[a|A].*?href=[\'\"]{0,1}([^>\'\"\]*).*?>/",$spider_page_result,$out);
 if($get_url_result){
   return $out[1];
 }else{
   return;
 }
}
#相對路徑轉絕對路徑
function xdtojd($base_url,$url_list){
if(is_array($url_list)){
 foreach($url_list as $url_item){
   if(preg_match("/^(http:\/\/|https:\/\/|javascript:)/",$url_item)){
     $result_url_list[]=$url_item;
   }else {
    if(preg_match("/^\//",$url_item)){
     $real_url = $base_url.$url_item;
    }else{
     $real_url = $base_url."/".$url_item;
    }
    #$real_url = 'http://www.sumpay.cn/'.$url_item;
    $result_url_list[] = $real_url;
   }
 }
  return $result_url_list;
}else{
  return;
}
}
#刪除其他站點url
function other_site_url_del($jd_url_list,$url_base){
if(is_array($jd_url_list)){
 foreach($jd_url_list as $all_url){
   echo $all_url;
   if(strpos($all_url,$url_base)===0){
    $all_url_list[]=$all_url;
   }  
 }
 return $all_url_list;
}else{
 return;
}
}
#刪除相同URL
function url_same_del($array_url){
  if(is_array($array_url)){
    $insert_url=array();
    $pizza=file_get_contents("/tmp/url.txt");
    if($pizza){
       $pizza=explode("\r\n",$pizza);
       foreach($array_url as $array_value_url){
        if(!in_array($array_value_url,$pizza)){
         $insert_url[]=$array_value_url;
        }
       }
       if($insert_url){
          foreach($insert_url as $key => $insert_url_value){
            #這里只做了參數相同去重處理
            $update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);
            foreach($pizza as $pizza_value){
               $update_pizza_value=preg_replace('/=[^&]*/','=leesec',$pizza_value);
               if($update_insert_url==$update_pizza_value){
                  unset($insert_url[$key]);
                  continue;
               }
            }
          }
       }    
    }else{
       $insert_url=array();
       $insert_new_url=array();
       $insert_url=$array_url;
       foreach($insert_url as $insert_url_value){
        $update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);
        $insert_new_url[]=$update_insert_url;  
       }
       $insert_new_url=array_unique($insert_new_url);
       foreach($insert_new_url as $key => $insert_new_url_val){
         $insert_url_bf[]=$insert_url[$key];
       }
       $insert_url=$insert_url_bf;
    }
    return $insert_url;
  }else{
   return;
  }
}
 
$current_url=$argv[1];
$fp_puts = fopen("/tmp/url.txt","ab");//記錄url列表
$fp_gets = fopen("/tmp/url.txt","r");//保存url列表
$url_base_url=parse_url($current_url);
if($url_base_url['scheme']==""){
 $url_base="http://".$url_base_url['host'];
}else{
 $url_base=$url_base_url['scheme']."://".$url_base_url['host'];
}
do{
 $spider_page_result=curl_get($current_url);
 #var_dump($spider_page_result);
 $url_list=get_page_urls($spider_page_result,$url_base);
 #var_dump($url_list);
 if(!$url_list){
  continue;
 }
 $jd_url_list=xdtojd($url_base,$url_list);
 #var_dump($jd_url_list);
 $result_url_arr=other_site_url_del($jd_url_list,$url_base);
 var_dump($result_url_arr);
 $result_url_arr=url_same_del($result_url_arr);
 #var_dump($result_url_arr);
 if(is_array($result_url_arr)){
   $result_url_arr=array_unique($result_url_arr);
      foreach($result_url_arr as $new_url) {
        fputs($fp_puts,$new_url."\r\n");
      }
 }
}while ($current_url = fgets($fp_gets,1024));//不斷獲得url
preg_match_all("/<a[^>]+href=[\"']([^\"']+)[\"'][^>]+>/",$spider_page_result,$out);
# echo a href
#var_dump($out[1]);
?>

“怎么使用PHP實現輕量級簡單爬蟲”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

php
AI

蓬安县| 西丰县| 庆元县| 聊城市| 盐边县| 苏州市| 扎囊县| 东港市| 疏附县| 进贤县| 大理市| 福清市| 那坡县| 中西区| 天津市| 台山市| 壤塘县| 桃园市| 恭城| 营口市| 民县| 莱州市| 怀集县| 丁青县| 始兴县| 天台县| 阿克陶县| 瑞丽市| 浮梁县| 洪洞县| 九龙城区| 囊谦县| 贺州市| 手机| 南宁市| 鹤岗市| 油尖旺区| 罗源县| 宁陕县| 侯马市| 大埔县|