一区二区久久-一区二区三区www-一区二区三区久久-一区二区三区久久精品-麻豆国产一区二区在线观看-麻豆国产视频

基于curl數據采集之正則處理函數get_matches的使用

根據前兩篇的博文:

基于curl數據采集之單頁面采集函數get_html的使用

基于curl數據采集之單頁面并行采集函數get_htmls的使用

已經可以得到了我們需要的html文件,現在需要處理得到的文件獲取到我們需要的采集的數據。

對于html文檔的解析,沒有像XML那樣的解析類,因為HTML文檔有很多不成對的標簽,很不嚴格。這個時候就需要采用其他的一些輔助類了,simplehtmldom是一個類似于JQuery方式操作HTML文檔的解析類。可以很方便的得到想要的數據,可惜速度慢。這里不是我們這里討論的重點,我主要使用正則來匹配我所需要的采集的數據,可以很快速的得到我需要采集的信息。

考慮到get_html可以判斷返回的數據,但是get_htmls沒有辦法判斷,為了方便調式和調用寫了如下兩個函數:
復制代碼 代碼如下:
function get_matches($pattern,$html,$err_msg,$multi=false,$flags=0,$offset=0){
     if(!$multi){
         if(!preg_match($pattern,$html,$matches,$flags,$offset)){
             echo $err_msg."! 錯誤信息: ".get_preg_err_msg()."/n";
             return false;
         }
     }else{
         if(!preg_match_all($pattern,$html,$matches,$flags,$offset)){
             echo $err_msg."! 錯誤信息: ".get_preg_err_msg()."/n";
             return false;
         }
     }
     return $matches;
 }
 function get_preg_err_msg(){
     $error_code = preg_last_error();
     switch($error_code){
         case PREG_NO_ERROR :
             $err_msg = 'PREG_NO_ERROR';
             break;
         case PREG_INTERNAL_ERROR:
             $err_msg = 'PREG_INTERNAL_ERROR';
             break;
         case PREG_BACKTRACK_LIMIT_ERROR:
             $err_msg = 'PREG_BACKTRACK_LIMIT_ERROR';
             break;
         case PREG_RECURSION_LIMIT_ERROR:
             $err_msg = 'PREG_RECURSION_LIMIT_ERROR';
             break;
         case PREG_BAD_UTF8_ERROR:
             $err_msg = 'PREG_BAD_UTF8_ERROR';
             break;
         case PREG_BAD_UTF8_OFFSET_ERROR:
             $err_msg = 'PREG_BAD_UTF8_OFFSET_ERROR';
             break;
         default:
             return '未知錯誤!';
     }
     return $err_msg.': '.$error_code;
 }

可以這樣調用:
復制代碼 代碼如下:
$url = 'http://www.baidu.com';
 $html = get_html($url);
 $matches = get_matches('!<a[^<]+</a>!',$html,'沒有找到鏈接',true);
 if($matches){
     var_dump($matches);
 }

或者這樣調用:
復制代碼 代碼如下:
$urls = array('http://www.baidu.com','http://www.hao123.com');
 $htmls = get_htmls($urls);
 foreach($htmls as $html){
     $matches = get_matches('!<a[^<]+</a>!',$html,'沒有找到鏈接',true);
     if($matches){
         var_dump($matches);
     }
 }

就可以得到所需的信息,無論單頁面采集還是多頁面采集,最終php還是只能處理一個頁面,由于使用get_matches了,可以對返回的值進行判斷真假,得到正確的數據,由于使用正則的時候遇到了超過正則回溯的問題,增加get_preg_err_msg來提示正則信息。

由于采集數據的時候,經常是采集列表頁,根據列表頁得到的內容頁鏈接再采集內容頁,或者更多的層次,那么循環嵌套會很多,對于代碼的控制會感覺力不從心。那我們是否可以把采集列表頁的代碼和采集內容頁的代碼,或者更多的層次的采集代碼分離開,甚至循環都簡化呢?

php技術基于curl數據采集之正則處理函數get_matches的使用,轉載需保留來源!

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。

主站蜘蛛池模板: 2021国产成人精品国产 | 亚洲精品高清国产一久久 | 日日爱影院 | 4hutv四虎最新地址 | 91看片在线观看 | 91久久精品国产一区二区 | 99精品视频在线观看免费播放 | 国产午夜成人无码免费看 | 欧美一级xxxx俄罗斯一级 | 中文字幕一区二区三区有限公司 | 久热中文字幕在线 | 久久国产自偷自偷免 | 中国一级大黄大片 | 国产精品第7页 | 在线播放一区二区精品产 | 天天干天天操天天干 | 综合网久久 | 99在线观看巨臀大臀视频 | 亚洲欧美国产日产综合不卡 | 亚洲欧洲国产经精品香蕉网 | 人人视频在线观看 | 成人午夜免费福利视频 | 亚洲综合激情小说 | 色婷婷天天综合在线 | 成年ssswww中国女人 | 亚洲天堂视频一区 | 91网站免费在线观看 | 黄色网页在线 | 国产成人亚洲综合无 | 日本精品久久久一区二区三区 | 福利视频91| 亚洲激情婷婷 | 日韩黄色在线观看 | 四虎国产精品永久在线看 | 91久久精品在这里色伊人6882 | 日韩一区二区超清视频 | 亚洲精品小视频 | 亚洲一道本| 日韩a无v码在线播放免费 | 中文字幕一级毛片 | 亚洲天堂视频在线观看 |