深入php數據采集的詳解_PHP教程

      編輯Tag賺U幣

      推薦:深入PHP操作MongoDB的技術總結
      本篇文章是對PHP操作MongoDB的技術進行了詳細的分析介紹,需要的朋友參考下

      這里介紹兩個php采集能用到的好工具。一個是Snoopy,一個是simple_html_dom。采集還有很多方式(其實本質就2-3種,其他的都是衍生的),php自帶了幾個方法也能直接進行采集。但是,出于把懶惰進行到底的精神。我們還是可以通過這兩個工具,讓采集變得更簡單。

      網上有不少介紹Snoopy的,下面是別人翻譯的Snoopy的SDK
      //////////////////////////////////////////////////////////////
      Snoopy是一個php類,用來模擬瀏覽器的功能,可以獲取網頁內容,發送表單。
      Snoopy的一些特點:
      1抓取網頁的內容 fetch
      2抓取網頁的文本內容 (去除HTML標簽) fetchtext
      3抓取網頁的鏈接,表單 fetchlinks fetchform
      4支持代理主機
      5支持基本的用戶名/密碼驗證
      6支持設置 user_agent, referer(來路), cookies 和 header content(頭文件)
      7支持瀏覽器重定向,并能控制重定向深度
      8能把網頁中的鏈接擴展成高質量的url(默認)
      9提交數據并且獲取返回值
      10支持跟蹤HTML框架
      11支持重定向的時候傳遞cookies
      要求php4以上就可以了 由于本身是php一個類 無需擴支持 服務器不支持curl時候的最好選擇,
      類方法:
      fetch($URI)
      ———–
      這是為了抓取網頁的內容而使用的方法。
      $URI參數是被抓取網頁的URL地址。
      抓取的結果被存儲在 $this->results 中。
      如果你正在抓取的是一個框架,Snoopy將會將每個框架追蹤后存入數組中,然后存入 $this->results。
      fetchtext($URI)
      —————
      本方法類似于fetch(),唯一不同的就是本方法會去除HTML標簽和其他的無關數據,只返回網頁中的文字內容。
      fetchform($URI)
      —————
      本方法類似于fetch(),唯一不同的就是本方法會去除HTML標簽和其他的無關數據,只返回網頁中表單內容(form)。
      fetchlinks($URI)
      —————-
      本方法類似于fetch(),唯一不同的就是本方法會去除HTML標簽和其他的無關數據,只返回網頁中鏈接(link)。
      默認情況下,相對鏈接將自動補全,轉換成完整的URL。
      submit($URI,$formvars)
      ———————-
      本方法向$URL指定的鏈接地址發送確認表單。$formvars是一個存儲表單參數的數組。
      submittext($URI,$formvars)
      ————————–
      本方法類似于submit(),唯一不同的就是本方法會去除HTML標簽和其他的無關數據,只返回登陸后網頁中的文字內容。
      submitlinks($URI)
      —————-
      本方法類似于submit(),唯一不同的就是本方法會去除HTML標簽和其他的無關數據,只返回網頁中鏈接(link)。
      默認情況下,相對鏈接將自動補全,轉換成完整的URL。
      類屬性: (缺省值在括號里)
      $host 連接的主機
      $port 連接的端口
      $proxy_host 使用的代理主機,如果有的話
      $proxy_port 使用的代理主機端口,如果有的話
      $agent 用戶代理偽裝 (Snoopy v0.1)
      $referer 來路信息,如果有的話
      $cookies cookies, 如果有的話
      $rawheaders 其他的頭信息, 如果有的話
      $maxredirs 最大重定向次數, 0=不允許 (5)
      $offsiteok whether or not to allow redirects off-site. (true)
      $expandlinks 是否將鏈接都補全為完整地址 (true)
      $user 認證用戶名, 如果有的話
      $pass 認證用戶名, 如果有的話
      $accept http 接受類型 (image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, */*)
      $error 哪里報錯, 如果有的話
      $response_code 從服務器返回的響應代碼
      $headers 從服務器返回的頭信息
      $maxlength 最長返回數據長度
      $read_timeout 讀取操作超時 (requires PHP 4 Beta 4+)
      設置為0為沒有超時
      $timed_out 如果一次讀取操作超時了,本屬性返回 true (requires PHP 4 Beta 4+)
      $maxframes 允許追蹤的框架最大數量
      $status 抓取的http的狀態
      $temp_dir 網頁服務器能夠寫入的臨時文件目錄 (/tmp)
      $curl_path cURL binary 的目錄, 如果沒有cURL binary就設置為 false
      以下是demo
      復制代碼 代碼如下:www.wf0088.com

      include "Snoopy.class.php";
      $snoopy = new Snoopy;
      $snoopy->proxy_host = "www.7767.cn";
      $snoopy->proxy_port = "8080";
      $snoopy->agent = "(compatible; MSIE 4.01; MSN 2.5; AOL 4.0; Windows 98)";
      $snoopy->referer = "http://www.7767.cn/";
      $snoopy->cookies["SessionID"] = 238472834723489l;
      $snoopy->cookies["favoriteColor"] = "RED";
      $snoopy->rawheaders["Pragma"] = "no-cache";
      $snoopy->maxredirs = 2;
      $snoopy->offsiteok = false;
      $snoopy->expandlinks = false;
      $snoopy->user = "joe";
      $snoopy->pass = "bloe";
      if($snoopy->fetchtext("http://www.7767.cn"))
      {
      echo "<PRE>".htmlspecialchars($snoopy->results)."</PRE>\n";
      }
      else
      echo "error fetching document: ".$snoopy->error."\n";

      //////////////////////////////////////////////////////////////
      Snoopy的特點是“大”和“全”,一個fetch什么都采到了,可以作為采集的第一步。接下來就需要用simple_html_dom來細細的把想要的部分,扣出來。當然,如果你特別特別擅長正則,而且又鐘愛正則,你也可以用正則去匹配抓取。

      simple_html_dom其實是一個dom解析的過程。php內部也提供了一些解析的方法,但是這個simple_html_dom可以說做得比較專業,一個類,滿足了很多你想要的功能。
      ////////////////////////////////////////////////////////////////
      // 用一個URL或文件名,創建一個目標文檔對象 ,也就是目標網頁
      $html = file_get_html ('http://www.7767.cn/' );
      //$html = file_get_html ('test.htm' );
      //用一個字符串作為一個目標網頁。你可以通過Snoopy獲取頁面,然后再拿到這里來處理
      $myhtml = str_get_html ('<html><body>Hello!</body></html>' );
      // 找到所有的圖片,返回的是數組
      foreach($html->find ('img' ) as $element)
      echo $element->src . '<br>' ;
      // 找到所有的鏈接
      foreach($html->find ('a' ) as $element)
      echo $element->href . '<br>' ;

      find方法很好用,通常它返回的是一個包含對象的數組。查找目標元素的時候可以通過class或者id,或者其他屬性獲取目標字符串。

      //通過目標div的class屬性,查找div,find方法中第二個參數是返回的那個數組中的第幾個。從0開始是第一個
      $target_div = $html->find ('div.targetclass',0 );
      //查看結果是否是你想要的,直接echo就可以了
      echo $target_div;

      //比較關鍵的一點是,這個采集對象創建完后,一定要銷毀掉,否則php頁面有可能會“卡”上30秒左右,這個取決于你服務器的那個時間限制。銷毀的方法是:
      $html->clear();
      unset($html);
      本人認為simple_html_dom比較優秀的地方就是,把采集控制得像JS一樣容易。在下面提供的下載包中有英文的手冊
      simplehtmldom_1_11/simplehtmldom/manual/manual.htm

      分享:phpcms問答某模塊存儲型xss
      黑名單惹的禍啊 在回帖處,有個編輯器功能。 編輯器存在一個可以編輯源碼,當時第一反映就是。這里肯定存在xss。 果不其然,但是,在開始的時候測試 scriptalert(1)/script 以及 img src=1 onerror=alert(1) / 的時候,發現都無法執行js代碼。 于是乎,便上http://html

      來源:模板無憂//所屬分類:PHP教程/更新時間:2013-06-03
      相關PHP教程