亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Java中怎么實現一個網絡爬蟲

發布時間:2021-08-06 15:58:30 來源:億速云 閱讀:138 作者:Leah 欄目:編程語言

Java中怎么實現一個網絡爬蟲,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

首先介紹每個類的功能

DownloadPage.java的功能是下載此超鏈接的頁面源代碼.

FunctionUtils.java 的功能是提供不同的靜態方法,包括:頁面鏈接正則表達式匹配,獲取URL鏈接的元素,判斷是否創建文件,獲取頁面的Url并將其轉換為規范的Url,截取網頁網頁源文件的目標內容。

HrefOfPage.java 的功能是獲取頁面源代碼的超鏈接。

UrlDataHanding.java 的功能是整合各個給類,實現url到獲取數據到數據處理類。

UrlQueue.java 的未訪問Url隊列。

VisitedUrlQueue.java 已訪問過的URL隊列。

下面介紹一下每個類的源代碼:

DownloadPage.java 此類要用到HttpClient組件。

View Code    package com.sreach.spider;      import java.io.IOException;   import org.apache.http.HttpEntity;   import org.apache.http.HttpResponse;   import org.apache.http.client.ClientProtocolException;   import org.apache.http.client.HttpClient;   import org.apache.http.client.methods.HttpGet;   import org.apache.http.impl.client.DefaultHttpClient;   import org.apache.http.util.EntityUtils;      public class DownloadPage   {          /**        * 根據URL抓取網頁內容        *         * @param url        * @return        */      public static String getContentFormUrl(String url)       {           /* 實例化一個HttpClient客戶端 */          HttpClient client = new DefaultHttpClient();           HttpGet getHttp = new HttpGet(url);              String content = null;              HttpResponse response;           try          {               /*獲得信息載體*/              response = client.execute(getHttp);               HttpEntity entity = response.getEntity();                  VisitedUrlQueue.addElem(url);                  if (entity != null)               {                   /* 轉化為文本信息 */                  content = EntityUtils.toString(entity);                      /* 判斷是否符合下載網頁源代碼到本地的條件 */                  if (FunctionUtils.isCreateFile(url)                           && FunctionUtils.isHasGoalContent(content) != -1)                   {                       FunctionUtils.createFile(FunctionUtils                               .getGoalContent(content), url);                   }               }              } catch (ClientProtocolException e)           {               e.printStackTrace();           } catch (IOException e)           {               e.printStackTrace();           } finally          {               client.getConnectionManager().shutdown();           }                      return content;       }      }

FunctionUtils.java 此類的方法均為static方法

View Code    package com.sreach.spider;   import java.io.BufferedWriter;  import java.io.File;  import java.io.FileOutputStream;  import java.io.IOException;  import java.io.OutputStreamWriter;  import java.util.regex.Matcher;  import java.util.regex.Pattern;   public class FunctionUtils  {       /**       * 匹配超鏈接的正則表達式       */     private static String pat = "http://www\\.oschina\\.net/code/explore/.*/\\w+\\.[a-zA-Z]+";      private static Pattern pattern = Pattern.compile(pat);       private static BufferedWriter writer = null;       /**       * 爬蟲搜索深度       */     public static int depth = 0;       /**       * 以"/"來分割URL,獲得超鏈接的元素       *        * @param url       * @return       */     public static String[] divUrl(String url)      {          return url.split("/");      }       /**       * 判斷是否創建文件       *        * @param url       * @return       */     public static boolean isCreateFile(String url)      {          Matcher matcher = pattern.matcher(url);           return matcher.matches();      }       /**       * 創建對應文件       *        * @param content       * @param urlPath       */     public static void createFile(String content, String urlPath)      {          /* 分割url */         String[] elems = divUrl(urlPath);          StringBuffer path = new StringBuffer();           File file = null;          for (int i = 1; i < elems.length; i++)          {              if (i != elems.length - 1)              {                   path.append(elems[i]);                  path.append(File.separator);                  file = new File("D:" + File.separator + path.toString());               }               if (i == elems.length - 1)              {                  Pattern pattern = Pattern.compile("\\w+\\.[a-zA-Z]+");                  Matcher matcher = pattern.matcher(elems[i]);                  if ((matcher.matches()))                  {                      if (!file.exists())                      {                          file.mkdirs();                      }                      String[] fileName = elems[i].split("\\.");                      file = new File("D:" + File.separator + path.toString()                              + File.separator + fileName[0] + ".txt");                      try                     {                          file.createNewFile();                          writer = new BufferedWriter(new OutputStreamWriter(                                  new FileOutputStream(file)));                          writer.write(content);                          writer.flush();                          writer.close();                          System.out.println("創建文件成功");                      } catch (IOException e)                      {                          e.printStackTrace();                      }                   }              }           }      }       /**       * 獲取頁面的超鏈接并將其轉換為正式的A標簽       *        * @param href       * @return       */     public static String getHrefOfInOut(String href)      {          /* 內外部鏈接最終轉化為完整的鏈接格式 */         String resultHref = null;           /* 判斷是否為外部鏈接 */         if (href.startsWith("http://"))          {              resultHref = href;          } else         {              /* 如果是內部鏈接,則補充完整的鏈接地址,其他的格式忽略不處理,如:a href="#" */             if (href.startsWith("/"))              {                  resultHref = "http://www.oschina.net" + href;              }          }           return resultHref;      }       /**       * 截取網頁網頁源文件的目標內容       *        * @param content       * @return       */     public static String getGoalContent(String content)      {          int sign = content.indexOf("<pre class=\"");          String signContent = content.substring(sign);           int start = signContent.indexOf(">");          int end = signContent.indexOf("</pre>");           return signContent.substring(start + 1, end);      }       /**       * 檢查網頁源文件中是否有目標文件       *        * @param content       * @return       */     public static int isHasGoalContent(String content)      {          return content.indexOf("<pre class=\"");      }   }

HrefOfPage.java 此類為獲取頁面的超鏈接

View Code    package com.sreach.spider;   public class HrefOfPage  {      /**       * 獲得頁面源代碼中超鏈接       */     public static void getHrefOfContent(String content)      {          System.out.println("開始");          String[] contents = content.split("<a href=\"");          for (int i = 1; i < contents.length; i++)          {              int endHref = contents[i].indexOf("\"");               String aHref = FunctionUtils.getHrefOfInOut(contents[i].substring(  , endHref));               if (aHref != null)              {                  String href = FunctionUtils.getHrefOfInOut(aHref);                   if (!UrlQueue.isContains(href)                          && href.indexOf("/code/explore") != -1                         && !VisitedUrlQueue.isContains(href))                  {                      UrlQueue.addElem(href);                  }              }          }           System.out.println(UrlQueue.size() + "--抓取到的連接數");          System.out.println(VisitedUrlQueue.size() + "--已處理的頁面數");       }   }

UrlDataHanding.java 此類主要是從未訪問隊列中獲取url,下載頁面,分析url,保存已訪問url等操作,實現Runnable接口

View Code    package com.sreach.spider;   public class UrlDataHanding implements Runnable  {      /**       * 下載對應頁面并分析出頁面對應的URL放在未訪問隊列中。       * @param url       */     public void dataHanding(String url)      {              HrefOfPage.getHrefOfContent(DownloadPage.getContentFormUrl(url));      }                public void run()      {          while(!UrlQueue.isEmpty())          {             dataHanding(UrlQueue.outElem());          }      }  }

UrlQueue.java 此類主要是用來存放未訪問的URL隊列

View Code    package com.sreach.spider;   import java.util.LinkedList;   public class UrlQueue  {      /**超鏈接隊列*/     public static LinkedList<String> urlQueue = new LinkedList<String>();            /**隊列中對應最多的超鏈接數量*/     public static final int MAX_SIZE = 10000;            public synchronized static void addElem(String url)      {          urlQueue.add(url);      }            public synchronized static String outElem()      {          return urlQueue.removeFirst();      }            public synchronized static boolean isEmpty()      {          return urlQueue.isEmpty();      }            public  static int size()      {          return urlQueue.size();      }            public  static boolean isContains(String url)      {          return urlQueue.contains(url);      }   }

VisitedUrlQueue.java 主要是保存已訪問過的URL,使用HashSet來保存,主要是考慮到每個訪問過的URL是不同。HashSet剛好符合這個要求

View Code    package com.sreach.spider;   import java.util.HashSet;   /**   * 已訪問url隊列   * @author HHZ   *   */ public class VisitedUrlQueue  {      public static HashSet<String> visitedUrlQueue = new HashSet<String>();       public synchronized static void addElem(String url)      {          visitedUrlQueue.add(url);      }       public synchronized static boolean isContains(String url)      {          return visitedUrlQueue.contains(url);      }       public synchronized static int size()      {          return visitedUrlQueue.size();      }  }

Test.java 此類為測試類

View Code    import java.sql.SQLException;   import com.sreach.spider.UrlDataHanding;  import com.sreach.spider.UrlQueue;   public class Test  {    public static void main(String[] args) throws SQLException    {        String url = "http://www.oschina.net/code/explore/achartengine/client/AndroidManifest.xml";        String url1 = "http://www.oschina.net/code/explore";        String url2 = "http://www.oschina.net/code/explore/achartengine";        String url3 = "http://www.oschina.net/code/explore/achartengine/client";                        UrlQueue.addElem(url);        UrlQueue.addElem(url1);        UrlQueue.addElem(url2);        UrlQueue.addElem(url3);                UrlDataHanding[] url_Handings = new UrlDataHanding[10];                    for(int i = 0 ; i < 10 ; i++)            {                url_Handings[i] = new UrlDataHanding();                new Thread(url_Handings[i]).start();            }     }  }

關于Java中怎么實現一個網絡爬蟲問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

哈密市| 普安县| 绍兴市| 新宁县| 靖边县| 吉林省| 报价| 江孜县| 东莞市| 许昌市| 三明市| 白山市| 剑川县| 镶黄旗| 冕宁县| 泰安市| 巴青县| 张家川| 黔江区| 四子王旗| 婺源县| 梓潼县| 江津市| 噶尔县| 萨嘎县| 昂仁县| 凯里市| 绥江县| 遵义县| 新乡市| 宜都市| 白山市| 吐鲁番市| 眉山市| 蚌埠市| 循化| 教育| 光山县| 综艺| 万州区| 成安县|