国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > C# > 正文

c#爬蟲爬取京東的商品信息

2019-10-29 19:41:23
字體:
來源:轉載
供稿:網友

前言

在一個小項目中,需要用到京東的所有商品ID,因此就用c#寫了個簡單的爬蟲。

在解析HTML中沒有使用正則表達式,而是借助開源項目HtmlAgilityPack解析HTML。

下面話不多說了,來一起看看詳細的介紹吧

一、下載網頁HTML

首先我們寫一個公共方法用來下載網頁的HTML。

在寫下載HTML方法之前,我們需要去查看京東網頁請求頭的相關信息,在發送請求時需要用到。

public static string DownloadHtml(string url, Encoding encode){ string html = string.Empty; try { HttpWebRequest request = WebRequest.Create(url) as HttpWebRequest; request.Timeout = 30 * 1000; request.UserAgent = "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.106 Safari/537.36"; request.ContentType = "text/html; charset=utf-8"; using (HttpWebResponse response = request.GetResponse() as HttpWebResponse) {  if (response.StatusCode == HttpStatusCode.OK)  {  try  {   StreamReader sr = new StreamReader(response.GetResponseStream(), encode);   html = sr.ReadToEnd();//讀取數據   sr.Close();  }  catch (Exception ex)  {   html = null;  }  } } } catch (System.Net.WebException ex) {  html = null; } catch (Exception ex) { html = null; } return html;}

如上代碼所示,我們使用WebRequest來獲取網頁信息,在發送請求之前,需要先設置和京東頁面一樣的請求頭。

以上設置的信息比較簡單,但能夠正常發送請求,我們也可以模擬瀏覽器設置cookie等等信息,

二、解析HTML

獲取所有商品的信息分為兩個步驟

    (1)根據商品分類頁面獲取所有商品分類的URL

    (2)根據商品分類URL獲取每個商品

 1、獲取商品分類

try{ string html = HttpHelper.DownloadUrl(@"http://www.jd.com/allSort.aspx"); HtmlDocument doc = new HtmlDocument(); doc.LoadHtml(html); string goodClass= @"//*[@class='items']/dl/dd"; HtmlNodeCollection noneNodeList = doc.DocumentNode.SelectNodes(goodClass); foreach (var node in noneNodeList) { HtmlDocument docChild = new HtmlDocument(); docChild.LoadHtml(node.OuterHtml); string urlPath = "/dd/a"; HtmlNodeCollection list = docChild.DocumentNode.SelectNodes(urlPath); foreach (var l in list) {  HtmlDocument docChild1 = new HtmlDocument();  docChild1.LoadHtml(l.OuterHtml);  var sortUrl = l.Attributes["href"].Value;  if (!string.IsNullOrWhiteSpace(sortUrl) && sortUrl.Contains("cat="))  {  InsertSort("https:" + sortUrl);  } } }}catch (Exception ex){ Console.WriteLine(ex.Message);}

上面的代碼中使用到了HtmlAgilityPack來解析HTML信息,這是.NET的開源項目,開源在nuget包中下載。

      (1)下載http://www.jd.com/allSort.aspx的html頁,然后加載到HtmlDocument

      (2)選擇節點,獲取每個大類的節點集合

      (3)根據每個大類的節點,獲取每個小類的節點信息,然后獲取到分類地址

節點中也包含了其它很多信息,可以根據自己的需求去獲取對應的信息

2、獲取具體商品信息

(1)首先根據商品分類加載分類信息,獲取到當前分類每個頁面的鏈接

下載HTML之后,選擇節點,可以將HTML格式化之后查看每個頁面的url地址和拼接規則,然后借助HtmlAgilityPack

來篩選需要的節點,將每個頁面的url分離出來

try{ string html = HttpHelper.DownloadUrl(@"https://list.jd.com/list.html?cat=1620,11158,11964"); HtmlDocument productDoc = new HtmlDocument(); productDoc.LoadHtml(html); HtmlNode pageNode = productDoc.DocumentNode.SelectSingleNode(@"//*[@id='J_topPage']/span/i"); if (pageNode != null) {  int pageNum = Convert.ToInt32(pageNode.InnerText);  for (int i = 1; i < pageNum + 1; i++)  {   string pageUrl = string.Format("{0}&page={1}", category.Url, i).Replace("&page=1&", string.Format("&page={0}&", i));   try   {    List<ProductInfo> proDuctInfo = GetPageProduct(pageUrl);   }   catch (Exception ex)   {    Console.WriteLine(ex.Message);   }  } } }catch (Exception ex){ Console.WriteLine(ex.Message);}

(2)根據每個頁面的鏈接,獲取當前頁面的商品信息

下載每個頁面的所有商品信息,需要獲取的商品信息在頁面中都能找到

首先我們獲取到每個商品的節點集合,獲取到一個商品的節點信息之后,分析html數據,

找到我們需要的商品的信息所在的位置,然后將需要的信息分離出來。

下面的代碼中我獲取到的商品的id和title還有價格。

List<ProductInfo> productInfoList = new List<ProductInfo>();try{ string html = HttpHelper.DownloadUrl(url); HtmlDocument doc = new HtmlDocument(); doc.LoadHtml(html); HtmlNodeCollection productNodeList = doc.DocumentNode.SelectNodes("//*[@id='plist']/ul/li"); if (productNodeList == null || productNodeList.Count == 0) {  return productInfoList; } foreach (var node in productNodeList) {  HtmlDocument docChild = new HtmlDocument();  docChild.LoadHtml(node.OuterHtml);  ProductInfo productInfo = new ProductInfo()  {   CategoryId = category.Id  };   HtmlNode urlNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-name']/a");  if (urlNode == null)  {   continue;  }  string newUrl= urlNode.Attributes["href"].Value;  newUrl = !newUrl.StartsWith("http:")?"http:" + newUrl: newUrl;  string sId = Path.GetFileName(newUrl).Replace(".html", "");  productInfo.ProductId = long.Parse(sId);  HtmlNode titleNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-name']/a/em");  if (titleNode == null)  {   continue;  }  productInfo.Title = titleNode.InnerText;    HtmlNode priceNode = docChild.DocumentNode.SelectSingleNode("//*[@class='p-price']/strong/i");  if (priceNode == null)  {   continue;  }  else  {   }  productInfoList.Add(productInfo);   } //批量獲取價格 GetGoodsPrice(productInfoList);}catch (Exception ex){}return productInfoList;

商品的圖片地址和價格信息的獲取需要仔細分析html中的數據,然后找到規律,比如價格在每個節點中就不能單獨獲取。

以下為批量獲取價格的代碼:

try   {    StringBuilder sb = new StringBuilder();    sb.AppendFormat("http://p.3.cn/prices/mgets?callback=jQuery1069298&type=1&area=1_72_4137_0&skuIds={0}&pdbp=0&pdtk=&pdpin=&pduid=1945966343&_=1469022843655", string.Join("%2C", productInfoList.Select(c => string.Format("J_{0}", c.ProductId))));    string html = HttpHelper.DownloadUrl(sb.ToString());    if (string.IsNullOrWhiteSpace(html))    {     return productInfoList;    }    html = html.Substring(html.IndexOf("(") + 1);    html = html.Substring(0, html.LastIndexOf(")"));    List<CommodityPrice> priceList = JsonConvert.DeserializeObject<List<CommodityPrice>>(html);    productInfoList.ForEach(c => c.Price = priceList.FirstOrDefault(p => p.id.Equals(string.Format("J_{0}", c.ProductId))).p);   }   catch (Exception ex)   {    Console.WriteLine(ex.Message);   }   return productInfoList;

以上就是一個簡單的爬取京東商品信息的爬蟲,也可以根據自己的需求去解析更多的數據出來。

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,如果有疑問大家可以留言交流,謝謝大家對VEVB武林網的支持。


注:相關教程知識閱讀請移步到c#教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 宝坻区| 旺苍县| 阳朔县| 临城县| 东乌珠穆沁旗| 株洲市| 定州市| 安溪县| 新建县| 集安市| 铜川市| 望江县| 兴安盟| 保定市| 沁源县| 建湖县| 温泉县| 沂源县| 龙川县| 和田市| 古蔺县| 湘阴县| 浙江省| 台前县| 湘潭市| 万州区| 瑞金市| 嘉禾县| 大兴区| 玉门市| 岗巴县| 来凤县| 革吉县| 乌拉特中旗| 建德市| 新野县| 那曲县| 曲靖市| 台江县| 龙州县| 阳原县|