国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > C# > 正文

利用C#實現最基本的小說爬蟲示例代碼

2019-10-29 21:08:33
字體:
來源:轉載
供稿:網友

前言

作為一個新手,最近在學習C#,自己折騰弄了個簡單的小說爬蟲,實現了把小說內容爬下來寫入txt,還只能爬指定網站。

第一次搞爬蟲,涉及到了網絡協議,正則表達式,弄得手忙腳亂跑起來效率還差勁,慢慢改吧。下面話不多說了,來一起看看詳細的介紹吧。

爬的目標:http://www.166xs.com/xiaoshuo/83/83557/

C#,實現網絡爬蟲,小說爬蟲,小說網站爬蟲

C#,實現網絡爬蟲,小說爬蟲,小說網站爬蟲

C#,實現網絡爬蟲,小說爬蟲,小說網站爬蟲

一、先寫HttpWebRequest把網站扒下來

這里有幾個坑,大概說下:

第一個就是記得弄個代理IP爬網站,第一次忘了弄代理然后ip就被封了。。。。。

第二個就是要判斷網頁是否壓縮,第一次沒弄結果各種轉碼gbk utf都是亂碼。后面解壓就好了。

/// <summary>  /// 抓取網頁并轉碼  /// </summary>  /// <param name="url"></param>  /// <param name="post_parament"></param>  /// <returns></returns>  public string HttpGet(string url, string post_parament)  {   string html;   HttpWebRequest Web_Request = (HttpWebRequest)WebRequest.Create(url);   Web_Request.Timeout = 30000;   Web_Request.Method = "GET";   Web_Request.UserAgent = "Mozilla/4.0";   Web_Request.Headers.Add("Accept-Encoding", "gzip, deflate");   //Web_Request.Credentials = CredentialCache.DefaultCredentials;   //設置代理屬性WebProxy-------------------------------------------------   WebProxy proxy = new WebProxy("111.13.7.120", 80);   //在發起HTTP請求前將proxy賦值給HttpWebRequest的Proxy屬性   Web_Request.Proxy = proxy;   HttpWebResponse Web_Response = (HttpWebResponse)Web_Request.GetResponse();   if (Web_Response.ContentEncoding.ToLower() == "gzip")  // 如果使用了GZip則先解壓   {    using (Stream Stream_Receive = Web_Response.GetResponseStream())    {     using (var Zip_Stream = new GZipStream(Stream_Receive, CompressionMode.Decompress))     {      using (StreamReader Stream_Reader = new StreamReader(Zip_Stream, Encoding.Default))      {       html = Stream_Reader.ReadToEnd();      }     }    }   }   else   {    using (Stream Stream_Receive = Web_Response.GetResponseStream())    {     using (StreamReader Stream_Reader = new StreamReader(Stream_Receive, Encoding.Default))     {      html = Stream_Reader.ReadToEnd();     }    }   }   return html;  }

二、下面就是用正則處理內容了,由于正則表達式不熟悉所以重復動作太多。

1.先獲取網頁內容

 IWebHttpRepository webHttpRepository = new WebHttpRepository();   string html = webHttpRepository.HttpGet(Url_Txt.Text, "");

2.獲取書名和文章列表

書名

C#,實現網絡爬蟲,小說爬蟲,小說網站爬蟲

文章列表

C#,實現網絡爬蟲,小說爬蟲,小說網站爬蟲

string Novel_Name = Regex.Match(html, @"(?<=<h1>)([/S/s]*?)(?=</h1>)").Value; //獲取書名   Regex Regex_Menu = new Regex(@"(?is)(?<=<dl class=""book_list"">).+?(?=</dl>)");   string Result_Menu = Regex_Menu.Match(html).Value; //獲取列表內容   Regex Regex_List = new Regex(@"(?is)(?<=<dd>).+?(?=</dd>)");   var Result_List = Regex_List.Matches(Result_Menu); //獲取列表集合

3.因為章節列表前面有多余的<dd>,所以要剔除

int i = 0; //計數   string Menu_Content = ""; //所有章節   foreach (var x in Result_List)   {    if (i < 4)    {     //前面五個都不是章節列表,所以剔除    }    else    {     Menu_Content += x.ToString();    }    i++;   }

4.然后獲取<a>的href和innerHTML,然后遍歷訪問獲得內容和章節名稱并處理,然后寫入txt

Regex Regex_Href = new Regex(@"(?is)<a[^>]*?href=(['""]?)(?<url>[^'""/s>]+)/1[^>]*>(?<text>(?:(?!</?a/b).)*)</a>");   MatchCollection Result_Match_List = Regex_Href.Matches(Menu_Content); //獲取href鏈接和a標簽 innerHTML    string Novel_Path = Directory.GetCurrentDirectory() + "//Novel//" + Novel_Name + ".txt";  //小說地址   File.Create(Novel_Path).Close();   StreamWriter Write_Content = new StreamWriter(Novel_Path);   foreach (Match Result_Single in Result_Match_List)   {    string Url_Text = Result_Single.Groups["url"].Value;    string Content_Text = Result_Single.Groups["text"].Value;    string Content_Html = webHttpRepository.HttpGet(Url_Txt.Text + Url_Text, "");//獲取內容頁    Regex Rege_Content = new Regex(@"(?is)(?<=<p class=""Book_Text"">).+?(?=</p>)");    string Result_Content = Rege_Content.Match(Content_Html).Value; //獲取文章內容    Regex Regex_Main = new Regex(@"(    )(.*)");    string Rsult_Main = Regex_Main.Match(Result_Content).Value; //正文       string Screen_Content = Rsult_Main.Replace(" ", "").Replace("<br />", "/r/n");    Write_Content.WriteLine(Content_Text + "/r/n");//寫入標題    Write_Content.WriteLine(Screen_Content);//寫入內容   }   Write_Content.Dispose();   Write_Content.Close();   MessageBox.Show(Novel_Name+".txt 創建成功!");   System.Diagnostics.Process.Start(Directory.GetCurrentDirectory() + //Novel//);

三、小說寫入成功

C#,實現網絡爬蟲,小說爬蟲,小說網站爬蟲

C#,實現網絡爬蟲,小說爬蟲,小說網站爬蟲

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,如果有疑問大家可以留言交流,謝謝大家對VEVB武林網的支持。


注:相關教程知識閱讀請移步到c#教程頻道。
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 应用必备| 伊春市| 白玉县| 隆尧县| 自贡市| 兴化市| 望奎县| 九龙县| 瑞昌市| 咸丰县| 郸城县| 绥江县| 西吉县| 那曲县| 房山区| 固原市| 当涂县| 临沂市| 晋宁县| 武川县| 连南| 梅州市| 葫芦岛市| 明水县| 赤城县| 宁海县| 盐亭县| 宣威市| 徐闻县| 潼关县| 湘潭市| 兴城市| 屯昌县| 荣昌县| 松桃| 油尖旺区| 营山县| 普洱| 盐源县| 洮南市| 渝北区|