国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python3實現爬取指定百度貼吧頁面并保存頁面數據生成本地文檔的

2020-02-22 23:48:52
字體:
來源:轉載
供稿:網友

分享給大家供大家參考,具體如下:Python3實現爬取指定百度貼吧頁面并保存頁面數據生成本地文檔的方法。分享給大家供大家參考,具體如下:

首先我們創建一個python文件, tieba.py,我們要完成的是,輸入指定百度貼吧名字與指定頁面范圍之后爬取頁面html代碼,我們首先觀察貼吧url的規律,比如:

百度貼吧LOL吧第一頁:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0

第二頁: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50

第三頁: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100

發現規律了吧,貼吧中每個頁面不同之處,就是url最后的pn的值,其余的都是一樣的,我們可以抓住這個規律(kw表示貼吧名,采用url編碼)。

清楚了url規則,我們便可以利用urllib進行批量式數據爬取,代碼如下:

# -*- coding:utf-8 -*-from urllib import request as urllib2from urllib import parseimport randomdef loadPage(url, page):  '''  根據url獲取服務器響應文件  url:需要爬取的url  '''  print('---------正在下載頁面%d-------' % page)  ua_list = [    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1",    "Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1",    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11",    "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11",    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"  ]  header = random.choice(ua_list)  request = urllib2.Request(url)  request.add_header('User-Agent', header)  response = urllib2.urlopen(request)  html = response.read()  return htmldef write(html, page):  '''  將html文件寫入本地  :param html: 服務器響應文件內容  :return:  '''  data = html  file_name = 'tieba{}.txt'.format(page)  print('---------正在保存文件%s-------'%file_name)  # 運用with open as語句使代碼更加簡潔 避免寫異常處理和文件關閉語句  with open(file_name,'w',encoding='utf-8') as file:    file.write(data.decode())  print('---------success!---------')def tiebaSpider(url, kw, begin, end):  '''  爬取貼吧信息  '''  words = {    'kw':kw  }  kw = parse.urlencode(words)  url = url % (kw)  for page in range(begin, end + 1):    pn = ((page-1)*50)    ful_url = url + str(pn)    html = loadPage(url, page)    write(html, page)if __name__ == '__main__':  kw = input('請輸入爬取貼吧名:')  beginPage = int(input('請輸入起始頁:'))  endPage = int(input('請輸入結束頁:'))  url = r'http://tieba.baidu.com/f?%s&pn='  tiebaSpider(url, kw, beginPage, endPage)

控制臺結果如下:

請輸入爬取貼吧名:河南
請輸入起始頁:1
請輸入結束頁:3
---------正在下載頁面1-------
---------正在保存文件tieba1.txt-------

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 八宿县| 桐柏县| 桑日县| 万安县| 青冈县| 嘉祥县| 峨山| 潜山县| 垫江县| 柞水县| 和田县| 依安县| 大埔区| 册亨县| 定日县| 宁南县| 泸州市| 绿春县| 双流县| 阳曲县| 亚东县| 五台县| 长沙市| 乌审旗| 雅安市| 大城县| 夏津县| 大邑县| 甘洛县| 黄平县| 西藏| 深州市| 西贡区| 凤城市| 青田县| 定远县| 萨嘎县| 武乡县| 连平县| 射阳县| 北票市|