国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 編程 > Python > 正文

Python使用Selenium模塊實現模擬瀏覽器抓取淘寶商品美食信息功能

2020-02-15 22:26:02
字體:
來源:轉載
供稿:網友

本文實例講述了Python使用Selenium模塊實現模擬瀏覽器抓取淘寶商品美食信息功能。分享給大家供大家參考,具體如下:

import refrom selenium import webdriverfrom selenium.webdriver.common.by import Byfrom selenium.webdriver.support.ui import WebDriverWaitfrom selenium.webdriver.support import expected_conditions as ECfrom selenium.common.exceptions import TimeoutExceptionfrom pyquery import PyQuery as pqfrom bs4 import BeautifulSoupfrom pymongo import MongoClientfrom pymongo.errors import PyMongoErrorurl = 'http://www.taobao.com'KEYWORD = '美食'# monogdb配置信息MONGO_HOST = "localhost"MONGO_DATABASE = "taobao"MONGO_TABLE = "meishi"client = MongoClient(host=MONGO_HOST)db = client[MONGO_DATABASE]# PhantomJS 命令行相關配置# 參見 http://phantomjs.org/api/command-line.htmlSERVICE_ARGS = ['--disk-cache=true', '--load-images=false']# driver = webdriver.Chrome() # 有界面driver = webdriver.PhantomJS(service_args=SERVICE_ARGS) # 無界面delay = 10wait = WebDriverWait(driver, delay)# print('windows size', driver.get_window_size())# PhantomJs()的瀏覽器窗口很小,寬高只有400 * 300driver.maximize_window() # 窗口最大化 # 對于PhantomJS來說設置窗口大小很關鍵,如果不設置,經常會出現問題# driver.set_window_size(1920, 1080) # 設置瀏覽器窗口大小# 模擬在淘寶網頁中輸入關鍵字搜索def search():  print("準備搜索 %s" % KEYWORD)  try:    driver.get(url)    input_box = wait.until(      EC.presence_of_element_located((By.CSS_SELECTOR, "input#q"))    )    search_btn = wait.until(EC.element_to_be_clickable(      (By.CSS_SELECTOR, '#J_TSearchForm > div.search-button > button')))    input_box.send_keys(KEYWORD)    search_btn.click()    total_page_str = wait.until(      EC.presence_of_element_located(        (By.CSS_SELECTOR, 'div.total'))).text    total_page_num = int(re.search("(/d+)", total_page_str).group(1))    item_list = get_goods_by_beautifulsoup()    save_to_mongodb(item_list)    return total_page_num  except TimeoutError:    print("搜索%s超時", KEYWORD)    print("重新嘗試搜索: %s", KEYWORD)    search()# 根據頁碼獲取指定頁數據,并將其保存到數據庫中def get_page(page_num):  print("正在獲取第%d頁數據" % page_num)  try:    page_num_box = wait.until(      EC.presence_of_element_located(        (By.CSS_SELECTOR, "div.form > input")))    ok_btn = wait.until(EC.element_to_be_clickable(      (By.CSS_SELECTOR, 'div.form > span.btn.J_Submit')))    page_num_box.clear()    page_num_box.send_keys(page_num)    ok_btn.click()    wait.until(      EC.text_to_be_present_in_element(        (By.CSS_SELECTOR,         'li.item.active > span.num'),        str(page_num)))    item_list = get_goods_by_beautifulsoup()    save_to_mongodb(item_list)  except TimeoutException:    print("請求第%d頁失敗" % page_num)    print("嘗試重新獲取第%d頁" % page_num)    return get_page(page_num)def get_goods_by_pyquery():  '''  通過pyquery庫解析數據  獲取商品的圖片url、價格、標題、成交量、店鋪名稱、店鋪位置  '''  wait.until(EC.presence_of_element_located(    (By.CSS_SELECTOR, "#mainsrp-itemlist .items .item")))  html = driver.page_source  doc = pq(html)  items = list(doc('#mainsrp-itemlist .items .item').items())  for item in items:    yield {      # 不要用src屬性,獲取的圖片地址很多是.gif圖片,而非真實商品圖片,      'image': 'http://' + item.find('.J_ItemPic.img').attr('data-src'),      'price': item.find('.price').text(),      'title': item.find('.row > .J_ClickStat').text().strip(),      'deal_cnt': item.find('.deal-cnt').text()[:-3],      'shop': item.find('.shop').text(),      'location': item.find('.location').text(),    }# 通過bs4解析數據def get_goods_by_beautifulsoup():  '''  通過bs4庫解析數據  獲取商品的圖片url、價格、標題、成交量、店鋪名稱、店鋪位置  '''  wait.until(EC.presence_of_element_located(    (By.CSS_SELECTOR, "#mainsrp-itemlist .items .item")))  html = driver.page_source  soup = BeautifulSoup(html, 'lxml')  items = soup.select('#mainsrp-itemlist .items .item')  for item in items:    yield {      'image': 'http:' + item.select('img.J_ItemPic.img')[0]['data-src'],      'price': item.select('div.price.g_price.g_price-highlight')[0].get_text(strip=True),      'title': item.select('div.row.row-2.title > a.J_ClickStat')[0].get_text(strip=True),      'deal_cnt': item.select('div.deal-cnt')[0].text[:-3],      'shop': item.select('div.shop > a')[0].get_text(strip=True),      'location': item.select('div.location')[0].text,    }def save_to_mongodb(item_list):  for item in item_list:    try:      db[MONGO_TABLE].insert(item)  # insert支持插入多條數據      print("mongodb插入數據成功:", item)    except PyMongoError as e:      print("mongodb插入數據失敗:", item, e)# 獲取淘寶美食的圖片url、價格、標題、成交量、店鋪名稱、店鋪位置并將結果保存在mongodb數據庫中if __name__ == '__main__':  try:    total_pages = search()    for page_num in range(2, total_pages + 1):      get_page(page_num)  except Exception as e:    print("出錯了", e)  finally: # 確保 瀏覽器能正常關閉    driver.close()            
發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 铜鼓县| 铁岭市| 浮山县| 云和县| 集安市| 乡宁县| 平度市| 苏尼特左旗| 报价| 河东区| 德兴市| 泰安市| 蓝山县| 姚安县| 达孜县| 阳泉市| 玉田县| 和田市| 大足县| 黔南| 包头市| 新田县| 拉萨市| 阜新| 武城县| 兴国县| 萝北县| 塔城市| 乐安县| 加查县| 罗江县| 姚安县| 西充县| 麦盖提县| 无极县| 通山县| 开化县| 营口市| 团风县| 云林县| 桑植县|