国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 語言 > JavaScript > 正文

Node.js實現(xiàn)的簡易網(wǎng)頁抓取功能示例

2024-05-06 16:11:28
字體:
供稿:網(wǎng)友
這篇文章主要介紹了Node.js實現(xiàn)的簡易網(wǎng)頁抓取功能示例,本文使用了PhantomJS、node-phantomjs等庫實現(xiàn),需要的朋友可以參考下
 
 

現(xiàn)今,網(wǎng)頁抓取已經(jīng)是一種人所共知的技術(shù)了,然而依然存在著諸多復(fù)雜性, 簡單的網(wǎng)頁爬蟲依然難以勝任Ajax輪訓(xùn)、XMLHttpRequest,WebSockets,F(xiàn)lash Sockets等各種復(fù)雜技術(shù)所開發(fā)出來的現(xiàn)代化網(wǎng)站。

我們以我們在Hubdoc這個項目上的基礎(chǔ)需求為例,在這個項目中,我們從銀行,公共事業(yè)和信用卡公司的網(wǎng)站上抓取帳單金額,到期日期,賬戶號碼,以及最重要的:近期賬單的pdf。對于這個項目,我一開始采用了很簡單的方案(暫時并沒有使用我們正在評估的昂貴的商業(yè)化產(chǎn)品)——我以前在MessageLab/Symantec使用Perl做過的一個簡單的爬蟲項目。但是結(jié)果很不順利,垃圾郵件發(fā)送者所制作的網(wǎng)站要比銀行和公共事業(yè)公司的網(wǎng)站簡單的多得多。

那么如何解決這個問題呢?我們主要從使用Mikea開發(fā)的優(yōu)秀 request庫開始。在瀏覽器中發(fā)出請求,并在Network窗口中查看到底發(fā)送出去了什么請求頭,然后把這些請求頭拷貝到代碼里。這個過程很簡單。僅僅是跟蹤從登陸開始,到下載Pdf文件結(jié)束的這個過程,然后模擬這個過程的所有的請求而已。為了使類似的事情處理起來變得容易,并且能讓網(wǎng)絡(luò)開發(fā)者們更加合理地寫爬蟲程序,我把從HTML上取到結(jié)果的方把導(dǎo)出到j(luò)Query中(使用輕量級 cheerio庫),這使得相似的工作變得簡單,也使利用CSS選擇子選取一個頁面中的元素變得較為簡單。整個過程被包裝進一個框架,而這個框架也可以做額外的工作,例如從數(shù)據(jù)庫中拾取證書,加載個體機器人,和UI通過socket.io溝通。

對于一些web站點來說這個是有效的,但這僅僅是JS腳本,而不是我那個被這些公司放在他們站點上的node.js的code。他們對遺留下來的問題,針對復(fù)雜性就行分層,使得你非常難去弄明白該做什么來得到登錄的信息點。對于一些站點我嘗試了幾天通過與request()庫結(jié)合來獲取,但仍是徒然。

在幾近崩潰后,我發(fā)現(xiàn)了node-phantomjs,這個庫可以讓我從node中控制phantomjs headless webkit瀏覽器(譯者注:這個我沒想到一個對應(yīng)的名詞,headless這里的意思是渲染頁面在后臺完成,無需顯示設(shè)備)。這看起來是一種簡單的解決方案,但是還有一些phantomjs無法回避的問題需要解決:

1.PhantomJS只能告訴你頁面是否完成了加載,但是你無法確定這個過程中是否存在通過JavaScript或者meta標簽實現(xiàn)的重定向(redirect)。特別是JavaScript使用setTimeout()來延遲調(diào)用的時候。

2.PhantomJS為你提供了一個頁面加載開始(pageLoadStarted)的鉤子,允許你處理上面提到的問題,但是這個機能只能在你確定要加載的頁面數(shù),在每個頁面加載完成時減少這個數(shù)字,并且為可能的超時提供處理(因為這種事情并不總是會發(fā)生),這樣當(dāng)你的數(shù)字減少為0,就可以調(diào)用你的回調(diào)函數(shù)了。這種方式可以工作,但是總讓人覺得有點像是黑客手段。

3.PhantomJS每抓取一個頁面需要一個完整獨立的進程,因為如果不這樣,無法分離每個頁面之間的cookies。如果你是用同一個phantomjs進程,已經(jīng)登錄的頁面中的session會被發(fā)送到另一個頁面中。

4.無法使用PhantomJS下載資源 - 你只能將頁面保存為png或者pdf。這很有用,但是這意味著我們需要求助于request()來下載pdf。

5.由于上述的原因,我必須找到一個方法來將cookie從PhantomJS的session中分發(fā)到request()的session庫中去。只需要將document.cookie的字符串分發(fā)過去,解析它,然后將其注入到request()的cookie jar中去。

6.將變量注入到瀏覽器session中并不是件容易的事情。要這么做我需要創(chuàng)建一個字符串來建立一個Javascript函數(shù)。

復(fù)制代碼代碼如下:

Robot.prototype.add_page_data = function (page, name, data) {
 page.evaluate(
 "function () { var " + name + " = window." + name + " = " + JSON.stringify(data) + "}"
 );
}

7.一些網(wǎng)站總是充斥著console.log()之類的代碼,也需要將他們重新定義,輸出到我們希望的位置。為了完成這個,我這么做:
復(fù)制代碼代碼如下:

if (!console.log) {
    var iframe = document.createElement("iframe");
    document.body.appendChild(iframe);
    console = window.frames[0].console;
}

 

8.一些網(wǎng)站總是充斥著console.log()之類的代碼,也需要將他們重新定義,輸出到我們希望的位置。為了完成這個,我這么做:

復(fù)制代碼代碼如下:

if (!console.log) {
    var iframe = document.createElement("iframe");
    document.body.appendChild(iframe);
    console = window.frames[0].console;
}

9.告訴瀏覽器我點擊了a標簽也是件很不容易的事情,為了完成這些事情,我加入了以下的代碼:
復(fù)制代碼代碼如下:

var clickElement = window.clickElement = function (id){
    var a = document.getElementById(id);
    var e = document.createEvent("MouseEvents");
    e.initMouseEvent("click", true, true, window, 0, 0, 0, 0, 0, false, false, false, false, 0, null);
    a.dispatchEvent(e);
 };

 

10.我還需要限制瀏覽器session的最大并發(fā)量,從而保障我們不會爆掉服務(wù)器。雖然這么說,可是這個限制要比昂貴的商業(yè)解決方案所能提供的高很多。(譯者注:即商業(yè)解決方案的并發(fā)量比這個解決方案大)

所有的工作結(jié)束后,我就有一個比較體面的 PhantomJS + request 的爬蟲解決方案。必須使用 PhantomJS 登錄后才可以返回去 request() 請求,它將使用在 PhantomJS 中設(shè)置的 Cookie 來驗證登錄的會話。這是一個巨大的勝利,因為我們可以使用 request() 的流來下載 pdf文件。

整個的計劃就是為了讓 Web 開發(fā)者相對容易的理解如何使用 jQuery 和 CSS 選擇器來創(chuàng)建不同 Web 網(wǎng)站的爬蟲,我還沒有成功證明這個思路可行,但相信很快會了。


發(fā)表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發(fā)表

圖片精選

主站蜘蛛池模板: 崇州市| 德江县| 子洲县| 卫辉市| 嘉祥县| 唐河县| 会宁县| 永德县| 织金县| 金沙县| 和平区| 洮南市| 舒城县| 枝江市| 宜州市| 连州市| 远安县| 乌拉特前旗| 张家川| 云林县| 裕民县| 洪江市| 五河县| 沙雅县| 许昌市| 阿尔山市| 新竹市| 祁东县| 汉沽区| 庐江县| 富源县| 莆田市| 尼木县| 原平市| 封丘县| 安阳县| 宣城市| 府谷县| 东阳市| 华阴市| 东乡县|