node.js做一個簡單的爬蟲案例教程
準備工作
- 首先,你需要下載 nodejs,這個應該沒啥問題吧
- 原文要求下載 webstrom,我電腦上本來就有,但其實不用下載,完全在命令行里面操作就行
創(chuàng)建工程
準備工作做完了,下面就開始創(chuàng)建工程了
- 首先,在你想要放資源的地方創(chuàng)建文件夾,比如我在 E 盤里面創(chuàng)建了一個 myStudyNodejs 的文件夾
- 在命令行里面進入你創(chuàng)建的文件夾 如圖
進入 e 盤:E:
進入文件夾:cd myStudyNodejs(你創(chuàng)建的文件夾的名字)
注意全是英文符號 - 初始化項目,在你創(chuàng)建的文件夾下面運行 npm init 初始化項目
一路回車,最后輸個 yes 就行 - 運行完以后,會在文件夾里面生成一個 package.json 的文件,里面包含了項目的一些基本信息。
- 安裝所需要的包
在所創(chuàng)建的文件夾的目錄下運行
npm install cheerio –save
npm install request -save
爬武大的話,這兩個包就夠了,如果想爬草榴需要額外的轉換編碼的包,windows 上面是
npm install iconv-lite -save
Mac 上面是 npm install iconv -save
運行結果應該第二幅圖這樣,中間手滑少寫了個字母 - 創(chuàng)建文件
在你所創(chuàng)建的文件夾下面創(chuàng)建一個 data 文件夾用于保存爬到的文本數(shù)據(jù)。
創(chuàng)建一個 image 文件夾用于保存圖片數(shù)據(jù)。
創(chuàng)建一個 js 文件用來寫程序。比如 study.js。(創(chuàng)建一個記事本文件將 .txt 改為 .js)
說明 –save 的目的是將項目對該包的依賴寫入到 package.json 文件中。
武大計算機學院新聞爬蟲代碼
下面就是武大計算機學院新聞的爬蟲代碼了,復制到創(chuàng)建的 .js 文件中,保存。
var http = require('http'); var fs = require('fs'); var cheerio = require('cheerio'); var request = require('request'); var i = 0; //初始url var url = "http://cs.whu.edu.cn/a/xinwendongtaifabu/2018/0428/7053.html"; function fetchPage(x) { //封裝了一層函數(shù) startRequest(x); } function startRequest(x) { //采用http模塊向服務器發(fā)起一次get請求 http.get(x, function (res) { var html = ''; //用來存儲請求網(wǎng)頁的整個html內容 var titles = []; res.setEncoding('utf-8'); //防止中文亂碼 //監(jiān)聽data事件,每次取一塊數(shù)據(jù) res.on('data', function (chunk) { html += chunk; }); //監(jiān)聽end事件,如果整個網(wǎng)頁內容的html都獲取完畢,就執(zhí)行回調函數(shù) res.on('end', function () { var $ = cheerio.load(html); //采用cheerio模塊解析html var news_item = { //獲取文章的標題 title: $('div#container dt').text().trim(), i: i = i + 1, }; console.log(news_item); //打印新聞信息 var news_title = $('div#container dt').text().trim(); savedContent($,news_title); //存儲每篇文章的內容及文章標題 savedImg($,news_title); //存儲每篇文章的圖片及圖片標題 //下一篇文章的url var nextLink="http://cs.whu.edu.cn" + $("dd.Paging a").attr('href'); str1 = nextLink.split('-'); //去除掉url后面的中文 str = encodeURI(str1[0]); //這是亮點之一,通過控制I,可以控制爬取多少篇文章.武大只有8篇,所以設置為8 if (i <= 8) { fetchPage(str); } }); }).on('error', function (err) { console.log(err); }); } //該函數(shù)的作用:在本地存儲所爬取的新聞內容資源 function savedContent($, news_title) { $('dd.info').each(function (index, item) { var x = $(this).text(); var y = x.substring(0, 2).trim(); if (y == '') { x = x + '\n'; //將新聞文本內容一段一段添加到/data文件夾下,并用新聞的標題來命名文件 fs.appendFile('./data/' + news_title + '.txt', x, 'utf-8', function (err) { if (err) { console.log(err); } }); } }) } //該函數(shù)的作用:在本地存儲所爬取到的圖片資源 function savedImg($,news_title) { $('dd.info img').each(function (index, item) { var img_title = $(this).parent().next().text().trim(); //獲取圖片的標題 if(img_title.length>35||img_title==""){ img_title="Null"; } var img_filename = img_title + '.jpg'; var img_src = 'http://cs.whu.edu.cn' + $(this).attr('src'); //獲取圖片的url //采用request模塊,向服務器發(fā)起一次請求,獲取圖片資源 request.head(img_src,function(err,res,body){ if(err){ console.log(err); } }); request(img_src).pipe(fs.createWriteStream('./image/'+news_title + '---' + img_filename)); //通過流的方式,把圖片寫到本地/image目錄下,并用新聞的標題和圖片的標題作為圖片的名稱。 }) } fetchPage(url); //主程序開始運行
下面就是激動人心的時刻了,在當前文件夾下面,運行創(chuàng)建的 js 文件,比如我的是 news.js。
npm news.js
文本資源:
圖片資源:
草榴技術討論區(qū)爬蟲
爬完武大的新聞并不過癮,于是嘗試了一波爬草榴的技術討論區(qū)(當然也能爬一些你懂的)。其中遇到了一些問題。
爬草榴的時候,發(fā)送 http 請求報文頭里面需要包含 User-Agent 字段,于是需要把 初始url 做如下改變
var url = { hostname: 'cl.5fy.xyz', path: '/thread0806.php?fid=7', headers: { 'Content-Type': 'text/html', //沒有這個字段的話訪問不了 'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36', }};
其次,nodejs 只支持 抓取 utf-8 字符編碼的網(wǎng)站,所以需要安裝額外的包來轉換編碼,所以修改代碼如下
/* * @Author: user * @Date: 2018-04-28 19:34:50 * @Last Modified by: user * @Last Modified time: 2018-04-30 21:35:26 */ var http = require('http'); var fs = require('fs'); var cheerio = require('cheerio'); var request = require('request'); var iconv=require('iconv-lite'); var i = 0; //用來判斷存儲還是訪問 var temp=0; let startPage=3;//從哪一頁開始爬 let page=startPage; let endPage=5;//爬到哪一頁 let searchText='';//爬取的關鍵字,默認全部爬取,根據(jù)自己需要 //初始url var url = { hostname: '1024liuyouba.tk', path: '/thread0806.php?fid=16'+'&search=&page='+startPage, headers: { 'Content-Type': 'text/html', //沒有這個字段的話訪問不了 'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36', }}; //存儲首頁url urlList=[]; //封裝了一層函數(shù) function fetchPage(x) { setTimeout(function(){ startRequest(x); },5000) } //首先存儲要訪問界面的url function getUrl(x){ temp++; http.get(x,function(res){ var html = ''; res.setEncoding('binary'); res.on('data', function (chunk) { html += chunk; }); res.on('end', function () { var buf=new Buffer(html,'binary'); var str=iconv.decode(buf,'GBK'); var $ = cheerio.load(str); //采用cheerio模塊解析html $('tr.tr3 td.tal h3 a').each(function(){ var search=$(this).text(); if(search.indexOf(searchText)>=0){ var nextLink="http://cl.5fy.xyz/" + $(this).attr('href'); str1 = nextLink.split('-'); //去除掉url后面的中文 str = encodeURI(str1[0]); urlList.push(str); } }) page++; if(page<endPage){ //存儲下一頁url x.path='/thread0806.php?fid=16'+'&search=&page='+page, getUrl(x); }else if(urlList.length!=0){ fetchPage(urlList.shift()); }else{ console.log('未查詢到關鍵字!'); } }) }).on('error', function (err) { console.log(err); }); } function startRequest(x) { if(temp===0){ getUrl(x); } else{ //采用http模塊向服務器發(fā)起一次get請求 http.get(x, function (res) { var html = ''; //用來存儲請求網(wǎng)頁的整個html內容 res.setEncoding('binary'); var titles = []; //監(jiān)聽data事件,每次取一塊數(shù)據(jù) res.on('data', function (chunk) { html += chunk; }); //監(jiān)聽end事件,如果整個網(wǎng)頁內容的html都獲取完畢,就執(zhí)行回調函數(shù) res.on('end', function () { var buf=new Buffer(html,'binary'); var str=iconv.decode(buf,'GBK'); var $ = cheerio.load(str); //采用cheerio模塊解析html var news_item = { //獲取文章的標題 title: $('h4').text().trim(), //i是用來判斷獲取了多少篇文章 i: i = i + 1, }; console.log(news_item); //打印信息 var news_title = $('h4').text().trim(); savedContent($,news_title); //存儲每篇文章的內容及文章標題 savedImg($,news_title); //存儲每篇文章的圖片及圖片標題 //如果沒訪問完繼續(xù)訪問 if (urlList.length!=0 ) { fetchPage(urlList.shift()); } }); }).on('error', function (err) { console.log(err); }); } } //該函數(shù)的作用:在本地存儲所爬取的文本內容資源 function savedContent($, news_title) { $("div.t2[style] .tpc_content.do_not_catch").each(function (index, item) { var x = $(this).text(); x = x + '\n'; //將新聞文本內容一段一段添加到/data文件夾下,并用新聞的標題來命名文件 fs.appendFile('./data/' + news_title + '.txt', x, 'utf-8', function (err) { if (err) { console.log(err); } }); }) } //該函數(shù)的作用:在本地存儲所爬取到的圖片資源 function savedImg($,news_title) { //創(chuàng)建文件夾 fs.mkdir('./image/'+news_title, function (err) { if(err){console.log(err)} }); $('.tpc_content.do_not_catch input[src]').each(function (index, item) { var img_title = index;//給每張圖片附加一個編號 var img_filename = img_title + '.jpg'; var img_src = $(this).attr('src'); //獲取圖片的url //采用request模塊,向服務器發(fā)起一次請求,獲取圖片資源 request.head(img_src,function(err,res,body){ if(err){ console.log(err); } }); setTimeout(function(){ request({uri: img_src,encoding: 'binary'}, function (error, response, body) { if (!error && response.statusCode == 200) { fs.writeFile('./image/'+news_title+'/' + img_filename, body, 'binary', function (err) { if(err){console.log(err)} }); } }) }); }) } fetchPage(url); //主程序開始運行
成果展示:
到此這篇關于node.js做一個簡單的爬蟲案例教程的文章就介紹到這了,更多相關node.js做一個簡單的爬蟲內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
詳解Node.js開發(fā)中的express-session
express-session?是基于express框專門用于處理session的中間件,本篇文章主要介紹了詳解Node.js開發(fā)中的express-session,有興趣的可以了解一下<BR>2017-05-05Nodejs實戰(zhàn)心得之eventproxy模塊控制并發(fā)
本篇文章給大家分享我的nodejs實戰(zhàn)心得,如何使用eventproxy模塊控制并發(fā),感興趣的朋友可以參考下2015-10-10解決nodejs報錯Error:EPERM:operation not permitted,mkdi
這篇文章主要介紹了解決nodejs報錯Error:EPERM:operation not permitted,mkdir‘xxxxxxxxxxxxxxxx‘問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-02-02Node.js中使用事件發(fā)射器模式實現(xiàn)事件綁定詳解
這篇文章主要介紹了Node.js中使用事件發(fā)射器模式實現(xiàn)事件綁定詳解,本文一并講解了回調模式、發(fā)射器模式、事件類型等基礎知識做了補充,需要的朋友可以參考下2014-08-08Node.js中console.log()輸出彩色字體的方法示例
這篇文章主要給大家介紹了關于Node.js中console.log()輸出彩色字體的相關資料,文中通過示例代碼介紹的非常詳細,對大家學習或者使用Node.js具有一定的參考學習價值,需要的朋友們下面來一起學習學習吧2019-12-12