node.js做一個簡單的爬蟲案例教程
準備工作
- 首先,你需要下載 nodejs,這個應該沒啥問題吧
- 原文要求下載 webstrom,我電腦上本來就有,但其實不用下載,完全在命令行里面操作就行
創(chuàng)建工程
準備工作做完了,下面就開始創(chuàng)建工程了
- 首先,在你想要放資源的地方創(chuàng)建文件夾,比如我在 E 盤里面創(chuàng)建了一個 myStudyNodejs 的文件夾
- 在命令行里面進入你創(chuàng)建的文件夾 如圖
進入 e 盤:E:
進入文件夾:cd myStudyNodejs(你創(chuàng)建的文件夾的名字)
注意全是英文符號 - 初始化項目,在你創(chuàng)建的文件夾下面運行 npm init 初始化項目
一路回車,最后輸個 yes 就行 - 運行完以后,會在文件夾里面生成一個 package.json 的文件,里面包含了項目的一些基本信息。
- 安裝所需要的包
在所創(chuàng)建的文件夾的目錄下運行
npm install cheerio –save
npm install request -save
爬武大的話,這兩個包就夠了,如果想爬草榴需要額外的轉換編碼的包,windows 上面是
npm install iconv-lite -save
Mac 上面是 npm install iconv -save
運行結果應該第二幅圖這樣,中間手滑少寫了個字母 - 創(chuàng)建文件
在你所創(chuàng)建的文件夾下面創(chuàng)建一個 data 文件夾用于保存爬到的文本數據。
創(chuàng)建一個 image 文件夾用于保存圖片數據。
創(chuàng)建一個 js 文件用來寫程序。比如 study.js。(創(chuàng)建一個記事本文件將 .txt 改為 .js)
說明 –save 的目的是將項目對該包的依賴寫入到 package.json 文件中。


武大計算機學院新聞爬蟲代碼
下面就是武大計算機學院新聞的爬蟲代碼了,復制到創(chuàng)建的 .js 文件中,保存。
var http = require('http');
var fs = require('fs');
var cheerio = require('cheerio');
var request = require('request');
var i = 0;
//初始url
var url = "http://cs.whu.edu.cn/a/xinwendongtaifabu/2018/0428/7053.html";
function fetchPage(x) { //封裝了一層函數
startRequest(x);
}
function startRequest(x) {
//采用http模塊向服務器發(fā)起一次get請求
http.get(x, function (res) {
var html = ''; //用來存儲請求網頁的整個html內容
var titles = [];
res.setEncoding('utf-8'); //防止中文亂碼
//監(jiān)聽data事件,每次取一塊數據
res.on('data', function (chunk) {
html += chunk;
});
//監(jiān)聽end事件,如果整個網頁內容的html都獲取完畢,就執(zhí)行回調函數
res.on('end', function () {
var $ = cheerio.load(html); //采用cheerio模塊解析html
var news_item = {
//獲取文章的標題
title: $('div#container dt').text().trim(),
i: i = i + 1,
};
console.log(news_item); //打印新聞信息
var news_title = $('div#container dt').text().trim();
savedContent($,news_title); //存儲每篇文章的內容及文章標題
savedImg($,news_title); //存儲每篇文章的圖片及圖片標題
//下一篇文章的url
var nextLink="http://cs.whu.edu.cn" + $("dd.Paging a").attr('href');
str1 = nextLink.split('-'); //去除掉url后面的中文
str = encodeURI(str1[0]);
//這是亮點之一,通過控制I,可以控制爬取多少篇文章.武大只有8篇,所以設置為8
if (i <= 8) {
fetchPage(str);
}
});
}).on('error', function (err) {
console.log(err);
});
}
//該函數的作用:在本地存儲所爬取的新聞內容資源
function savedContent($, news_title) {
$('dd.info').each(function (index, item) {
var x = $(this).text();
var y = x.substring(0, 2).trim();
if (y == '') {
x = x + '\n';
//將新聞文本內容一段一段添加到/data文件夾下,并用新聞的標題來命名文件
fs.appendFile('./data/' + news_title + '.txt', x, 'utf-8', function (err) {
if (err) {
console.log(err);
}
});
}
})
}
//該函數的作用:在本地存儲所爬取到的圖片資源
function savedImg($,news_title) {
$('dd.info img').each(function (index, item) {
var img_title = $(this).parent().next().text().trim(); //獲取圖片的標題
if(img_title.length>35||img_title==""){
img_title="Null";
}
var img_filename = img_title + '.jpg';
var img_src = 'http://cs.whu.edu.cn' + $(this).attr('src'); //獲取圖片的url
//采用request模塊,向服務器發(fā)起一次請求,獲取圖片資源
request.head(img_src,function(err,res,body){
if(err){
console.log(err);
}
});
request(img_src).pipe(fs.createWriteStream('./image/'+news_title + '---' + img_filename)); //通過流的方式,把圖片寫到本地/image目錄下,并用新聞的標題和圖片的標題作為圖片的名稱。
})
}
fetchPage(url); //主程序開始運行
下面就是激動人心的時刻了,在當前文件夾下面,運行創(chuàng)建的 js 文件,比如我的是 news.js。
npm news.js

文本資源:

圖片資源:

草榴技術討論區(qū)爬蟲
爬完武大的新聞并不過癮,于是嘗試了一波爬草榴的技術討論區(qū)(當然也能爬一些你懂的)。其中遇到了一些問題。
爬草榴的時候,發(fā)送 http 請求報文頭里面需要包含 User-Agent 字段,于是需要把 初始url 做如下改變
var url = {
hostname: 'cl.5fy.xyz',
path: '/thread0806.php?fid=7',
headers: {
'Content-Type': 'text/html',
//沒有這個字段的話訪問不了
'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36',
}};
其次,nodejs 只支持 抓取 utf-8 字符編碼的網站,所以需要安裝額外的包來轉換編碼,所以修改代碼如下
/*
* @Author: user
* @Date: 2018-04-28 19:34:50
* @Last Modified by: user
* @Last Modified time: 2018-04-30 21:35:26
*/
var http = require('http');
var fs = require('fs');
var cheerio = require('cheerio');
var request = require('request');
var iconv=require('iconv-lite');
var i = 0;
//用來判斷存儲還是訪問
var temp=0;
let startPage=3;//從哪一頁開始爬
let page=startPage;
let endPage=5;//爬到哪一頁
let searchText='';//爬取的關鍵字,默認全部爬取,根據自己需要
//初始url
var url = {
hostname: '1024liuyouba.tk',
path: '/thread0806.php?fid=16'+'&search=&page='+startPage,
headers: {
'Content-Type': 'text/html',
//沒有這個字段的話訪問不了
'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.86 Safari/537.36',
}};
//存儲首頁url
urlList=[];
//封裝了一層函數
function fetchPage(x) {
setTimeout(function(){
startRequest(x); },5000)
}
//首先存儲要訪問界面的url
function getUrl(x){
temp++;
http.get(x,function(res){
var html = '';
res.setEncoding('binary');
res.on('data', function (chunk) {
html += chunk;
});
res.on('end', function () {
var buf=new Buffer(html,'binary');
var str=iconv.decode(buf,'GBK');
var $ = cheerio.load(str); //采用cheerio模塊解析html
$('tr.tr3 td.tal h3 a').each(function(){
var search=$(this).text();
if(search.indexOf(searchText)>=0){
var nextLink="http://cl.5fy.xyz/" + $(this).attr('href');
str1 = nextLink.split('-'); //去除掉url后面的中文
str = encodeURI(str1[0]);
urlList.push(str); }
})
page++;
if(page<endPage){
//存儲下一頁url
x.path='/thread0806.php?fid=16'+'&search=&page='+page,
getUrl(x);
}else if(urlList.length!=0){
fetchPage(urlList.shift());
}else{
console.log('未查詢到關鍵字!');
}
})
}).on('error', function (err) {
console.log(err);
});
}
function startRequest(x) {
if(temp===0){
getUrl(x);
}
else{
//采用http模塊向服務器發(fā)起一次get請求
http.get(x, function (res) {
var html = ''; //用來存儲請求網頁的整個html內容
res.setEncoding('binary');
var titles = [];
//監(jiān)聽data事件,每次取一塊數據
res.on('data', function (chunk) {
html += chunk;
});
//監(jiān)聽end事件,如果整個網頁內容的html都獲取完畢,就執(zhí)行回調函數
res.on('end', function () {
var buf=new Buffer(html,'binary');
var str=iconv.decode(buf,'GBK');
var $ = cheerio.load(str); //采用cheerio模塊解析html
var news_item = {
//獲取文章的標題
title: $('h4').text().trim(),
//i是用來判斷獲取了多少篇文章
i: i = i + 1,
};
console.log(news_item); //打印信息
var news_title = $('h4').text().trim();
savedContent($,news_title); //存儲每篇文章的內容及文章標題
savedImg($,news_title); //存儲每篇文章的圖片及圖片標題
//如果沒訪問完繼續(xù)訪問
if (urlList.length!=0 ) {
fetchPage(urlList.shift());
}
});
}).on('error', function (err) {
console.log(err);
});
}
}
//該函數的作用:在本地存儲所爬取的文本內容資源
function savedContent($, news_title) {
$("div.t2[style] .tpc_content.do_not_catch").each(function (index, item) {
var x = $(this).text();
x = x + '\n';
//將新聞文本內容一段一段添加到/data文件夾下,并用新聞的標題來命名文件
fs.appendFile('./data/' + news_title + '.txt', x, 'utf-8', function (err) {
if (err) {
console.log(err);
}
});
})
}
//該函數的作用:在本地存儲所爬取到的圖片資源
function savedImg($,news_title) {
//創(chuàng)建文件夾
fs.mkdir('./image/'+news_title, function (err) {
if(err){console.log(err)}
});
$('.tpc_content.do_not_catch input[src]').each(function (index, item) {
var img_title = index;//給每張圖片附加一個編號
var img_filename = img_title + '.jpg';
var img_src = $(this).attr('src'); //獲取圖片的url
//采用request模塊,向服務器發(fā)起一次請求,獲取圖片資源
request.head(img_src,function(err,res,body){
if(err){
console.log(err);
}
});
setTimeout(function(){
request({uri: img_src,encoding: 'binary'}, function (error, response, body) {
if (!error && response.statusCode == 200) {
fs.writeFile('./image/'+news_title+'/' + img_filename, body, 'binary', function (err) {
if(err){console.log(err)}
});
}
})
});
})
}
fetchPage(url); //主程序開始運行
成果展示:

到此這篇關于node.js做一個簡單的爬蟲案例教程的文章就介紹到這了,更多相關node.js做一個簡單的爬蟲內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
詳解Node.js開發(fā)中的express-session
express-session?是基于express框專門用于處理session的中間件,本篇文章主要介紹了詳解Node.js開發(fā)中的express-session,有興趣的可以了解一下<BR>2017-05-05
Nodejs實戰(zhàn)心得之eventproxy模塊控制并發(fā)
本篇文章給大家分享我的nodejs實戰(zhàn)心得,如何使用eventproxy模塊控制并發(fā),感興趣的朋友可以參考下2015-10-10
解決nodejs報錯Error:EPERM:operation not permitted,mkdi
這篇文章主要介紹了解決nodejs報錯Error:EPERM:operation not permitted,mkdir‘xxxxxxxxxxxxxxxx‘問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-02-02
Node.js中console.log()輸出彩色字體的方法示例
這篇文章主要給大家介紹了關于Node.js中console.log()輸出彩色字體的相關資料,文中通過示例代碼介紹的非常詳細,對大家學習或者使用Node.js具有一定的參考學習價值,需要的朋友們下面來一起學習學習吧2019-12-12

