python+mongodb數據抓取詳細介紹
分享點干貨?。?!
Python數據抓取分析
編程模塊:requests,lxml,pymongo,time,BeautifulSoup
首先獲取所有產品的分類網址:
def step():
try:
headers = {
。。。。。
}
r = requests.get(url,headers,timeout=30)
html = r.content
soup = BeautifulSoup(html,"lxml")
url = soup.find_all(正則表達式)
for i in url:
url2 = i.find_all('a')
for j in url2:
step1url =url + j['href']
print step1url
step2(step1url)
except Exception,e:
print e
我們在產品分類的同時需要確定我們所訪問的地址是產品還是又一個分類的產品地址(所以需要判斷我們訪問的地址是否含有if判斷標志):
def step2(step1url):
try:
headers = {
。。。。
}
r = requests.get(step1url,headers,timeout=30)
html = r.content
soup = BeautifulSoup(html,"lxml")
a = soup.find('div',id='divTbl')
if a:
url = soup.find_all('td',class_='S-ITabs')
for i in url:
classifyurl = i.find_all('a')
for j in classifyurl:
step2url = url + j['href']
#print step2url
step3(step2url)
else:
postdata(step1url)
當我們if判斷后為真則將第二頁的分類網址獲取到(第一個步驟),否則執(zhí)行postdata函數,將網頁產品地址抓??!
def producturl(url):
try:
p1url = doc.xpath(正則表達式)
for i in xrange(1,len(p1url) + 1):
p2url = doc.xpath(正則表達式)
if len(p2url) > 0:
producturl = url + p2url[0].get('href')
count = db[table].find({'url':producturl}).count()
if count <= 0:
sn = getNewsn()
db[table].insert({"sn":sn,"url":producturl})
print str(sn) + 'inserted successfully'
else:
'url exist'
except Exception,e:
print e
其中為我們所獲取到的產品地址并存入mongodb中,sn作為地址的新id。
下面我們需要在mongodb中通過新id索引來獲取我們的網址并進行訪問,對產品進行數據分析并抓取,將數據更新進數據庫內!
其中用到最多的BeautifulSoup這個模塊,但是對于存在于js的價值數據使用BeautifulSoup就用起來很吃力,所以對于js中的數據我推薦使用xpath,但是解析網頁就需要用到HTML.document_fromstring(url)方法來解析網頁。
對于xpath抓取價值數據的同時一定要細心!如果想了解xpath就在下面留言,我會盡快回答!
def parser(sn,url):
try:
headers = {
。。。。。。
}
r = requests.get(url, headers=headers,timeout=30)
html = r.content
soup = BeautifulSoup(html,"lxml")
dt = {}
#partno
a = soup.find("meta",itemprop="mpn")
if a:
dt['partno'] = a['content']
#manufacturer
b = soup.find("meta",itemprop="manufacturer")
if b:
dt['manufacturer'] = b['content']
#description
c = soup.find("span",itemprop="description")
if c:
dt['description'] = c.get_text().strip()
#price
price = soup.find("table",class_="table table-condensed occalc_pa_table")
if price:
cost = {}
for i in price.find_all('tr'):
if len(i) > 1:
td = i.find_all('td')
key=td[0].get_text().strip().replace(',','')
val=td[1].get_text().replace(u'\u20ac','').strip()
if key and val:
cost[key] = val
if cost:
dt['cost'] = cost
dt['currency'] = 'EUR'
#quantity
d = soup.find("input",id="ItemQuantity")
if d:
dt['quantity'] = d['value']
#specs
e = soup.find("div",class_="row parameter-container")
if e:
key1 = []
val1= []
for k in e.find_all('dt'):
key = k.get_text().strip().strip('.')
if key:
key1.append(key)
for i in e.find_all('dd'):
val = i.get_text().strip()
if val:
val1.append(val)
specs = dict(zip(key1,val1))
if specs:
dt['specs'] = specs
print dt
if dt:
db[table].update({'sn':sn},{'$set':dt})
print str(sn) + ' insert successfully'
time.sleep(3)
else:
error(str(sn) + '\t' + url)
except Exception,e:
error(str(sn) + '\t' + url)
print "Don't data!"
最后全部程序運行,將價值數據分析處理并存入數據庫中!
以上就是本文關于python+mongodb數據抓取詳細介紹的全部內容,希望對大家有所幫助。感興趣的朋友可以繼續(xù)參閱本站:Python探索之創(chuàng)建二叉樹、Python探索之修改Python搜索路徑、淺談python中copy和deepcopy中的區(qū)別等,有什么問題,歡迎留言一起交流討論。
- python實現美團訂單推送到測試環(huán)境,提供便利操作示例
- python連接mongodb操作數據示例(mongodb數據庫配置類)
- Python操作MongoDB數據庫PyMongo庫使用方法
- python操作mongodb根據_id查詢數據的實現方法
- python實現爬蟲數據存到 MongoDB
- python連接MySQL、MongoDB、Redis、memcache等數據庫的方法
- Python常見MongoDB數據庫操作實例總結
- Python操作mongodb數據庫進行模糊查詢操作示例
- python 接口測試response返回數據對比的方法
- python實現比對美團接口返回數據和本地mongo數據是否一致示例
相關文章
Python利用matplotlib繪制圓環(huán)圖(環(huán)形圖)的實戰(zhàn)案例
環(huán)形圖也被稱為圓環(huán)圖,它在功能上與餅圖相同,只是中間有一個空白,并且能夠同時支持多個統(tǒng)計數據,下面這篇文章主要給大家介紹了關于Python利用matplotlib繪制圓環(huán)圖的實戰(zhàn)案例,文中通過實例代碼介紹的非常詳細,需要的朋友可以參考下2022-08-08
在Mac OS上使用mod_wsgi連接Python與Apache服務器
這篇文章主要介紹了在Mac OS上使用mod_wsgi連接Python與Apache服務器的方法,同時文中還介紹了使用Python的Django框架時mod_wsgi連接方式下可能遇到的問題的一般解決方法,需要的朋友可以參考下2015-12-12

