欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

如何用六步教會你使用python爬蟲爬取數據

 更新時間:2022年04月06日 10:17:49   作者:只曉得閑逛  
網絡爬蟲就是按照一定規(guī)則自動訪問互聯網上的信息并把內容下載下來的程序或腳本,下面這篇文章主要給大家介紹了關于如何用六步教會你使用python爬蟲爬取數據的相關資料,需要的朋友可以參考下

前言:

用python的爬蟲爬取數據真的很簡單,只要掌握這六步就好,也不復雜。以前還以為爬蟲很難,結果一上手,從初學到把東西爬下來,一個小時都不到就解決了。

python爬出六部曲

第一步:安裝requests庫和BeautifulSoup庫:

在程序中兩個庫的書寫是這樣的:

import requests
from bs4 import BeautifulSoup

由于我使用的是pycharm進行的python編程。所以我就講講在pycharm上安裝這兩個庫的方法。在主頁面文件選項下,找到設置。進一步找到項目解釋器。之后在所選框中,點擊軟件包上的+號就可以進行查詢插件安裝了。有過編譯器插件安裝的hxd估計會比較好入手。具體情況就如下圖所示。

第二步:獲取爬蟲所需的header和cookie:

我寫了一個爬取微博熱搜的爬蟲程序,這里就直接以它為例吧。獲取header和cookie是一個爬蟲程序必須的,它直接決定了爬蟲程序能不能準確的找到網頁位置進行爬取。

首先進入微博熱搜的頁面,按下F12,就會出現網頁的js語言設計部分。如下圖所示。找到網頁上的Network部分。然后按下ctrl+R刷新頁面。如果,進行就有文件信息,就不用刷新了,當然刷新了也沒啥問題。然后,我們?yōu)g覽Name這部分,找到我們想要爬取的文件,鼠標右鍵,選擇copy,復制下網頁的URL。就如下圖所示。

 復制好URL后,我們就進入一個網頁Convert curl commands to code。這個網頁可以根據你復制的URL,自動生成header和cookie,如下圖。生成的header和cookie,直接復制走就行,粘貼到程序中。

#爬蟲頭數據
cookies = {
    'SINAGLOBAL': '6797875236621.702.1603159218040',
    'SUB': '_2AkMXbqMSf8NxqwJRmfkTzmnhboh1ygvEieKhMlLJJRMxHRl-yT9jqmg8tRB6PO6N_Rc_2FhPeZF2iThYO9DfkLUGpv4V',
    'SUBP': '0033WrSXqPxfM72-Ws9jqgMF55529P9D9Wh-nU-QNDs1Fu27p6nmwwiJ',
    '_s_tentry': 'www.baidu.com',
    'UOR': 'www.hfut.edu.cn,widget.weibo.com,www.baidu.com',
    'Apache': '7782025452543.054.1635925669528',
    'ULV': '1635925669554:15:1:1:7782025452543.054.1635925669528:1627316870256',
}
headers = {
    'Connection': 'keep-alive',
    'Cache-Control': 'max-age=0',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36 SLBrowser/7.0.0.6241 SLBChan/25',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
    'Sec-Fetch-Site': 'cross-site',
    'Sec-Fetch-Mode': 'navigate',
    'Sec-Fetch-User': '?1',
    'Sec-Fetch-Dest': 'document',
    'Accept-Language': 'zh-CN,zh;q=0.9',
}
params = (
    ('cate', 'realtimehot'),
)

復制到程序中就像這樣。這是微博熱搜的請求頭。

第三步:獲取網頁:

我們將header和cookie搞到手后,就可以將它復制到我們的程序里。之后,使用request請求,就可以獲取到網頁了。

#獲取網頁
response = requests.get('https://s.weibo.com/top/summary', headers=headers, params=params, cookies=cookies)

第四步:解析網頁:

這個時候,我們需要回到網頁。同樣按下F12,找到網頁的Elements部分。用左上角的小框帶箭頭的標志,如下圖,點擊網頁內容,這個時候網頁就會自動在右邊顯示出你獲取網頁部分對應的代碼。

如上圖所示,我們在找到想要爬取的頁面部分的網頁代碼后,將鼠標放置于代碼上,右鍵,copy到selector部分。就如上圖所示。

第五步:分析得到的信息,簡化地址:

其實剛才復制的selector就相當于網頁上對應部分存放的地址。由于我們需要的是網頁上的一類信息,所以我們需要對獲取的地址進行分析,提取。當然,就用那個地址也不是不行,就是只能獲取到你選擇的網頁上的那部分內容。

#pl_top_realtimehot > table > tbody > tr:nth-child(1) > td.td-02 > a
#pl_top_realtimehot > table > tbody > tr:nth-child(2) > td.td-02 > a
#pl_top_realtimehot > table > tbody > tr:nth-child(9) > td.td-02 > a

這是我獲取的三條地址,可以發(fā)現三個地址有很多相同的地方,唯一不同的地方就是tr部分。由于tr是網頁標簽,后面的部分就是其補充的部分,也就是子類選擇器??梢酝茢喑?,該類信息,就是存儲在tr的子類中,我們直接對tr進行信息提取,就可以獲取到該部分對應的所有信息。所以提煉后的地址為:

#pl_top_realtimehot > table > tbody > tr > td.td-02 > a

這個過程對js類語言有一定了解的hxd估計會更好處理。不過沒有js類語言基礎也沒關系,主要步驟就是,保留相同的部分就行,慢慢的試,總會對的。

第六步:爬取內容,清洗數據

這一步完成后,我們就可以直接爬取數據了。用一個標簽存儲上面提煉出的像地址一樣的東西。標簽就會拉取到我們想獲得的網頁內容。

#爬取內容
content="#pl_top_realtimehot > table > tbody > tr > td.td-02 > a"

之后我們就要soup和text過濾掉不必要的信息,比如js類語言,排除這類語言對于信息受眾閱讀的干擾。這樣我們就成功的將信息,爬取下來了。

fo = open("./微博熱搜.txt",'a',encoding="utf-8")
a=soup.select(content)
for i in range(0,len(a)):
    a[i] = a[i].text
    fo.write(a[i]+'\n')
fo.close()

我是將數據存儲到了文件夾中,所以會有wirte帶來的寫的操作。想把數據保存在哪里,或者想怎么用,就看讀者自己了。

爬取微博熱搜的代碼實例以及結果展示:

import os
import requests
from bs4 import BeautifulSoup
#爬蟲頭數據
cookies = {
    'SINAGLOBAL': '6797875236621.702.1603159218040',
    'SUB': '_2AkMXbqMSf8NxqwJRmfkTzmnhboh1ygvEieKhMlLJJRMxHRl-yT9jqmg8tRB6PO6N_Rc_2FhPeZF2iThYO9DfkLUGpv4V',
    'SUBP': '0033WrSXqPxfM72-Ws9jqgMF55529P9D9Wh-nU-QNDs1Fu27p6nmwwiJ',
    '_s_tentry': 'www.baidu.com',
    'UOR': 'www.hfut.edu.cn,widget.weibo.com,www.baidu.com',
    'Apache': '7782025452543.054.1635925669528',
    'ULV': '1635925669554:15:1:1:7782025452543.054.1635925669528:1627316870256',
}
headers = {
    'Connection': 'keep-alive',
    'Cache-Control': 'max-age=0',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36 SLBrowser/7.0.0.6241 SLBChan/25',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
    'Sec-Fetch-Site': 'cross-site',
    'Sec-Fetch-Mode': 'navigate',
    'Sec-Fetch-User': '?1',
    'Sec-Fetch-Dest': 'document',
    'Accept-Language': 'zh-CN,zh;q=0.9',
}
params = (
    ('cate', 'realtimehot'),
)
#數據存儲
fo = open("./微博熱搜.txt",'a',encoding="utf-8")
#獲取網頁
response = requests.get('https://s.weibo.com/top/summary', headers=headers, params=params, cookies=cookies)
#解析網頁
response.encoding='utf-8'
soup = BeautifulSoup(response.text, 'html.parser')
#爬取內容
content="#pl_top_realtimehot > table > tbody > tr > td.td-02 > a"
#清洗數據
a=soup.select(content)
for i in range(0,len(a)):
    a[i] = a[i].text
    fo.write(a[i]+'\n')
fo.close()

總結

到此這篇關于如何用六步教會你使用python爬蟲爬取數據的文章就介紹到這了,更多相關python爬蟲爬取數據內容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • python使用循環(huán)打印所有三位數水仙花數的實例

    python使用循環(huán)打印所有三位數水仙花數的實例

    今天小編就為大家分享一篇python使用循環(huán)打印所有三位數水仙花數的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-11-11
  • Python 數據的累加與統(tǒng)計的示例代碼

    Python 數據的累加與統(tǒng)計的示例代碼

    這篇文章主要介紹了Python 數據的累加與統(tǒng)計的示例代碼,文中講解非常細致,代碼幫助大家更好的理解和學習,感興趣的朋友可以了解下
    2020-08-08
  • Python使用read_csv讀數據遇到分隔符問題的2種解決方式

    Python使用read_csv讀數據遇到分隔符問題的2種解決方式

    read.csv()可以從帶分隔符的文本文件中導入數據,下面這篇文章主要給大家介紹了關于Python使用read_csv讀數據遇到分隔符問題的2種解決方式,文中通過實例代碼介紹的非常詳細,需要的朋友可以參考下
    2022-07-07
  • Jupyter Notebook 文件默認目錄的查看以及更改步驟

    Jupyter Notebook 文件默認目錄的查看以及更改步驟

    這篇文章主要介紹了Jupyter Notebook 文件默認目錄的查看以及更改步驟,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-04-04
  • django修改models重建數據庫的操作

    django修改models重建數據庫的操作

    這篇文章主要介紹了django修改models重建數據庫的操作,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-03-03
  • Python?輕松實現可視化大屏

    Python?輕松實現可視化大屏

    對于從事數據領域的小伙伴來說,當需要闡述自己觀點、展示項目成果時,我們需要在最短時間內讓別人知道你的想法。我相信單調乏味的語言很難讓別人快速理解。最直接有效的方式就是將數據進行可視化展現
    2022-01-01
  • 老生常談Python startswith()函數與endswith函數

    老生常談Python startswith()函數與endswith函數

    下面小編就為大家?guī)硪黄仙U凱ython startswith()函數與endswith函數。小編覺得挺不錯的,現在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2017-09-09
  • 學習python之編寫簡單簡單連接數據庫并執(zhí)行查詢操作

    學習python之編寫簡單簡單連接數據庫并執(zhí)行查詢操作

    這篇文章主要介紹了學習python之編寫簡單簡單連接數據庫并執(zhí)行查詢操作,需要的朋友可以參考下
    2016-02-02
  • python逆向入門教程

    python逆向入門教程

    這篇文章主要介紹了python逆向入門教程,小編覺得挺不錯的,現在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2018-01-01
  • 淺談Python實現Apriori算法介紹

    淺談Python實現Apriori算法介紹

    這篇文章主要介紹了淺談Python實現Apriori算法介紹,小編覺得挺不錯的,現在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2017-12-12

最新評論