欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

用Python程序抓取網(wǎng)頁的HTML信息的一個小實例

 更新時間:2015年05月02日 15:02:49   作者:cyqian  
這篇文章主要介紹了用Python程序抓取網(wǎng)頁的HTML信息的一個小實例,用到的方法同時也是用Python編寫爬蟲的基礎(chǔ),需要的朋友可以參考下

抓取網(wǎng)頁數(shù)據(jù)的思路有好多種,一般有:直接代碼請求http、模擬瀏覽器請求數(shù)據(jù)(通常需要登錄驗證)、控制瀏覽器實現(xiàn)數(shù)據(jù)抓取等。這篇不考慮復(fù)雜情況,放一個讀取簡單網(wǎng)頁數(shù)據(jù)的小例子:
目標數(shù)據(jù)

將ittf網(wǎng)站上這個頁面上所有這些選手的超鏈接保存下來。

201552150315618.png (600×587)

數(shù)據(jù)請求

真的很喜歡符合人類思維的庫,比如requests,如果是要直接拿網(wǎng)頁文本,一句話搞定:

doc = requests.get(url).text

解析html獲得數(shù)據(jù)

以beautifulsoup為例,包含獲取標簽、鏈接,以及根據(jù)html層次結(jié)構(gòu)遍歷等方法。參考見這里。下面這個片段,從ittf網(wǎng)站上獲取指定頁面上指定位置的鏈接。

url = 'http://www.ittf.com/ittf_ranking/WR_Table_3_A2.asp?Age_category_1=&Age_category_2=&Age_category_3=&Age_category_4=&Age_category_5=&Category=100W&Cont=&Country=&Gender=W&Month1=4&Year1=2015&s_Player_Name=&Formv_WR_Table_3_Page='+str(page)
doc = requests.get(url).text
soup = BeautifulSoup(doc)
atags = soup.find_all('a')
rank_link_pre = 'http://www.ittf.com/ittf_ranking/'

mlfile = open(linkfile,'a')
for atag in atags:
  #print atag
  if atag!=None and atag.get('href') != None:
    if "WR_Table_3_A2_Details.asp" in atag['href']:
      link = rank_link_pre + atag['href']
      links.append(link)
      mlfile.write(link+'\n')
      print 'fetch link: '+link
mlfile.close()

相關(guān)文章

最新評論