1. 程式人生 > 實用技巧 >(乾貨)你知道python爬蟲定位網頁元素有幾種方式嘛,今天帶你一一瞭解。

(乾貨)你知道python爬蟲定位網頁元素有幾種方式嘛,今天帶你一一瞭解。

本文的文字及圖片來源於網路,僅供學習、交流使用,不具有任何商業用途,版權歸原作者所有,如有問題請及時聯絡我們以作處理

以下文章來源於騰訊雲 作者:拓荒者

( 想要學習Python?Python學習交流群:1039649593,滿足你的需求,資料都已經上傳群檔案流,可以自行下載!還有海量最新2020python學習資料。 )

在做爬蟲的過程中,網頁元素的定位是比較重要的一環,本文總結了python爬蟲中比較常用的三種定位網頁元素的方式。

1.普通的BeautifulSoup find系列操作

2.BeautifulSoup css選擇器

3.xpath

這三種方式靈活運用,再配合上正則表示式,沒有什麼網頁能難倒你啦。

我們以獲取豆瓣電影top250第一頁的電影標題為例來比較:

import requests
 from bs4 import BeautifulSoup
 from lxml import etree
 
 # 通過find定位標籤
 # BeautifulSoup文件:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html
 def bs_parse_movies(html):
     movie_list = []
     soup = BeautifulSoup(html, "lxml")
     # 查詢所有class屬性為hd的div標籤
div_list = soup.find_all('div', class_='hd') # 獲取每個div中的a中的span(第一個),並獲取其文字 for each in div_list: movie = each.a.span.text.strip() movie_list.append(movie) return movie_list # css選擇器定位標籤 # 更多ccs選擇器語法:http://www.w3school.com.cn/cssref/css_selectors.asp # 注意:BeautifulSoup並不是每個語法都支援
def bs_css_parse_movies(html): movie_list = [] soup = BeautifulSoup(html, "lxml") # 查詢所有class屬性為hd的div標籤下的a標籤的第一個span標籤 div_list = soup.select('div.hd > a > span:nth-of-type(1)') # 獲取每個span的文字 for each in div_list: movie = each.text.strip() movie_list.append(movie) return movie_list # XPATH定位標籤 # 更多xpath語法:https://blog.csdn.net/gongbing798930123/article/details/78955597 def xpath_parse_movies(html): et_html = etree.HTML(html) # 查詢所有class屬性為hd的div標籤下的a標籤的第一個span標籤 urls = et_html.xpath("//div[@class='hd']/a/span[1]") movie_list = [] # 獲取每個span的文字 for each in urls: movie = each.text.strip() movie_list.append(movie) return movie_list def get_movies(): headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.82 Safari/537.36', 'Host': 'movie.douban.com' } link = 'https://movie.douban.com/top250' r = requests.get(link, headers=headers, timeout=10) print("響應狀態碼:", r.status_code) if 200 != r.status_code: return None # 三種定位元素的方式: # 普通BeautifulSoup find return bs_parse_movies(r.text) # BeautifulSoup css select return bs_css_parse_movies(r.text) # xpath return xpath_parse_movies(r.text) movies = get_movies() print(movies)