1. 程式人生 > >爬蟲——cookie模擬登陸

爬蟲——cookie模擬登陸

cookie適用於抓取需要登入才能訪問的頁面網站

cookie和session機制

http協議為無連線協議,cookie: 存放在客戶端瀏覽器,session: 存放在Web伺服器

 

人人網登入案例

方法一:登入網站手動抓取Cookie

1、先登入成功1次,獲取到攜帶登陸資訊的Cookie

  登入成功 - 個人主頁(http://www.renren.com/971989504/profile) - F12抓包 - 重新整理個人主頁 - 找到主頁的包(home)

  一般cookie都在all--> home 資料包中,

2、攜帶著cookie發請求

import requests
​
class RenRenLogin(object):
   def __init__(self):
       # url為需要登入才能正常訪問的地址
       self.url = 'http://www.renren.com/967469305/profile'
       # headers中的cookie為登入成功後抓取到的cookie
       self.headers = {
           # 此處注意cookie,要自己抓取
           "Cookie": "xxx",
           "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36",
      }
​
   # 獲取個人主頁響應
   def get_html(self):
       html = requests.get(url=self.url,headers=self.headers,verify=False).text
       print(html)
       self.parse_html(html)
​
   # 可獲取並解析整個人人網內需要登入才能訪問的地址
   def parse_html(self,html):
       pass
​
if __name__ == '__main__':
   spider = RenRenLogin()
   spider.get_html()

方法二:requests模組處理Cookie

requests模組提供了session類,來實現客戶端和服務端的會話保持​

1、例項化session物件

  session = requests.session()

2、讓session物件傳送get或者post請求

  res = session.post(url=url,data=data,headers=headers)

  res = session.get(url=url,headers=headers)​

3. 思路梳理

瀏覽器原理: 訪問需要登入的頁面會帶著之前登入過的cookie

程式原理: 同樣帶著之前登入的cookie去訪問 - 由session物件完成

1、例項化session物件

2、登入網站: session物件傳送請求,登入對應網站,把cookie儲存在session物件中

3、訪問頁面: session物件請求需要登入才能訪問的頁面,session能夠自動攜帶之前的這個cookie,進行請求

具體步驟

1、尋找登入時POST的地址

  在登陸介面檢視網頁原始碼,檢視form表單,找action對應的地址: http://www.renren.com/PLogin.do

2、傳送使用者名稱和密碼資訊到POST的地址

  * 使用者名稱和密碼資訊以字典的方式傳送

    鍵 :<input>標籤中name的值(email,password)

    值 :真實的使用者名稱和密碼

    post_data = {'email':'','password':''}

程式實現

1、先POST: 把使用者名稱和密碼資訊POST到某個地址中

2、再GET: 正常請求去獲取頁面資訊

import requests
from lxml import etree


class RenrenSpider(object):
    def __init__(self):
        self.post_url = 'http://www.renren.com/PLogin.do'
        self.get_url = 'http://www.renren.com/967469305/profile'
        # email和password為<input>節點中name的屬性值
        self.form_data = {
            'email': '******',     # 使用者名稱
            'password': '*******'} # 密碼
        self.session = requests.session()  # 例項化session會話保持物件
        self.headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36',
            'Referer': 'http://www.renren.com/SysHome.do'}

    # 先post 再get
    def get_html(self):
        # 先POST,把使用者名稱和密碼資訊POST到一個地址
        self.session.post(url=self.post_url, data=self.form_data, headers=self.headers)
        # 再session.get()個人主頁
        html = self.session.get(url=self.get_url, headers=self.headers).text
        self.parse_html(html)

    def parse_html(self, html):
        parse_html = etree.HTML(html)
        r_list = parse_html.xpath('//li[@class="school"]/span/text()')
        print(r_list)


if __name__ == '__main__':
    spider = RenrenSpider()
    spider.get_html()

方法三

1、把抓取到的cookie處理為字典
2、使用requests.get()中的引數:cookies

import requests
from lxml import etree


class RenrenLogin(object):
    def __init__(self):
        # url為需要登入才能正常訪問的地址
        self.url = 'http://www.renren.com/967469305/profile'
        self.headers = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'}

    # 將字串cookie轉為字典格式
    def get_cookie_dict(self):
        cookie_dict = {}
        cookies = 'td_cookie=18446744073093166409; anonymid=jzc3yiknvd9kwr; depovince=GW; jebecookies=67976425-f482-44a7-9668-0469a6a14d16|||||; _r01_=1; JSESSIONID=abcp_jUgWA4RdcgwXqtYw; ick_login=f502b729-d6cb-4085-8d74-4308a0a8a17d; _de=4DBCFCC17D9E50C8C92BCDC45CC5C3B7; p=cae86d9f12c5a1ba30901ad3d6ac992f5; first_login_flag=1; ln_uact=13603263409; ln_hurl=http://hdn.xnimg.cn/photos/hdn221/20181101/1550/h_main_qz3H_61ec0009c3901986.jpg; t=6d191b90a0236cea74f99b9d88d3fbd25; societyguester=6d191b90a0236cea74f99b9d88d3fbd25; id=967469305; xnsid=6cbc5509; ver=7.0; loginfrom=null; jebe_key=bd6eb791-92b2-4141-b8ed-53d17551d830%7C2012cb2155debcd0710a4bf5a73220e8%7C1565838783310%7C1%7C1565838784555; jebe_key=bd6eb791-92b2-4141-b8ed-53d17551d830%7C2012cb2155debcd0710a4bf5a73220e8%7C1565838783310%7C1%7C1565838784558; wp_fold=0'
        for kv in cookies.split('; '):
            # kv: 'td_cookie=184xxx'
            key = kv.split('=')[0]
            value = kv.split('=')[1]
            cookie_dict[key] = value

        return cookie_dict

    # 獲取個人主頁響應
    def get_html(self):
        # 獲取cookies
        cookies = self.get_cookie_dict()
        print(cookies)
        html = requests.get(url=self.url, headers=self.headers, cookies=cookies, ).text
        self.parse_html(html)

    # 可獲取並解析整個人人網內需要登入才能訪問的地址
    def parse_html(self, html):
        parse_html = etree.HTML(html)
        r_list = parse_html.xpath('//*[@id="operate_area"]/div[1]/ul/li[1]/span/text()')
        print(r_list)


if __name__ == '__main__':
    spider = RenrenLogin()
    spider.get_html()

 

&n