1. 程式人生 > >Scrapy框架模擬登入之cookie登入

Scrapy框架模擬登入之cookie登入

新建douban專案

通過charles  獲取到cookie後

貼上進入pycharm, 尼瑪格式混亂,無奈手工新增冒號,同時將=號換成:號。。。

cookies = {
    "bid": "EP3q1inffgg",
    "__yadk_uid" : "bIJElZgmoiojxX9iPANYuW69wOsqZtMC",
    "ll" : "118282",
    "_vwo_uuid_v2" : "FC33D3A160F773772BD0D3615F3DCAC3|744bce8c3d02e8ebcfe5c58fc91f033c",
    "ps" : "y",
    "push_noty_num" : "0",
    "push_doumail_num" : "0",
    "__utmv" : "30149280.18179",
    "ap" : "1",
    "_ga" : "GA1.2.980617011.1514707464",
    "_gid" : "GA1.2.394721026.1532612698",
    "ue" : "
[email protected]
", "douban-profile-remind" : "1", "__utma" : "30149280.980617011.1514707464.1532625684.1532662495.8", "__utmc" : "30149280", "__utmz" : "30149280.1532662495.8.6.utmcsr=baidu|utmccn=(organic)|utmcmd=organic", "dbcl2" : "181794852:W8i5o4WaLXE", "ck" : "Hm8k", "_pk_ref.100001.8cb4" : "%5B%22%22%2C%22%22%2C1532694810%2C%22https%3A%2F%2Fwww.baidu.com%2Flink%3Furl%3DrYWBcWG4VS_zim1mZVy7wTOi2J8PrON8INtoQurnDx6Vo3yiM1o3P12FUeOjmP36 % 26wd % 3D % 26eqid % 3D87bd504200001569000000035b5b1115 % 22 % 5D", "_pk_id.100001.8cb4" : "bd09bb9234658e2e.1514707463.8.1532694810.1532665176.", "_pk_ses.100001.8cb4" : "*", "__ads_session" : "46a/xu60Igm+tEEqLgA=" }

注意cookie粘貼後,會多出一些空格,會導致cookie無效;

原始碼如下:

# -*- coding: utf-8 -*-
import scrapy

'''
    豆瓣cookie登入
'''
class DbCookieSpider(scrapy.Spider):
    name = 'db_cookie'
    allowed_domains = ['douban.com']
    start_urls = ['https://www.douban.com/']

    headers = {
        "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36"
    }

    cookies = {
        "bid": "EP3q1inffgg",
        "__yadk_uid" : "bIJElZgmoiojxX9iPANYuW69wOsqZtMC",
        "ll" : "118282",
        "_vwo_uuid_v2" : "FC33D3A160F773772BD0D3615F3DCAC3|744bce8c3d02e8ebcfe5c58fc91f033c",
        "ps" : "y",
        "push_noty_num" : "0",
        "push_doumail_num" : "0",
        "__utmv" : "30149280.18179",
        "ap" : "1",
        "_ga" : "GA1.2.980617011.1514707464",
        "_gid" : "GA1.2.394721026.1532612698",
        "ue" : "
[email protected]
", "douban-profile-remind" : "1", "__utma" : "30149280.980617011.1514707464.1532625684.1532662495.8", "__utmc" : "30149280", "__utmz" : "30149280.1532662495.8.6.utmcsr=baidu|utmccn=(organic)|utmcmd=organic", "dbcl2" : "181794852:W8i5o4WaLXE", "ck" : "Hm8k", "_pk_ref.100001.8cb4" : "%5B%22%22%2C%22%22%2C1532694810%2C%22https%3A%2F%2Fwww.baidu.com%2Flink%3Furl%3DrYWBcWG4VS_zim1mZVy7wTOi2J8PrON8INtoQurnDx6Vo3yiM1o3P12FUeOjmP36 % 26wd % 3D % 26eqid % 3D87bd504200001569000000035b5b1115 % 22 % 5D", "_pk_id.100001.8cb4" : "bd09bb9234658e2e.1514707463.8.1532694810.1532665176.", "_pk_ses.100001.8cb4" : "*", "__ads_session" : "46a/xu60Igm+tEEqLgA=" } def start_requests(self): return [scrapy.FormRequest(url="https://www.douban.com/people/xxxxx/", headers=self.headers, cookies=self.cookies, callback=self.parse_page)] def parse_page(self, response): print(response.status) with open("dbcookie.json", "w", encoding="utf-8") as f: f.write(response.text)

最後dbcookie.json 檔案會儲存douban的個人主頁資訊,success!

相關推薦

Scrapy框架模擬登入cookie登入

新建douban專案 通過charles  獲取到cookie後 貼上進入pycharm, 尼瑪格式混亂,無奈手工新增冒號,同時將=號換成:號。。。 cookies = { "bid": "EP3q1inffgg", "__yadk_uid" : "bI

scrapy知乎模擬登入cookie登入

模擬登入# -*- coding: utf-8 -*- import scrapy from scrapy import cmdline #from scrapy.spiders import CrawlSpider import scrapy from scrap

python爬蟲scrapy框架——人工識別知乎登入知乎倒立文字驗證碼和數字英文驗證碼

import requests try: import cookielib except: import http.cookiejar as cookielib import re import time def get_xsrf(): # 獲取xsrf code res

使用scrapy框架+模擬瀏覽器方法實現爬取智聯的職位資訊

由於智聯的頁面是由js動態載入的,一般的方法只能得到js載入前的頁面,為了得到載入過的頁面需要通過模擬瀏覽器來拿到完整的頁面. 下面的程式碼只是簡單的實現,爬取智聯頁面的部分功能,其他根據需要自己實現 中介軟體(middleswares.py)程式碼: from scrapy.ht

Scrapy框架的使用Scrapy對接Splash

之前我們實現了Scrapy對接Selenium抓取淘寶商品的過程,這是一種抓取JavaScript動態渲染頁面的方式。除了Selenium,Splash也可以實現同樣的功能。本節我們來了解Scrapy對接Splash來進行頁面抓取的方式。一、準備工作請確保Splash已經正確

淘淘商城系列——單點登入使用者登入

我們先來看下使用者登入流程圖,如下圖所示。使用者登入涉及到三個部分,第一部分是淘淘商城前臺工程,第二部分是單點登入服務,第三部分是Redis服務。具體流程下圖已經說的很明白了,我就不再囉嗦一遍了,相比於傳統的登入,我們沒有把使用者登入資訊存在session當中,

淘淘商城系列——單點登入使用者登入頁面實現

我們來看下login.jsp頁面,如下圖所示。可以看到<input .../>標籤中並沒有定義onclick方法,只是定義了個id="loginsubmit",那麼onclick事件在哪兒定義了呢? 其實是在js程式碼當中定義了,如下圖所示,頁

第三方登入QQ登入(二)——OAuth2.0處理流程介紹(以QQ登入為例)

為了讓網站更快接入,騰訊提供了JS SDK的接入方案,具體點選這裡或者點選這裡進行檢視。不過也可以自己寫程式碼,當然你需要了解QQ的OAuth2.0的處理流程(Web Server Flow)。OAuth2.0的處理流程:點選這裡檢視官方Wiki。1.授權:獲取授權碼Auth

淘淘商城——單點登入使用者登入

我們先來看下使用者登入流程圖,如下圖所示。使用者登入涉及到三個部分,第一部分是淘淘商城前臺工程,第二部分是單點登入服務,第三部分是Redis服務。具體流程下圖已經說的很明白了,我就不再囉嗦一遍了,相比於傳統的登入,我們沒有把使用者登入資訊存在session當中,而是存放到了Re

Scrapy框架爬蟲模擬瀏覽器登入—獲取框架Cookies

return [FormRequest.from_response(response, url='http://edu.iqianyue.com/index_user_login', #真實post地址

thinkphp框架後臺登入頁面cookie有效期設定

目前開始學框架了,發現蠻有意思的,可能是由於人性天生對未知事物的好奇, 居然感到樂趣叢生,可是也感覺要學的東西實在太多壓力山大; 今天就碰到個後臺登入頁面設定cookie有效期的小問題

scrapy框架cookie和代理操作

一,scrapy傳送post請求 scrapy框架中預設傳送的是get請求,原始碼: scrapy.Spider父類中的start_request方法: def start_requests(self): cls = self.__class__ if

python學習網站的編寫(HTML,CSS,JS)(十七)----------示例,構造一個網頁的框架,上部標題,登入,logo,左側選單,右側內容,原始碼

結果: 顏色為了明顯,所以較為難看,可以根據自己的需要進行更改 原始碼: <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title

Django-Web框架實現登入功能

我們開啟../sign/templates/index.html檔案,實現一個登入功能。新增如下程式碼: <!DOCTYPE html> <html> <head> <title>Django Page</title> <

Selenium新增Cookie模擬無驗證碼登入

最近爬蟲碰見需要用selenium模擬登入,有驗證碼滑塊+圖片點選驗證,在解決過程中發現一篇很好的示例,雖然是無驗證碼的那種,但是還不錯,先記下來! 程式碼及註釋如下: #!coding=utf-8 import time from selenium import webdriver

(crm筆記2-6)使用者登入問題cookie記住密碼

使用者登入問題之cookie記住密碼 1、需求       這個功能其實隨處可見,任何一個網站都需要在使用者登入後為使用者記住密碼,哪怕使用者不用記住,你也要提供這個功能,而且需求很簡單,只要在使用者登入成功後,根據

Scrapy框架爬蟲登入與利用打碼介面實現自動識別驗證碼

if len(yzhm) > 0: print("出現驗證碼,請輸入驗證碼") print('驗證碼圖片地址:',yzhm) #將驗證碼圖片儲存到本地 file_path = os.path.join(os.

scrapy框架中實現登入人人網(二)(最新登入方式)

      上篇部落格說到登入人人網的時候,如果同一個賬號出錯超過三次,那麼將會出現四個漢字的驗證碼,這裡我們利用打碼平臺來破解驗證碼並傳入(實際上,如果簡單點可以通過肉眼觀察出現的驗證碼,然後input輸入結果。)如下圖所示,通過上節的分析我們知道密碼是通過加密傳

scrapy框架中實現登入人人網(一)(最新登入方式)

        最近在弄scrapy框架的問題,感覺裡面好玩的東西有很多,無意中在bilibili中看到關於在scrapy實現登入人人網的視訊,人人網可能使用者少,所以在現在的一些部落格和教程裡面看到最新的登入方法幾乎沒有,於是自己寫了這篇部落格。 &

Scrapy框架爬取有驗證碼的登入網站

使用Scrapy爬取91pron網站 **宣告:本專案旨在學習Scrapy爬蟲框架和MongoDB資料庫,不可使用於商業和個人其他意圖。若使用不當,均由個人承擔。** 首先,我們需要將scrapy框架所需的各種包,安裝好,我們就開始了! 開啟將要放專