1. 程式人生 > 實用技巧 >Python爬取微信公眾號文章、標題、文章地址

Python爬取微信公眾號文章、標題、文章地址

前言

本文的文字及圖片過濾網路,可以學習,交流使用,不具有任何商業用途,如有問題請及時聯絡我們以作處理。

Python爬蟲、資料分析、網站開發等案例教程視訊免費線上觀看

https://space.bilibili.com/523606542

基本開發環境

  • Python 3.6
  • 皮查姆

爬取兩個公眾號的文章:

1,爬取青燈程式設計公眾號所有的文章

2,爬取所有關於python的公眾號文章

爬取青燈程式設計公眾號所有的文章

1,登陸公眾號之後點選圖文

2,開啟開發者工具

3,點選超連結

相關的資料加載出來,就有關於資料包,包含了文章標題,連結,摘要,釋出時間等等,也可以選擇其他的公眾號也可以爬取的,但是這需要你有一個微信公眾號。

要加cookie

import pprint
import time
import requests
import csv

f = open('青燈公眾號文章.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['標題', '文章釋出時間', '文章地址'])
csv_writer.writeheader()

for page in range(0, 40, 5):
    url = f'https://mp.weixin.qq.com/cgi-bin/appmsg?action=list_ex&begin={page}&count=5&fakeid=&type=9&query=&token=1252678642&lang=zh_CN&f=json&ajax=1
' headers = { 'cookie': '加cookie', 'referer': 'https://mp.weixin.qq.com/cgi-bin/appmsg?t=media/appmsg_edit_v2&action=edit&isNew=1&type=10&createType=0&token=1252678642&lang=zh_CN', 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36
', } response = requests.get(url=url, headers=headers) html_data = response.json() pprint.pprint(response.json()) lis = html_data['app_msg_list'] for li in lis: title = li['title'] link_url = li['link'] update_time = li['update_time'] timeArray = time.localtime(int(update_time)) otherStyleTime = time.strftime("%Y-%m-%d %H:%M:%S", timeArray) dit = { '標題': title, '文章釋出時間': otherStyleTime, '文章地址': link_url, } csv_writer.writerow(dit) print(dit)

爬取所有關於python的公眾號文章

1,搜狗搜尋python選擇微信

注意:如果不登陸只能爬取前十頁資料,登陸之後可以爬取2W多篇文章。

2,爬取標題,公眾號,文章地址,釋出時間靜態網頁直接爬取即可

import time
import requests
import parsel
import csv

f = open('公眾號文章.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=['標題', '公眾號', '文章釋出時間', '文章地址'])
csv_writer.writeheader()

for page in range(1, 2447):
    url = f'https://weixin.sogou.com/weixin?query=python&_sug_type_=&s_from=input&_sug_=n&type=2&page={page}&ie=utf8'
    headers = {
        'Cookie': '自己的cookie',
        'Host': 'weixin.sogou.com',
        'Referer': 'https://www.sogou.com/web?query=python&_asf=www.sogou.com&_ast=&w=01019900&p=40040100&ie=utf8&from=index-nologin&s_from=index&sut=1396&sst0=1610779538290&lkt=0%2C0%2C0&sugsuv=1590216228113568&sugtime=1610779538290',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36',
    }
    response = requests.get(url=url, headers=headers)
    selector = parsel.Selector(response.text)
    lis = selector.css('.news-list li')
    for li in lis:
        title_list = li.css('.txt-box h3 a::text').getall()
        num = len(title_list)
        if num == 1:
            title_str = 'python' + title_list[0]
        else:
            title_str = 'python'.join(title_list)

        href = li.css('.txt-box h3 a::attr(href)').get()
        article_url = 'https://weixin.sogou.com' + href
        name = li.css('.s-p a::text').get()
        date = li.css('.s-p::attr(t)').get()
        timeArray = time.localtime(int(date))
        otherStyleTime = time.strftime("%Y-%m-%d %H:%M:%S", timeArray)
        dit = {
            '標題': title_str,
            '公眾號': name,
            '文章釋出時間': otherStyleTime,
            '文章地址': article_url,
        }
        csv_writer.writerow(dit)
        print(title_str, name, otherStyleTime, article_url)