1. 程式人生 > >“希希敬敬對”團隊作業——敏捷衝刺4

“希希敬敬對”團隊作業——敏捷衝刺4

“希希敬敬對”百度貼吧小爬蟲任務計劃:

今天的團隊討論照片:

   龍江騰(隊長) 201810775001

     完成“爬取發帖主題人的主題回覆資料”程式碼review,明天完成程式碼,實現“把10個頁面的資料整合到一個數據組中,並進行排序”的功能。

   楊希                   201810812008

     完成程式碼,實現“爬取發帖主題人的主題回覆資料”功能,明天完成“把10個頁面的資料整合到一個數據組中,並進行排序”的程式碼review。

   何敬上     201810812004

     完成“爬取發帖主題人的主題回覆資料”程式碼review,明天完成程式碼,實現“把10個頁面的資料整合到一個數據組中,並進行排序”的功能。

遇到的問題:

  暫無

燃盡圖:

 

 

程式程式碼(基於昨天程式碼的基礎上的更新):

# 找到資料對應的網頁,分析網頁結構找到資料所在的標籤位置
#模擬HTTP請求,向伺服器傳送這個請求,獲取到伺服器返回給我們的HTML

import re
from urllib import request

class BDTBCrawler():
    url = "http://tieba.baidu.com/f?kw=%E4%B8%9C%E5%8D%8E%E7%90%86%E5%B7%A5%E5%A4%A7%E5%AD%A6&ie=utf-8"
    Name_num_list = []

    def __init__(self, url):
        BDTBCrawler.url = url

    #匹配到包含了主題作者和帖子回覆數關鍵字的標籤
    root_pattern = '<span class="threadlist_rep_num center_text"([\s\S]*?)data-field='
    # 匹配到對應的帖子回覆數
    num_pattern = 'title="回覆">([\s\S]*?)</span>'
    # 匹配到主題作者
    name_pattern = 'title="主題作者: ([\s\S]*?)"'

    #模擬HTTP請求,向伺服器傳送請求,獲取到伺服器返回給我們的HTML
    def __fetch_content(self):
        r = request.urlopen(BDTBCrawler.url)
        htmls = r.read()
        # 將伺服器返回的位元組碼轉換成字串格式
        htmls = str(htmls, encoding='utf-8')
        return htmls

    def __analysis(self, htmls):
        #root_html獲取包含了主題作者和帖子回覆數關鍵字的標籤
        root_html = re.findall(BDTBCrawler.root_pattern, htmls)
        # 用anchors這個列表來存放提取出來的主題作者和帖子回覆陣列成的字典
        anchors = []
        for html in root_html:
            # 提取主題作者(列表型別)
            name = re.findall(BDTBCrawler.name_pattern, html)
            # #提取回複數(列表型別)
            number = re.findall(BDTBCrawler.num_pattern, html)
            anchor = {'name': name, 'number': number}
            anchors.append(anchor)
            # print(anchors)
        return anchors

    def go(self):
        #使用for迴圈爬取前10頁
        htmls = ''
        for i in range(0, 10):
            pn = i * 50
            #page記錄當前爬取頁面需要在URL上新增的字串
            page = '&pn=' + str(pn)
            BDTBCrawler.url += page
            htmls += self.__fetch_content()
        anchors = self.__analysis(htmls)
        for i in anchors:
            print(i)

crawler = BDTBCrawler(BDTBCrawler.url)
crawler.go()

 程式執行結果部分截圖:

 

“希希敬敬對”百度貼吧小爬蟲任務計劃:

今天的團隊討論照片:

   龍江騰(隊長) 201810775001

     完成“爬取發帖主題人的主題回覆資料”程式碼review,明天完成程式碼,實現“把10個頁面的資料整合到一個數據組中,並進行排序”的功能。

   楊希                   201810812008

     完成程式碼,實現“爬取發帖主題人的主題回覆資料”功能,明天完成“把10個頁面的資料整合到一個數據組中,並進行排序”的程式碼review。

   何敬上     201810812004

     完成“爬取發帖主題人的主題回覆資料”程式碼review,明天完成程式碼,實現“把10個頁面的資料整合到一個數據組中,並進行排序”的功能。

遇到的問題:

  暫無

燃盡圖:

 

 

程式程式碼(基於昨天程式碼的基礎上的更新):

# 找到資料對應的網頁,分析網頁結構找到資料所在的標籤位置
#模擬HTTP請求,向伺服器傳送這個請求,獲取到伺服器返回給我們的HTML

import re
from urllib import request

class BDTBCrawler():
    url = "http://tieba.baidu.com/f?kw=%E4%B8%9C%E5%8D%8E%E7%90%86%E5%B7%A5%E5%A4%A7%E5%AD%A6&ie=utf-8"
    Name_num_list = []

    def __init__(self, url):
        BDTBCrawler.url = url

    #匹配到包含了主題作者和帖子回覆數關鍵字的標籤
    root_pattern = '<span class="threadlist_rep_num center_text"([\s\S]*?)data-field='
    # 匹配到對應的帖子回覆數
    num_pattern = 'title="回覆">([\s\S]*?)</span>'
    # 匹配到主題作者
    name_pattern = 'title="主題作者: ([\s\S]*?)"'

    #模擬HTTP請求,向伺服器傳送請求,獲取到伺服器返回給我們的HTML
    def __fetch_content(self):
        r = request.urlopen(BDTBCrawler.url)
        htmls = r.read()
        # 將伺服器返回的位元組碼轉換成字串格式
        htmls = str(htmls, encoding='utf-8')
        return htmls

    def __analysis(self, htmls):
        #root_html獲取包含了主題作者和帖子回覆數關鍵字的標籤
        root_html = re.findall(BDTBCrawler.root_pattern, htmls)
        # 用anchors這個列表來存放提取出來的主題作者和帖子回覆陣列成的字典
        anchors = []
        for html in root_html:
            # 提取主題作者(列表型別)
            name = re.findall(BDTBCrawler.name_pattern, html)
            # #提取回複數(列表型別)
            number = re.findall(BDTBCrawler.num_pattern, html)
            anchor = {'name': name, 'number': number}
            anchors.append(anchor)
            # print(anchors)
        return anchors

    def go(self):
        #使用for迴圈爬取前10頁
        htmls = ''
        for i in range(0, 10):
            pn = i * 50
            #page記錄當前爬取頁面需要在URL上新增的字串
            page = '&pn=' + str(pn)
            BDTBCrawler.url += page
            htmls += self.__fetch_content()
        anchors = self.__analysis(htmls)
        for i in anchors:
            print(i)

crawler = BDTBCrawler(BDTBCrawler.url)
crawler.go()

 程式執行結果部分截圖: