1. 程式人生 > 其它 >老外最喜歡的美食聖地 是不是你家?python 分析20w資料 「附程式碼」

老外最喜歡的美食聖地 是不是你家?python 分析20w資料 「附程式碼」

一、環境及依賴

語言:python3.8
抓取:selenium
代理:ipide
**注:**想要完整程式碼的在末尾,注意新手建議慢慢看完。在此提示一下本篇文章的編寫步驟:1.獲取資料、2.翻譯、3.資料清洗、4.切詞詞權重、5.詞雲

1.1 selenium 準備

很多人學習蟒蛇,不知道從何學起。

很多人學習python,掌握了基本語法之後,不知道在哪裡尋找案例上手。

很多已經做了案例的人,卻不知道如何去學習更多高深的知識。

那麼針對這三類人,我給大家提供一個好的學習平臺,免費獲取視訊教程,電子書,以及課程的原始碼!

QQ群:101677771

歡迎加入,一起討論一起學習!

為了簡單,在這裡我使用了selenium(菜鳥用selenium,我就是菜鳥)進行資料抓取,並且使用了ipidea的代理(反正有送穩妥),否則等著測試著除錯太多次我IP就炸了。

selenium 可使用 pip 進行下載,命令是:

pip install selenium

下載了selenium之後還需要一個driver,需要檢視你瀏覽器版本,僅支援火狐或者谷歌。
在此用谷歌距離,首先點選Chorm瀏覽器右上角三個點:


選擇幫助,關於google進入 chrome://settings/help 頁。隨後找到對應的版本號:

接下來進入到driver的下載地址:

http://chromedriver.storage.googleapis.com/index.html

接著在對應的版本號中找到接近的driver進行下載:


隨後點選後選擇對應的版本即可:

windows就用win32就可以了,下載後解壓到一個目錄就ok。

接著代理我使用的是IPIDE,官網是這個連結,免費使用就ok,夠用了。

二、資料獲取

2.1 代理

第一步咱們得拿到資料,那麼通過代理去進行獲取。
首先建立一個python檔名為 test1,當然名字自己隨便取。
接著使用vscode(你可以用你的),頭部引入:

from selenium import webdriver
import requests,json,time

接著我們寫一個頭:

#代理
headers = {'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:55.0) Gecko/20100101 Firefox/55.0'}

基礎做好後首先需要獲取代理,我們寫一個函式名為 ip_:

#代理獲取
def ip_():
    url=r"http://tiqu.ipidea.io:81/abroad?num=1&type=2&lb=1&sb=0&flow=1®ions=in&port=1"
    r = requests.get(url, headers=headers,timeout=3)
    data = json.loads(r.content)
    ip_=data['data'][0]
    return ip_

以上程式碼中 url 儲存的

http://tiqu.ipidea.io:81/abroad?num=1&type=2&lb=1&sb=0&flow=1®ions=in&port=1

為代理獲取的連結,有些小夥伴可能獲取的時候會失敗,原因是沒有設定當前ip為白名單。

設定白名單的方式很簡單,通過連結在末尾替換自己的白名單就可以了:


https://api.ipidea.net/index/index/save_white?neek=***&appkey=***************************&white=白名單ip

自己的白名單新增連結在

https://www.ipidea.net/getapi:

如果我公開出來我基本上大家都可以用我的了,所以打個碼。

我們繼續回到函式 ip_()中,r = requests.get(url, headers=headers,timeout=3) 將會獲取到代理ip地址,接著我使用了 json 進行轉化:data = json.loads(r.content),最終返回了 ip 地址。IP 獲取的方式過於簡單就不再講解了。

接下來獲取代理與組成 ip 代理字串:

ip=ip_()#ip獲取
proxy_str="http://"+str(ip['ip'])+':'+str(ip['port'])#ip proxy 組合

接著使用 webdriver 對谷歌瀏覽器設定代理:

options = webdriver.ChromeOptions()
options.add_argument("--proxy-server=%s" % proxy_str)
options.add_argument('--ignore-certificate-errors')
options.add_argument('-ignore -ssl-errors')

以上程式碼中 options.add_argument 為了給瀏覽器新增代理,之後的兩句話只是為了忽略某些錯誤,當然你不加基本上也沒事。

2.2 抓取資料

接著建立一個變數url儲存需要抓取頁的連結:

url='https://www.quora.com/topic/Chinese-Food?q=Chinese%20food'

接下來建立 谷歌瀏覽器 物件:

driver = webdriver.Chrome(executable_path=r'C:\webdriver\chromedriver.exe',options=options)
driver.get(url)
input()

webdriver.Chrome 中的 executable_path 為指定下載 driver 的地址,option 為代理的配置。

建立好後 driver 你就可以理解成是 Chrome 谷歌瀏覽器物件了,使用谷歌瀏覽器開啟一個指定頁面只需要使用 get方法,再get 方法內傳遞一個 url。

由於我們發現該頁面是瀏覽器滑動到底部自動重新整理,此時我們只需要使用迴圈重複一直往下滑動就可以了:

for i in range(0,500):
    driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
    time.sleep(10)

以上迴圈中的程式碼 driver.execute_script 表示執行script命令,其中 window.scrollTo(0,
document.body.scrollHeight); 就是對應的滑動命令。每次滑動過後就給他歇一下,不然一直劃效果不是很好,所以就使用 sleep 休息10s 等待載入。

接著我們獲取頁面中一下一塊塊的資料:

為了防止遺漏出什麼不好餓內容,在此我打了一下碼。
此時我們可以使用右鍵檢查,開啟原始碼:


此時我們可以看到這一塊 html 程式碼下就是對應的內容:

我們從中得知,這個部分的 class 的名稱是q-box,我們可以通過driver中的
find_element_by_class_name 的方法,找到這個元素,並且得到對應的文字。

接著我們觀看所有的內容塊得知,都是使用q-box作為名稱:


接下來我們只需要使用程式碼:

content=driver.find_element_by_class_name('q-box')

就可以抓取到這所有名為 q-box 的物件。
此時我們只需要對這個物件使用 .text 即可獲取文字,再使用 f.write 將其寫入到文字之中:

f = open(r'C:\Users\Administrator\Desktop\data\data.txt',mode='w',encoding='UTF-8') 
f.write(content.text)
f.close() 

該部分的完整程式碼如下:

from selenium import webdriver
import requests,json,time

#代理
headers = {'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:55.0) Gecko/20100101 Firefox/55.0'}

#代理獲取
def ip_():
    url=r"http://tiqu.ipidea.io:81/abroad?num=1&type=2&lb=1&sb=0&flow=1®ions=in&port=1"
    r = requests.get(url, headers=headers,timeout=3)
    data = json.loads(r.content)
    print(data)
    ip_=data['data'][0]
    return ip_

ip=ip_()#ip獲取
proxy_str="http://"+str(ip['ip'])+':'+str(ip['port'])#ip proxy 組合

options = webdriver.ChromeOptions()
options.add_argument("--proxy-server=%s" % proxy_str)
options.add_argument('--ignore-certificate-errors')
options.add_argument('-ignore -ssl-errors')

url='https://www.quora.com/topic/Chinese-Food?q=Chinese%20food'
driver = webdriver.Chrome(executable_path=r'C:\webdriver\chromedriver.exe',options=options)
driver.get(url)
input()

for i in range(0,500):
    driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
    time.sleep(10)

title=driver.find_element_by_class_name('q-box')
#title=driver.find_element_by_css_selector("[class='dtb-style-1 table-dragColumns']") 
f = open(r'C:\Users\Administrator\Desktop\data\data.txt',mode='w',encoding='UTF-8') 
f.write(title.text)
f.close() 

三、切詞統計

3.1 資料清洗

接著咱們可以對資料進行翻譯,不過免費的庫有每日限制,那麼最好的辦法,不花錢的辦法就是複製內容去線上翻譯去翻譯,對的,雖然資料有點多,不過還好,問題不大。

翻譯完成複製的一個文字之中,這個文字我命名為 datacn。
在此建立一個名稱為cut的py檔案,並且在頭部引入:

import jieba,re,jieba.analyse #結巴分詞
from wordcloud import WordCloud #詞雲
import matplotlib.pyplot as plt 

引入之後建立一個函式用於讀取翻譯過來的文字 datacn 的內容:

def get_str(path):
    f = open(path,encoding="utf-8" )  
    data = f.read()
    f.close()
    return data

程式碼很簡單,就是 open檔案,read讀取就完成了,不過有些同學容易出現編碼錯誤,記得一定要加 encoding=“utf-8”,如果還不信,你就將文字另存為,在另存為時選擇編碼為 utf-8就可以了:

接著,咱們再建立一個清洗內容的函式:

def word_chinese(text):
    pattern = re.compile(r'[^\u4e00-\u9fa5]')
    clean= re.sub(pattern, '', text)
    return clean

其實上面函式的作用就是找到中文字元返回,其他的內容就不要了,不然會影響效果,例如一些標點符號和英文字母等。

接著我們直接讀取資料:

path=r"D:\datacn.txt"
text=get_str(path)
text=word_chinese(text)

其中 path 是路徑,就是我翻譯過來的文字儲存的路徑,然後傳入引數 get_str 中就可以了,這樣讀到的資料就是text,急著再把text傳入到清洗函式 word_chinese 中進行清洗,這樣清除不好的資料就ok了。

3.2 詞頻權重統計

但是這個時候還是有一些不好的詞語出現,例如 你、我、他、你好、知道…這些內容,怎麼去掉呢?這個時候就使用結巴庫設定一些詞不要
jieba.analyse.set_stop_words,程式碼是:

jieba.analyse.set_stop_words(r'D:\StopWords.txt')

其中D:\StopWords.txt這個文字中記錄了不要的詞,我為了資料準確我自己調了一堆的詞,想要的可以看評論區,資料太多不好直接複製上來。

設定好之後就可以自動過濾了,下一步就是切詞統計詞頻,這一步的程式碼是:

words = jieba.analyse.textrank(text, topK=168,withWeight=True)

使用的方法是 jieba.analyse.textrank(),其中 text 就是我們清理過的文字,topk 是指你要得到詞頻前幾,我這裡是 topk=168 就是表示得到出現頻率最多的錢 168 個詞,函式其中 withWeight=True 表示結果中出現詞頻權重數值,例如不使用 withWeight=True 結果如下:


不開啟 withWeight 結果則顯示:

此時結果已經得到了,發現老外最喜歡、提的次數最高的竟然是醬油,然後是喜歡。看來是真的挺喜歡的。

接著咱們先做個詞雲,再做分析。詞雲需要字串,不能使用陣列,使用以下程式碼使其成為字串:

wcstr = " ".join(words)

接著建立詞雲物件:

wc = WordCloud(background_color="white",
                    width=1000,
                   height=1000,
                   font_path='simhei.ttf'
                   )

在詞雲物件的配置中,background_color 是字串,width 和 height 是詞雲寬度,font_path 是設定字型。在此注意,字型一定要設定,否則將會看不到任何文字。

接著將字串傳遞給建立的詞雲物件 wc的generate函式:

wc.generate(wcstr)

接下來就使用plt顯示就可以了:

plt.imshow(wc)
plt.axis("off")
plt.show()

完整程式碼如下:

import jieba,re,jieba.analyse
from wordcloud import WordCloud
import matplotlib.pyplot as plt

def get_str(path):
    f = open(path,encoding="utf-8" )  
    data = f.read()
    f.close()
    return data
def word_chinese(text):
    pattern = re.compile(r'[^\u4e00-\u9fa5]')
    clean = re.sub(pattern, '', text)
    return clean

path=r"D:\datacn.txt"
text=get_str(path)
text=word_chinese(text)
jieba.analyse.set_stop_words(r'D:\StopWords.txt')
words = jieba.analyse.textrank(text, topK=168)
print(words)

wcstr = " ".join(words)
wc = WordCloud(background_color="white",
                    width=1000,
                   height=1000,
                   font_path='simhei.ttf'
                   )

wc.generate(wcstr)

plt.imshow(wc)
plt.axis("off")
plt.show()

最終的結果如下:

四、從資料中找到TOP之最

由於資料太多,不方便用折線圖之類統計,我從權重中找到了老外提到最Top的幾個緯度。
所有排名如下:

老外提到最多 Top :

美食聖地依次是香港、澳門、廣東、無錫、廣州、北京、閩南;

提到食物最多的是:炒飯、米飯、豆腐、大豆、牛肉、麵條、火鍋、炒菜、餃子、蛋糕、包子

提到最多口味:糖醋、鹹味

提到最多的廚具:火鍋、陶罐、石鍋、灶臺

不過第一是醬油是啥情況,而且喜歡第二,看來大家都比較喜歡我們的食物呀!很贊!