如何入門Python與機器學習 | 贈書
編者按:本書節選自圖書《Python與機器學習實戰》
文末評論贈送本書,歡迎留言!
“機器學習”在最近雖可能不至於到人盡皆知的程度,卻也是非常火熱的詞彙。機器學習是英文單詞“Machine Learning”(簡稱ML)的直譯,從字面上便說明了這門技術是讓機器進行“學習”的技術。然而我們知道機器終究是死的,所謂的“學習”歸根結底亦只是人類“賦予”機器的一系列運算。這個“賦予”的過程可以有很多種實現,而Python正是其中相對容易上手、同時效能又相當不錯的一門語言。本文打算先談談機器學習相關的一些比較寬泛的知識,再介紹並說明為何要使用Python來作為機器學習的工具。最後,我們會提供一個簡短易懂的、具有實際意義的例子來給大家提供一個直觀的感受。
具體而言,本章主要涉及的知識點有:
-
機器學習的定義及重要性;
-
Python在機器學習領域的優異性;
-
如何在電腦上配置Python機器學習的環境;
-
機器學習一般性的步驟。
機器學習緒論
正如前言所說,由於近期的各種最新成果,使得“機器學習”成為了非常熱門的詞彙。機器學習在各種領域的優異表現(圍棋界的Master是其中最具代表性的存在),使得各行各業的人們都或多或少地對機器學習產生了興趣與敬畏。然而與此同時,對機器學習有所誤解的群體也日益壯大;他們或將機器學習想得過於神祕,或將它想得過於萬能。本節擬對機器學習進行一般性的介紹,同時會說明機器學習中一些常見的術語以方便之後章節的敘述。
什麼是機器學習
清晨的一句“今天天氣真好”、朋友之間的寒暄“你剛剛是去吃飯了吧”、考試過後的感嘆“複習了那麼久終有收穫”……這些日常生活中隨處可見的話語,其背後卻已蘊含了“學習”的思想—它們都是利用以往的經驗、對未知的新情況作出的有效的決策。而把這個決策的過程交給計算機來做,可以說就是“機器學習”的一個最淺白的定義。
我們或許可以先說說機器學習與以往的計算機工作樣式有什麼不同。傳統的計算機如果想要得到某個結果,需要人類賦予它一串實打實的指令,然後計算機就根據這串指令一步步地執行下去。這個過程中的因果關係非常明確,只要人類的理解不出偏差,執行結果是可以準確預測的。但是在機器學習中,這一傳統樣式被打破了:計算機確實仍然需要人類賦予它一串指令,但這串指令往往不能直接得到結果;相反,它是一串賦予了機器“學習能力”的指令。在此基礎上,計算機需要進一步地接受“資料”,並根據之前人類賦予它的“學習能力”,從中“學習”出最終的結果。這個結果往往是無法僅僅通過直接程式設計得出的。因此這裡就匯出了稍微深一點的機器學習的定義:它是一種讓計算機利用資料而非指令來進行各種工作的方法。在這背後,最關鍵的就是“統計”的思想,它所推崇的“相關而非因果”的概念是機器學習的理論根基。在此基礎上,機器學習可以說是計算機使用輸入給它的資料,利用人類賦予它的演算法得到某種模型的過程,其最終的目的則是使用該模型,預測未來未知資料的資訊。
既然提到了統計,那麼一定的數學理論就不可或缺。相關的、比較簡短的定義會在第4章給出(PAC框架),這裡我們就先只敘述機器學習在統計理論下的、比較深刻的本質:它追求的是合理的假設空間(Hypothesis Space)的選取和模型的泛化(Generalization)能力。該句中出現了一些專用術語,詳細的定義會在介紹術語時提及,這裡我們提供一個直觀的理解:
-
所謂的假設空間,就是我們的模型在數學上的“適用場合”。
-
所謂的泛化能力,就是我們的模型在未知資料上的表現。
注意:上述本質上嚴格來說,應該是PAC Learning的本質;在其餘的理論框架下,機器學習是可以具有不同的核心的。
從上面的討論可以看出,機器學習和人類思考的過程有或多或少的類似。事實上,我們在第6、第7章講的神經網路(Neural Network,NN)和卷積神經網路(Convolutional Neural Network,CNN)背後確實有著相應的神經科學的理論背景。然而與此同時需要知道的是,機器學習並非是一個“會學習的機器人”和“具有學習能力的人造人”之類的,這一點從上面諸多討論也可以明晰(慚愧的是,筆者在第一次聽到“機器學習”四個字時,腦海中浮現的正是一個“聰明的機器人”的影象,甚至還幻想過它和人類一起生活的場景)。相反的,它是被人類利用的、用於發掘資料背後資訊的工具。
當然,現在也不乏“危險的人工智慧”的說法,霍金大概是其中的“標杆”,這位偉大的英國理論物理學家甚至警告說“人工智慧的發展可能意味著人類的滅亡”。孰好孰壞果然還是見仁見智,但可以肯定的是:本書所介紹的內容絕不至於導致世界的毀滅,大家大可輕鬆愉快地進行接下來的閱讀!
機器學習常用術語
機器學習領域有著許多非常基本的術語,這些術語在外人聽來可能相當高深莫測。它們事實上也可能擁有非常複雜的數學背景,但需要知道:它們往往也擁有著相對淺顯平凡的直觀理解(上一小節的假設空間和泛化能力就是兩個例子)。本小節會對這些常用的基本術語進行說明與解釋,它們背後的數學理論會有所闡述,但不會涉及過於本質的東西。
正如前文反覆強調的,資料在機器學習中發揮著不可或缺的作用;而用於描述資料的術語有好幾個,需要被牢牢記住的如下。
-
“資料集”(Data Set),就是資料的集合的意思。其中,每一條單獨的資料被稱為“樣本”(Sample)。若沒有進行特殊說明,本書都會假設資料集中樣本之間在各種意義下相互獨立。事實上,除了某些特殊的模型(如隱馬爾可夫模型和條件隨機場),該假設在大多數場景下都是相當合理的。
-
對於每個樣本,它通常具有一些“屬性”(Attribute)或者說“特徵”(Feature),特徵所具體取的值就被稱為“特徵值”(Feature Value)。
-
特徵和樣本所張成的空間被稱為“特徵空間”(Feature Space)和“樣本空間”(Sample Space),可以把它們簡單地理解為特徵和樣本“可能存在的空間”。
-
相對應的,我們有“標籤空間”(Label Space),它描述了模型的輸出“可能存在的空間”;當模型是分類器時,我們通常會稱之為“類別空間”。
其中、資料集又可以分為以下三類:
-
訓練集(Training Set);顧名思義,它是總的資料集中用來訓練我們模型的部分。雖說將所有資料集都拿來當作訓練集也無不可,不過為了提高及合理評估模型的泛化能力,我們通常只會取資料集中的一部分來當訓練集。
-
測試集(Test Set);顧名思義,它是用來測試、評估模型泛化能力的部分。測試集不會用在模型的訓練部分,換句話說,測試集相對於模型而言是“未知”的,所以拿它來評估模型的泛化能力是相當合理的。
-
交叉驗證集(Cross-Validation Set,CV Set);這是比較特殊的一部分資料,它是用來調整模型具體引數的。
注意:需要指出的是,獲取資料集這個過程是不平凡的;尤其是當今“大資料”如日中天的情景下,諸如“得資料者得天下”的說法也不算誑語。在此筆者推薦一個非常著名的含有大量真實資料集的網站:http://archive.ics.uci.edu/ml/ datasets.html,本書常常會用到其中一些合適的資料集來評估我們自己實現的模型。
可以通過具體的例子來理解上述概念。比如,我們假設小明是一個在北京讀了一年書的學生,某天他想通過宿舍窗外的風景(能見度、溫度、溼度、路人戴口罩的情況等)來判斷當天的霧霾情況並據此決定是否戴口罩。此時,他過去一年的經驗就是他擁有的資料集,過去一年中每一天的情況就是一個樣本。“能見度”、“溫度”、“溼度”、“路人戴口罩的情況”就是四個特徵,而(能見度)“低”、(溫度)“低”、(溼度)“高”、(路人戴口罩的)“多”就是相對應的特徵值。現在小明想了想,決定在腦中建立一個模型來幫自己做決策,該模型將利用過去一年的資料集來對如今的情況做出“是否戴口罩”的決策。此時小明可以用過去一年中8個月的資料量來做訓練集、2個月的量來做測試集、2個月的量來做交叉驗證集,那麼小明就需要不斷地思考(訓練模型)下列問題:
-
用訓練集訓練出的模型是怎樣的?
-
該模型在交叉驗證集上的表現怎麼樣?
-
如果足夠好了,那麼思考結束(得到最終模型)。
-
如果不夠好,那麼根據模型在交叉驗證集上的表現,重新思考(調整模型引數)。
-
最後,小明可能會在測試集上評估自己剛剛思考後得到的模型的效能,然後根據這個效能和模型做出的“是否戴口罩”的決策來綜合考慮自己到底戴不戴口罩。
接下來說明上一小節中提到過的重要概念:假設空間與泛化能力。泛化能力的含義在上文也有說明,為強調起見,這裡再敘述一遍:
-
泛化能力針對的其實是學習方法,它用於衡量該學習方法學習到的模型在整個樣本空間上的表現。
這一點當然是十分重要的,因為我們拿來訓練模型的資料終究只是樣本空間的一個很小的取樣,如果只是過分專注於它們,就會出現所謂的“過擬合”(Over Fitting)的情況。當然,如果過分罔顧訓練資料,又會出現“欠擬合”(Under Fitting)。可以用一張圖來直觀地感受過擬合和欠擬合(如圖1所示,左為欠擬合,右為過擬合)。
所以需要“張弛有度”,找到最好的那個平衡點。統計學習中的結構風險最小化(Structural Risk Minimization,SRM)就是研究這個的,它和傳統的經驗風險最小化(Empirical Risk Minimization,ERM)相比,注重於對風險上界的最小化,而不是單純地使經驗風險最小化。它有一個原則:在使風險上界最小的函式子集中挑選出使經驗風險最小的函式。而這個函式子集,正是我們之前提到過的假設空間。
注意:所謂經驗風險,可以理解為訓練資料集上的風險。相對應的,ERM則可以理解為只注重訓練資料集的學習方法,它的理論基礎是經驗風險在某種足夠合理的數學意義上一致收斂於期望風險,亦即所謂的“真正的”風險。
關於SRM和ERM的詳細討論會涉及諸如VC維和正則化的概念,這裡不進行詳細展開,但需要有這麼一個直觀的認識:為了使我們學習方法訓練出的模型泛化能力足夠好,需要對模型做出一定的“限制”,而這個“限制”就表現在假設空間的選取上。一個非常普遍的做法是對模型的複雜度做出一定的懲罰,從而使模型趨於精簡。這與所謂的“奧卡姆剃刀原理”不謀而合:“如無必要,勿增實體”“切勿浪費較多的東西去做,用較少的東西、同樣可以做好事情”。
相比起通過選取合適的假設空間來規避過擬合,進行交叉驗證(Cross Validation)則可以讓我們知道過擬合的程度,從而幫助我們選擇合適的模型。常見的交叉驗證有以下三種。
-
S-fold Cross Validation:中文可翻譯成S折交叉驗證,它是應用最多的一種方法,其方法大致如下。
-
將資料分成S份:D={D_1,D_2,…,D_S},一共做S次試驗。
-
在第i次試驗中,使用D-D_i作為訓練集,D_i作為測試集對模型進行訓練和評測。
-
最終選擇平均測試誤差最小的模型。
-
-
留一交叉驗證(Leave-one-out Cross Validation):這是S折交叉驗證的特殊情況,此時S=N。
-
簡易交叉驗證:這種實現起來最簡單,也是本書(在進行交叉驗證時)所採用的方法。它簡單地將資料進行隨機分組,最後達到訓練集約佔原資料70%的程度(這個比例可以視情況改變),選擇模型時使用測試誤差作為標準。
機器學習的重要性
道理說了不少,但到底為什麼要學機器學習,機器學習的重要性又在哪裡呢?事實上,回顧歷史可以發現,人類的發展通常伴隨著簡單體力勞動向複雜腦力勞動的過渡。過去的工作基本上都有著明確的定義,告訴你這一步怎麼做、下一步再怎麼做。而如今這一類的工作已經越來越少,取而代之的是更為寬泛模糊的、概念性的東西,比如說“將本季度的產品推向最合適的市場,在最大化期望利潤的同時,儘量做到風險最小化”這種需求。想要完成好這樣的任務,需要獲取相應的資料;雖說網路的存在讓我們能夠得到數之不盡的資料,然而從這些資料中獲得資訊與知識卻不是一項簡單的工作。我們當然可以人工地、仔細地逐項甄選,但這樣顯然就又回到了最初的原點。機器學習這門技術,可以說正因此應運而生。
單單抽象地說一大堆空話可能會讓人頭昏腦漲,我們就舉一舉機器學習具體的應用範圍,從中大概能夠比較直觀地看出機器學習的強大與重要。
發展到如今,機器學習的“爪牙”可謂已經伸展到了各個角落、包括但不限於:
-
機器視覺,也就是最近機器學習裡很火熱的深度學習的一種應用;
-
語音識別,也就是微軟Cortana背後的核心技術;
-
資料探勘,也就是耳熟能詳的大資料相關的領域;
-
統計學習,也就是本書講解的主要範圍之一,有許許多多著名的演算法(比如支援向量機SVM)都源於統計學習(但是統計學習還是和機器學習有區別的;簡單地說,統計學習偏數學而機器學習偏實踐)。
機器學習還能夠進行模式識別、自然語言處理,等等,之前提到過的圍棋界的Master和最新人工智慧在德州撲克上的表現亦無不呈現著機器學習強大的潛力。一言以蔽之,機器學習是當今的熱點,雖說不能保證它的熱度能100%地一直延續下去,至少筆者認為、它能在相當長的一段時間內保持強大的生命力。
人生苦短,我用Python
上一節大概地介紹了機器學習的各種概念,這一節我們主要講講指令碼語言Python相關的一些東西。題目是在Python界流傳甚廣的“諺語”,它講述了Python強大的功能與易於上手的特性。
為何選擇Python
援引開源運動的領袖人物Eric Raymond的說法:“Python語言非常乾淨,設計優雅,具有出色的模組化特性。其最出色的地方在於,鼓勵清晰易讀的程式碼,特別適合以漸進開發的方式構造專案”。Python的可讀性使得即使是剛學不久的人也能看懂大部分的程式碼,Python龐大的社群和大量的開發文件更是使得初學者能夠快速地實現許許多多令人驚歎的功能。對於Python的程式,人們甚至有時會戲稱其為“可執行的虛擬碼(executable pseudo-code)”,以突顯它的清晰性和可讀性。
Python的強大是毋庸置疑的,上文提到的Eric Raymond甚至稱其“過於強大了”。與之相對應的,就是Python的速度比較慢。然而比起Python開發環境提供的海量高階資料結構(如列表、元組、字典、集合等)和數之不盡的第三方庫,再加上高速的CPU和近代發展起來的GPU程式設計,速度的問題就顯得沒那麼尖銳了。況且Python還能通過各種途徑使用C / C++程式碼來編寫核心程式碼,其強大的“膠水”功能使其速度(在程式設計師能力允許的情況下)和純粹的C / C++相比已經相去不遠。一個典型的例子,也是我們會在本書常常運用到的Python中Numpy這個第三方庫。編寫它的語言正是底層語言(C和Fortran),其支援向量、矩陣操作的特性和優異的速度,使得Python在科學計算這一領域大放異彩。
注意:Python及本書用到的兩個非常優異的第三方庫—Numpy和TensorFlow的簡要教程我們會作為附錄章節放在本書的最後,建議有需要的讀者先閱讀相應部分。
Python 在機器學習領域的優勢
雖然在上一小節敘述了Python的種種好處,但不可否認的是,確實存在諸如MATLAB和Mathematica這樣的高階程式語言。它們對機器學習的支援也不錯,MATLAB甚至還自帶許多機器學習的應用。但是作為一個問心無愧的程式設計師,我們還是需要提倡支援正版,而MATLAB的正版軟體需要花費數千美元。與之相對,由於Python是開源專案,幾乎所有必要的元件都是完全免費的。
之前也提到過Python的速度問題,但是更快更底層的語言,比如C和C++,若使用它們來學習機器學習,會不可避免地引發這麼一個問題:即使是實現一個非常簡單的功能,也需要進行大量的編寫和除錯的過程;在這期間,程式設計師很有可能忘掉學習機器學習的初衷而迷失在程式碼的海洋中。筆者曾經嘗試過將Python上的神經網路框架移植到C++上,這之間的折騰至今難忘。
此外,筆者認為、使用Python來學習機器學習是和“不要過早優化”這句程式設計界的金句有著異曲同工之妙的。Python(幾乎)唯一的缺陷—速度,在初期進行快速檢驗演算法、思想正誤及開發工作時,其實基本上不是重要問題。其中的道理是顯而易見的:如果解決問題的思想存在問題,那麼即使拼命去提高程式的執行效率,也只能使問題越來越大而已。這種時候,先使用Python進行快速實現,有必要時再用底層程式碼重寫核心程式碼,從各方面來說都是一個更好的選擇。
關於Anaconda
Python的強大有相當大一部分體現在它那浩如煙海的第三方庫。在使用Python實現一個複雜功能時,如果沒有特殊的需求,我們通常會先搜尋Google有沒有現成的第三方庫,然後會搜尋是否有相關聯的第三方庫,最後才會考慮自己重頭實現。
第三方庫是如此之多,從中挑選出心儀而合適的並非易事。幸運的是,就連這一點也有第三方軟體進行了支援,那就是在Python科學計算領域非常出名的Anaconda。這是一個完全免費的軟體,經常會進行各種更新;最重要的是,它把幾乎所有常用且優異的科學計算庫都整合在了一起。換句話說,只要你安裝了Anaconda,就意味著擁有了一個完善精緻的機器學習環境,基本上無須自己把要用到的庫一個一個通過命令列來安裝。
第一個機器學習樣例
作為本章的總結,我們來運用Python解決一個實際問題,以便對機器學習有一個具體的感受。由於該樣例只是為了提供直觀感受,我們就拿比較有名的一個小問題來進行闡述。俗話說:“麻雀雖小,五臟俱全”,我們完全可以通過這個樣例來對機器學習的一般性步驟進行一個大致的認知。
該問題來自Coursera上的斯坦福大學機器學習課程,其敘述如下:現有47個房子的面積和價格,需要建立一個模型對新的房價進行預測。稍微翻譯問題,可以得知:
-
輸入資料只有一維,亦即房子的面積。
-
目標資料也只有一維,亦即房子的價格。
-
需要做的,就是根據已知的房子的面積和價格的關係進行機器學習。
下面我們就來一步步地進行操作。
獲取與處理資料
原始資料集的前10個樣本如表1.1所示,這裡房子面積和房子價格的單位可以隨意定奪,因為它們不會對結果造成影響。
表1.1 房價資料集
完整的資料集可以參見https://github.com/carefree0910/MachineLearning/blob/master/ _Data/prices.txt。雖然該資料集比較簡單,但可以看到其中的數字都相當大。保留它原始形式確實有可能是有必要的,但一般而言,我們應該對它做簡單的處理以期望降低問題的複雜度。在這個例子裡,採取常用的將輸入資料標準化的做法,其數學公式為:
程式碼1-1 第一個機器學習樣例:a_FirstExample\Regression.py
01 # 匯入需要用到的庫
02 import numpy as np
03 import matplotlib.pyplot as plt
04
05 # 定義儲存輸入資料(x)和目標資料(y)的陣列
06 x, y = [], []
07 # 遍歷資料集,變數sample對應的正是一個個樣本
08 for sample in open("../_Data/prices.txt", "r"):
09 # 由於資料是用逗號隔開的,所以呼叫Python中的split方法並將逗號作為引數傳入
10 _x, _y = sample.split(",")
11 # 將字串資料轉化為浮點數
12 x.append(float(_x))
13 y.append(float(_y))
14 # 讀取完資料後,將它們轉化為Numpy陣列以方便進一步的處理
15 x, y = np.array(x), np.array(y)
16 # 標準化
17 x = (x - x.mean()) / x.std()
18 # 將原始資料以散點圖的形式畫出
19 plt.figure()
20 plt.scatter(x, y, c="g", s=6)
21 plt.show()
上面這段程式碼的執行結果如圖2所示。
這裡橫軸是標準化後的房子面積,縱軸是房子價格。以上我們已經比較好地完成了機器學習任務的第一步:資料預處理。
選擇與訓練模型
在弄好資料之後,下一步就要開始選擇相應的學習方法和模型了。幸運的是,通過視覺化原始資料,可以非常直觀地感受到:很有可能通過線性迴歸(Linear Regression)中的多項式擬合來得到一個不錯的結果。其模型的數學表示式如下。
注意:用多項式擬合散點只是線性迴歸的很小的一部分,但是它的直觀意義比較明顯。考慮到問題比較簡單,我們才選用了多項式擬合。線性迴歸的詳細討論超出了本書的範圍,這裡不再贅述。
其中f(x|p;n)就是我們的模型,p、n都是模型的引數,其中p是多項式f的各個係數,n是多項式的次數。L(p;n)則是模型的損失函式,這裡我們採用了常見的平方損失函式,也就是所謂的歐氏距離(或說向量的二範數)。x、y則分別是輸入向量和目標向量;在我們這個樣例中,x、y這兩個向量都是47維的向量,分別由47個不同的房子面積、房子價格所構成。
在確定好模型後,就可以開始編寫程式碼來進行訓練了。對於大多數機器學習演算法,所謂的訓練正是最小化某個損失函式的過程,這個多項式擬合的模型也不例外:我們的目的就是讓上面定義的L(p;n)最小。在數理統計領域裡有專門的理論研究這種迴歸問題,其中比較有名的正規方程更是直接給出了一個簡單的解的通式。不過由於有Numpy的存在,這個訓練過程甚至變得還要更加簡單一些。
22 # 在(-2,4)這個區間上取100個點作為畫圖的基礎
23 x0 = np.linspace(-2, 4, 100)
24 # 利用Numpy的函式定義訓練並返回多項式迴歸模型的函式
25 # deg引數代表著模型引數中的n,亦即模型中多項式的次數
26 # 返回的模型能夠根據輸入的x(預設是x0),返回相對應的預測的y
27 def get_model(deg):
28 return lambda input_x=x0: np.polyval(np.polyfit(x, y, deg), input_x)
這裡需要解釋Numpy裡面帶的兩個函式:polyfit和polyval的用法。
-
polyfit(x, y, deg):該函式會返回使得上述(注:該公式中的x和y就是輸入的x和y)最小的引數p,亦即多項式的各項係數。換句話說,該函式就是模型的訓練函式。
-
polyval(p, x):根據多項式的各項係數p和多項式中x的值,返回多項式的值y。
評估與視覺化結果
模型做好後,我們就要嘗試判斷各種引數下模型的好壞了。為簡潔起見,我們採用n=1,4,10這三組引數進行評估。由於我們訓練的目的是最小化損失函式,所以用損失函式來衡量模型的好壞似乎是一個合理的做法。
29 # 根據引數n、輸入的x、y返回相對應的損失
30 def get_cost(deg, input_x, input_y):
31 return 0.5 * ((get_model(deg)(input_x) - input_y) ** 2).sum()
32 # 定義測試引數集並根據它進行各種實驗
33 test_set = (1, 4, 10)
34 for d in test_set:
35 # 輸出相應的損失
36 print(get_cost(d, x, y))
所得的結果是:當n=1,4,10時,損失的頭兩位數字分別為96、94和75。這麼看來似乎是n=10優於n=4,而n=1最差,但從圖3可以看出,似乎直接選擇n=1作為模型的引數才是最好的選擇。這裡矛盾的來源正是前文所提到過的過擬合情況。
那麼,怎麼最直觀地瞭解是否出現過擬合了呢?當然還是畫圖了。
37 # 畫出相應的影象
38 plt.scatter(x, y, c="g", s=20)
39 for d in test_set:
40 plt.plot(x0, get_model(d)(), label="degree = {}".format(d))
41 # 將橫軸、縱軸的範圍分別限制在(-2,4)、(〖10〗^5,8×〖10〗^5)
42 plt.xlim(-2, 4)
43 plt.ylim(1e5, 8e5)
44 # 呼叫legend方法使曲線對應的label正確顯示
45 plt.legend()
46 plt.show()
上面這段程式碼的執行結果如圖3所示。
其中,三條線分別代表n=1、n=4、n=10的情況(圖1.10的右上角亦有說明)。可以看出,從n=4開始模型就已經開始出現過擬合現象了,到n=10時模型已經變得非常不合理。
至此,可以說這個問題就已經基本上解決了。在這個樣例裡面,除了交叉驗證,我們涵蓋了機器學習中的大部分主要步驟(之所以沒有進行交叉驗證是因為資料太少了……)。程式碼部分加起來總共40~50行,應該算是一個比較合適的長度。希望大家能夠通過這個樣例對機器學習有個大概的瞭解,也希望它能引起大家對機器學習的興趣。
小結
-
與傳統的計算機程式不同,機器學習是面向資料的演算法,能夠從資料中獲得資訊。它符合新時代腦力勞動代替體力勞動的趨勢,是富有生命力的領域。
-
Python是一門優異的語言,程式碼清晰可讀、功能廣泛強大。其最大弱點—速度問題也可以通過很多不太困難的方法彌補。
-
Anaconda是Python的一個很好的整合環境,它能讓我們免於人工地安裝大量科學計算所需要的第三方庫。
-
雖說機器學習演算法很多,但通常而言,進行機器學習的過程會包含以下三步:
-
獲取與處理資料;
-
選擇與訓練模型;
-
評估與視覺化結果。
-
《Python與機器學習實戰》訂購連結(點選閱讀原文訂購):https://item.jd.com/12125529.html
贈書啦!!!
留言你想獲得這本書的理由,點贊前5名就可獲得本書。
開獎截止時間11月14日(下週二)中午12點!