深度學習模型
官方模型
mnist:對來自MNIST資料集的數字進行分類的基本模型。最開始設計出來的目的是用於識別數字,同時也是深度學習的一個樣例。
resnet:一個深度殘差網路,可用於CIFAR-10和ImageNet的1000個類別的資料集進行分類。由於深度學習模型的練習次數達到某一個值時識別準確率以及識別效能會下降,因而開發出了可以提高學習深度的網路。
wide_deep:將廣泛的模型和深度網路相結合的模型,用於對人口普查收入資料進行分類。經過學習後,神經網路可以通過其中幾個資料的值推斷出其他資料的值。
研究模型(非官方模型,個人使用)
adversarial_crypto:保護與對抗式神經密碼學的通訊。
adversarial_text:具有對抗訓練的半監督序列學習。
attention_ocr:影象識別文字提取模型(用於高干擾的現實場景)。
autoencoder:各種自動編碼器。
brain_coder:帶強化學習的程式綜合器。
cognitive_mapping_and_planning:為視覺導航實現基於空間記憶的對映和規劃體系結構。
compression:使用預先訓練的剩餘GRU網路壓縮和解壓縮影象。
deeplab:用於語義影象分割的深度標籤。
delf:用於匹配和檢索影象的深層區域性特徵。
differential_privacy:來自多位教師的學生隱私保護模型。
domain_adaptation:域分離網路。
gan:生成對抗式網路。
im2txt:用於轉換影象字幕為文字的神經網路。
inception:用於計算機視覺的深度卷積網路。
learning_to_remember_rare_events:用於深度學習的大型終身記憶模組。
lfads:用於分析神經科學資料的順序變分自動編碼器。
lm_1b:以十億單詞為基準測試的語言建模。
maskgan:用GAN生成文字。
namignizer:識別並生成名稱。
neural_gpu:高度並行的神經計算機。
neural_programmer:用邏輯和數學運算增強的神經網路。
next_frame_prediction:通過交叉卷積網路進行概率性的下一幀合成。
object_detection:定位和識別單個影象中的多個物件。
pcl_rl:用於幾種強化學習演算法的程式碼,包括路徑一致性學習。
ptn:用於三維物體重建的透視變換網。
qa_kg:模組網路,用於在知識圖上進行問題解答。
real_nvp:使用實值非容量保留(真實NVP)變換的密度估計。
rebar:離散潛變數模型的低方差,無偏差梯度估計。
resnet:深層和廣泛的殘餘網路。
skip_thoughts:遞迴神經網路句 – 向量編碼器。
slim:TF-Slim中的影象分類模型。
street:使用深度學習從影象中識別街道的名稱(僅限於法國)。
swivel:用於生成複合詞的Swivel演算法。
syntaxnet:自然語言語法的神經模型。
tcn:從多視點視訊學習的自我監督表示。
textsum:序列到序列與文字摘要的關注模型。
transformer:空間轉譯網路,可以對網路內的資料進行空間處理。
video_prediction:用神經平流預測未來的視訊幀(類似於next_frame_prediction)。
關於其中的幾個專案:
Mnist實際上是一個簡單的視覺計算資料集,目的大概就是為用機器學習練習對資料進行處理。它本身可能沒有非常有用的一個應用,只是學習機器學習的‘陪練’。Mnist主要用來訓練影象識別相關的機器學習模組
https://github.com/zalandoresearch/fashion-mnist
這裡有一個很有名也很有趣的mnist資料集fashion-mnist,由60,000個示例的訓練集和10,000個示例的測試集組成。每個示例都是28×28灰度影象,與10個類別的標籤相關聯。(T恤/上衣,褲子,套頭衫,連衣裙,大衣,涼鞋,襯衫,運動鞋,包,腳踝靴),作者製作這個資料集的本意是用作驗證mnist演算法的基準。
wide_deep給的則是用人口普查收入資料預測收入,正如其名字所說的,這是一個深寬模型。也基本是用來驗證tensorflow對深寬模型處理的應用。
此外,介紹兩個難度較低的tensorflow的專案:
驗證碼識別:
http://blog.csdn.net/sushiqian/article/details/78305340
驗證碼識別的原理與對mnist手寫數字資料集的處理有異曲同工之妙,也是新手練習的選擇之一
五子棋:
https://github.com/junxiaosong/AlphaZero_Gomoku
這個五子棋專案模仿alphago做成的專案,十分有趣,對alphago有興趣的可以瞭解下
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/29829936/viewspace-2284453/,如需轉載,請註明出處,否則將追究法律責任。