1. 程式人生 > 其它 >「持續更新中」最近瀏覽的網站心得總結

「持續更新中」最近瀏覽的網站心得總結

把看過好幾次的博文列舉一下,記錄自己的閱讀心得

首先是一些官方文件

https://tensorflow.google.cn/tutorials/structured_data/time_series

《動手學深度學習》(TF2.0版)這個真香

簡單粗暴 TensorFlow 2這個單元化清晰

TensorFlow2.0教程-Keras 快速入門

下面是文章

利用LSTM預測股票第二天最高價(tensorflow)(0/1)

tushare+ l s t m

基於馬爾科夫鏈的自動文字生成器

https://github.com/pub12/MarkovText

用馬爾科夫鏈生成文字有兩個階段。 首先是“詞典構建階段”,其中包括收集歷史文字,然後生成一個詞典,其中,鍵為給定句子中的詞,值為該詞之後緊鄰的那個詞。

在這裡,您可以看到原始句子被分解成單詞,並將隨後的單詞與計數器一起包括在內以指示出現的次數。 請注意,句號也包括在內。

第二個是執行,你從一個給定的單詞開始,然後用這個單詞以概率的方式看下一個單詞是什麼。

淺談歸一化對於LSTM進行時間序列預測的影響(附歸一化程式碼)

實用的思想:對於訓練資料進行歸一化之後。使用訓練資料的最大最小值(訓練資料的範圍)對於測試資料進行歸一化

歸一化之後需要進行返歸一化 LSTM進行預測的時候會保留趨勢(週期)資訊以及訓練資料的高低(範圍)資訊。 進行LSTM預測的時候,我們可以通過對於歸一化的選擇來進行是否進行高低資訊的使用。

簡單粗暴LSTM:LSTM進行時間序列預測

預測就是 對於過去資料的處理 比如我有200條資料 我會 0-70 去預測 70-100 1-71 預測 71-101----------- 100 - 170 去預測 170 -200 。使用這樣的train_X ,train_Y 去訓練神經網路 。 預測訓練集少一組train_x 和 train_y 但優點就是不會報錯

長短期記憶(LSTM)系列_LSTM的資料準備(4)——如何歸一化標準化長短期記憶網路的資料

什麼時候用歸一化,什麼時候用標準化?
  (1)如果對輸出結果範圍有要求,用歸一化。
  (2)如果資料較為穩定,不存在極端的最大最小值,用歸一化。
  (3)如果資料存在異常值和較多噪音,用標準化,可以間接通過中心化避免異常值和極端值的影響。

文中還介紹了二者使用的場景和具體的步驟

基於Keras的LSTM多變數時間序列預測(北京PM2.5資料集pollution.csv)小實踐(0/1)

LSTM的輸入格式,即[samples,timesteps,features]。

更多細節復現後補充

keras系列︱Sequential與Model模型、keras基本結構功能

Sequential模型就是將層按照邏輯順序一行行寫下來

Model模型在寫法上略有不同,主要是每一層的輸入都是上一層的輸出

這裡面對於所有的層的引數講解十分到位的

Keras實戰:基於LSTM的股價預測方法(0/1)

交代了包括資料的處理、模型搭建、模型調參、模型評估等重要環節,十分適合新手入門。

模型優化: 定義除錯的函式、調節超引數、優化dropoout值、優化神經元個數、優化decay值

decay控制著學習速率

基於LTSM的多變數(Features)多輸入\多時間跨度(Timesteps)的股票預測模型構建(Keras, Tensorflow, python)(0/1)

笨辦法,既先預測v(t),之後再用v(t)預測v(t+1),愚公移山,慢慢挖。。。

不一樣的模型就是用v(t-n)來預測v(t+m)時刻感興趣的特徵值。

tensorflow2.0 中lstm的實現(0/1)

十分基礎的流程實現,但是版本是tensorflow2.0

input_dim = 28 # 必須和特徵的列數目相等

風雨兼程,前程可待!