簡述python&pytorch 隨機種子的實現
隨機數廣泛應用在科學研究,但是計算機無法產生真正的隨機數,一般成為偽隨機數. 它的產生過程: 給定一個隨機種子(一個正整數),根據隨機演算法和種子產生隨機序列. 給定相同的隨機種子,計算機產生的隨機數列是一樣的(這也許是偽隨機的原因).
隨機種子是什麼?
隨機種子是針對隨機方法而言的。
隨機方法:常見的隨機方法有 生成隨機數,以及其他的像 隨機排序 之類的,後者本質上也是基於生成隨機數來實現的。在深度學習中,比較常用的隨機方法的應用有:網路的隨機初始化,訓練集的隨機打亂等。
隨機種子的取值範圍?
可以是任意數字,如10,1000
python random
下面以python的random函式為例,做了一個測試.
當用戶未指定隨機種子,系統預設隨機生成,一般與系統當前時間有關.使用者指定隨機種子後,使用隨機函式產生的隨機數可以復現.種子確定後,每次使用隨機函式相當於從隨機序列去獲取隨機數,每次獲取的隨機數是不同的.
pytorch
使用pytorch復現效果時,總是無法做到完全的復現. 同一份程式碼執行兩次,有時結果差異很大. 這是由於演算法中的隨機性導致的. 要想每次獲得的結果一致,必須固定住隨機種子. 首先,我們需要找到演算法在哪裡使用了隨機性,再相應的固定住隨機種子.
def seed_torch(): seed = 1024 # 使用者設定 # seed = int(time.time()*256) # 儲存隨機種子 with open('seed.txt','w') as f: f.write(str(seed)) random.seed(seed) os.environ['PYTHONHASHSEED'] = str(seed) np.random.seed(seed) torch.manual_seed(seed) torch.cuda.manual_seed(seed) torch.cuda.manual_seed_all(seed) torch.backends.cudnn.benchmark = False torch.backends.cudnn.deterministic = True seed_torch()
上面的程式碼固定了pytorch常用的隨機種子,但是如果你在預處理中涉及了隨機性,也需要固定住.
為了復現結果,我們固定住了隨機種子. 但pytorch訓練模型時,不同的隨機種子會產生不同的結果. 每次使用固定的隨機種子,可能錯失好的結果. 為此,我們可以每次使用不一樣的隨機種子,並儲存下來
到此這篇關於簡述python&pytorch 隨機種子的實現的文章就介紹到這了,更多相關pytorch 隨機種子內容請搜尋我們以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援我們!