1. 程式人生 > 其它 >pytorch入門第五課——邏輯斯蒂迴歸

pytorch入門第五課——邏輯斯蒂迴歸

技術標籤:t1:M Lpytorch邏輯斯蒂迴歸啟用函式

前言

b站劉洪普老師的pytorch入門課筆記。記錄學習。
本文內容為邏輯斯蒂迴歸示例。

目錄

方法

邏輯斯蒂迴歸函式為:
在這裡插入圖片描述
雖然它的名字中帶有迴歸,但事實上它並不是一種迴歸演算法,而是一種分類演算法。它的優點是,它是直接對分類的可能性進行建模的,無需事先假設資料分佈,這樣就避免了假設分佈不準確所帶來的問題,因為它是針對於分類的可能性進行建模的,所以它不僅能預測出類別,還可以得到屬於該類別的概率。

關於啟用函式

一個函式是否是啟用函式需要看三點,而邏輯斯蒂曲線就是典型的啟用函式。

1、範圍[-1,1]
2、單調增
3、飽和函式

飽和函式即其導數符合這樣的曲線
在這裡插入圖片描述

jupyter record

與線性迴歸不同的地方是,前饋過程需要經過一次邏輯斯蒂啟用函式將資料歸到[0,1]範圍內,且這裡使用的損失是BCELoss,即交叉熵損失。

import torch
import torch.nn.functional as F

# 第一步,準備資料集
x_data = torch.Tensor([[1.0],[2.0],[3.0]])
y_data = torch.Tensor([[0],[0],[1]])

# 第二步,使用類設計模型,繼承自nn.Module
class LogisticRegressionModel
(torch.nn.Module): def __init__(self): super(LogisticRegressionModel,self).__init__() self.linear = torch.nn.Linear(1,1) def forward(self,x): y_pred = F.sigmoid(self.linear(x)) return y_pred model = LogisticRegressionModel() # 第三步,構建損失和優化器 criterion = torch.
nn.BCELoss(size_average = False) optimizer = torch.optim.SGD(model.parameters(),lr = 0.01) # 第四步,訓練階段:前饋,反饋,更新 for epoch in range(1000): y_pred = model(x_data) loss = criterion(y_pred,y_data) print(epoch,loss.item()) optimizer.zero_grad() loss.backward() optimizer.step()

0 2.870121955871582
1 2.852933168411255
2 2.836561918258667
3 2.8209731578826904
4 2.8061323165893555
5 2.7920048236846924
6 2.778557300567627
7 2.765756130218506
8 2.7535696029663086
9 2.7419652938842773

991 1.173973560333252
992 1.1733458042144775
993 1.17271888256073
994 1.1720927953720093
995 1.1714673042297363
996 1.1708428859710693
997 1.1702193021774292
998 1.1695961952209473
999 1.1689739227294922

總結

以上就是邏輯斯蒂迴歸的示例了,其中的四個步驟可以作為一個框架來學習。