pytorch和tensorflow的愛恨情仇之基本資料型別
自己一直以來都是使用的pytorch,最近打算好好的看下tensorflow,新開一個系列:pytorch和tensorflow的愛恨情仇(相愛相殺。。。)
無論學習什麼框架或者是什麼程式語言,最基礎的就是其基本的資料型別了,接下來我們就一一看看吧。
pytorch版本:0.4.1,準備之後換成1.x版本的。
tensorflow版本:1.15.0,雖然目前tensorflow已經出到2.x版本了,但據說2.x版本的還存在一些bug,就使用目前的1.x版本的了。
1、python基本資料型別
數字型:整型、浮點型、布林型、複數型。
非數字型:字串、列表、元組、字典。
使用type可以檢視變數的型別:type(變數名)
2、numpy中的資料型別
名稱 | 描述 |
---|---|
bool_ | 布林型資料型別(True 或者 False) |
int_ | 預設的整數型別(類似於 C 語言中的 long,int32 或 int64) |
intc | 與 C 的 int 型別一樣,一般是 int32 或 int 64 |
intp | 用於索引的整數型別(類似於 C 的 ssize_t,一般情況下仍然是 int32 或 int64) |
int8 | 位元組(-128 to 127) |
int16 | 整數(-32768 to 32767) |
int32 | 整數(-2147483648 to 2147483647) |
int64 | 整數(-9223372036854775808 to 9223372036854775807) |
uint8 | 無符號整數(0 to 255) |
uint16 | 無符號整數(0 to 65535) |
uint32 | 無符號整數(0 to 4294967295) |
uint64 | 無符號整數(0 to 18446744073709551615) |
float_ | float64 型別的簡寫 |
float16 | 半精度浮點數,包括:1 個符號位,5 個指數位,10 個尾數位 |
float32 | 單精度浮點數,包括:1 個符號位,8 個指數位,23 個尾數位 |
float64 | 雙精度浮點數,包括:1 個符號位,11 個指數位,52 個尾數位 |
complex_ | complex128 型別的簡寫,即 128 位複數 |
complex64 | 複數,表示雙 32 位浮點數(實數部分和虛數部分) |
complex128 | 複數,表示雙 64 位浮點數(實數部分和虛數部分) |
numpy 的數值型別實際上是 dtype 物件的例項,並對應唯一的字元,包括 np.bool_,np.int32,np.float32,等等。
這裡簡要的看下例子,一般情況下我們是這麼定義一個數組的:
當然,我們也可以使用如下方式定義:先指定陣列中元素的型別,再建立陣列
為什麼我們要這麼定義呢,這麼定義不是沒有第一種簡便嗎?這是因為,通過這種方式,我們可以定義自己的資料型別:
這裡的i1指代的是int8,
每個內建型別都有一個唯一定義它的字元程式碼,如下:
字元 | 對應型別 |
---|---|
b | 布林型 |
i | (有符號) 整型 |
u | 無符號整型 integer |
f | 浮點型 |
c | 複數浮點型 |
m | timedelta(時間間隔) |
M | datetime(日期時間) |
O | (Python) 物件 |
S, a | (byte-)字串 |
U | Unicode |
V | 原始資料 (void) |
於是乎,請看以下例子:
說到資料型別,就不得不涉及到資料型別之間的轉換,自然而然首先想到的是通過修改dtype的型別來修改資料的型別,但是這存在一些問題,請看以下例子:
>>> a=np.array([1.1, 1.2]) >>> a.dtype dtype('float64') >>> a.dtype=np.int16 >>> a.dtype dtype('int16') >>> a array([-26214, -26215, -26215, 16369, 13107, 13107, 13107, 16371], dtype=int16) #原來float64相當於4個int16的位寬,這樣強制轉換後會將他們直接拆開成4個數, #因此原來的兩個float64成了8個int16
我們要使用astype來修改資料型別,看一下例子:
>>> a=np.array([1.1, 1.2]) >>> a.dtype dtype('float64') >>> a.astype(np.int16) array([1, 1], dtype=int16) >>> a.dtype dtype('float64') #a的資料型別並沒有變 >>> a=a.astype(np.int16) #賦值操作後a的資料型別變化 >>> a.dtype dtype('int16') >>> a array([1, 1], dtype=int16)
參考:
https://www.runoob.com/numpy/numpy-dtype.html
https://blog.csdn.net/miao20091395/article/details/79276721
3、pytorch中的資料型別
看以下例子:預設使用的資料型別是torch.float32
當然,你也可以指定生成張量的類別,通過以下方式:
在多數情況下,我們都會使用pytorch自帶的函式建立張量,看以下例子:
通過以下兩種方式可以檢視張量的資料型別:
接下來還是要看下資料型別之間的轉換,主要有三點:張量之間的資料型別的轉換、張量和numpy陣列之間的轉換、cuda張量和cpu張量的轉換
(1) 不同張量之間的型別轉換
直接使用(.型別)即可:
我們還可以使用type()來進行轉換:
我們同樣可以使用type_as()將某個張量的資料型別轉換為另一個張量的相同的資料型別:
(2)張量和numpy之間的轉換
將numpy陣列轉換為張量:使用from_numpy()
將張量轉換為numoy陣列:使用.numpy()
(3) cuda型別和cpu型別之間的轉換
cpu型別轉換成cuda型別:
a.cuda()或者a.to(device):這裡的device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
cuda型別轉換為cpu型別:
a.cpu()
這裡需要提一句的是,要先將cuda型別轉換為cpu型別,才能進一步將該型別轉換為numpy型別。
3、tensorflow基本資料型別
定義一個張量:
使用tf.constant建立一個常量,注意:常量是不進行梯度更新的。
(1)張量之間的型別轉換:可以使用tf.to_型別()或者tf.cast(),不過前者將要被移除,最好使用tf.cast()
(2) 張量和numpy之間的型別轉換
numpy轉張量:使用tf.convert_to_tensor()
張量轉numpy:由Session.run
或eval
返回的任何張量都是NumPy陣列。
(3)tensorflow好像不存在什麼gpu張量和cpu張量型別
如果有什麼錯誤還請指出,有什麼遺漏的還請補充,會進行相應的修