1. 程式人生 > 其它 >002_wz_wed_DL_課程一第二週測試題

002_wz_wed_DL_課程一第二週測試題

技術標籤:吳恩達DL測試題深度學習

課程一 神經網路和深度學習

第二週 神經網路基礎

第 1 題

神經元計算什麼?

A.神經元計算啟用函式後,再計算線性函式(z=Wx+b)

B.神經元計算一個線性函式(z=Wx+b),然後接一個啟用函式

C.神經元計算一個函式g,它線性地縮放輸入x(Wx+b)

D.神經元先計算所有特徵的平均值,然後將啟用函式應用於輸出

第 2 題

以下哪一個是邏輯迴歸的損失函式?

A. L ( i ) ( y ^ ( i ) ) = ∣ y ( i ) − y ^ ( i ) ∣ L^{(i)}(\hat{y}^{(i)})=|y^{(i)}-\hat{y}^{(i)}|

L(i)(y^(i))=y(i)y^(i)
B. L ( i ) ( y ^ ( i ) ) = m a x ( 0 , y ( i ) − y ^ ( i ) ) L^{(i)}(\hat{y}^{(i)})=max(0,y^{(i)}-\hat{y}^{(i)}) L(i)(y^(i))=max(0,y(i)y^(i))
C. L ( i ) ( y ^ ( i ) ) = ∣ y ( i ) − y ^ ( i ) ∣ 2 L^{(i)}(\hat{y}^{(i)})=|y^{(i)}-\hat{y}^{(i)}|^2 L(i)(y^(i))=y(i)y^(i)2
D. L ( i ) ( y ^ ( i ) ) = − ( y ( i ) l o g ( y ^ ( i ) ) + ( 1 − y ( i ) ) l o g ( 1 − y ^ ( i ) ) ) L^{(i)}(\hat{y}^{(i)})=-(y^{(i)}log(\hat{y}^{(i)})+(1-y^{(i)})log(1-\hat{y}^{(i)}))
L(i)(y^(i))=(y(i)log(y^(i))+(1y(i))log(1y^(i)))

第 3 題

假設img是一個(32, 32, 3)陣列,表示一個32x32影象,它有三個顏色通道:紅色、綠色和藍色。如何將其重塑為列向量?

A.x = img.reshape((1, 32*32, 3))

B.x = img.reshape((32323, 1))

C.x = img.reshape((3, 32*32))

D.x = img.reshape((32*32, 3))

第 4 題

考慮以下兩個隨機陣列a和b:

a = np.random.randn(2, 3) # a.shape = (2, 3)  
b = np.random.randn(2, 1) # b.shape = (2, 1) c = a + b

c的維度是什麼?

A.c.shape = (3, 2)

B.c.shape = (2, 1)

C.c.shape = (2, 3)

D.計算不成立因為這兩個矩陣維度不匹配

第 5 題

考慮以下兩個隨機陣列a和b:

a = np.random.randn(4, 3) # a.shape = (4, 3)
b = np.random.randn(3, 2) # a.shape = (3, 2)
c = a * b

c的維度是什麼?

A.c.shape = (4, 3)

B.c.shape = (3, 3)

C.c.shape = (4, 2)

D.計算不成立因為這兩個矩陣維度不匹配

第 6 題

假設每個示例有個輸入特性, X = [ X ( 1 ) , X ( 2 ) , . . . , X ( m ) ] X=[X^{(1)},X^{(2)},...,X^{(m)}] X=[X(1),X(2),...,X(m)]的維數是多少?

A.(m, 1)

B.(1, m)

C.( n x n_x nx, m)

D.(m, n x n_x nx)

第 7 題

np.dot(a,b)對a和b的進行矩陣乘法,而a*b執行元素的乘法,考慮以下兩個隨機陣列a和b:

a = np.random.randn(12288, 150) # a.shape = (12288, 150)  
b = np.random.randn(150, 45) # b.shape = (150, 45)  
c = np.dot(a, b)

c的維度是什麼?

A.c.shape = (12288, 150)

B.c.shape = (150, 150)

C.c.shape = (12288, 45)

D.計算不成立因為這兩個矩陣維度不匹配

第 8 題

請考慮以下程式碼段:

# a.shape = (3,4)  
# b.shape = (4,1)  
for i in range(3):  
  for j in range(4):  
    c[i][j] = a[i][j] + b[j]

如何將之向量化?

A.c = a + d

B.c = a +b.T

C.c = a.T + b.T

D.c = a.T + b

第 9 題

請考慮以下程式碼段:

a = np.random.randn(3, 3)  
b = np.random.randn(3, 1)  
c = a * b

c的維度是什麼?

A.這會觸發廣播機制,b會被複制3次變成(33),而操作是元素乘法,所以c.shape = (3, 3)

B.這會觸發廣播機制,b會被複制3次變成(33),而操作是矩陣乘法,所以c.shape = (3, 3)

C.這個操作將一個3x3矩陣乘以一個3x1的向量,所以c.shape = (3, 1)

D.這個操作會報錯,因為你不能用*對這兩個矩陣進行操作,你應該用np.dot(a, b)

第 10 題

請考慮以下計算圖:
Image Name
輸出J是?

A.J = (c - 1) * (b + a)
B.J = (a - 1) * (b + c)
C.J = ab + bc + a*c
D.J = (b - 1) * (c + a)

1-10題 答案

1.B 2.D 3.B 4.C 5.D 6.C 7.C 8.B 9.A 10.B