1. 程式人生 > >相關矩陣 Correlation matrix

相關矩陣 Correlation matrix

  1. #兩個特徵的相關性
    
    pd.DataFrame({"full_data": p1,"red_data": p2}).corr()

根據提供的檔案分析各個特徵之間的相關性

Id

MSSubClass

MSZoning

LotFrontage

LotArea

LandContour

OverallCond

YearBuilt

YearRemodAdd

RoofStyle

MasVnrArea

ExterQual

ExterCond

Heating

HeatingQC

CentralAir

Electrical

1stFlrSF

2ndFlrSF

LowQualFinSF

GrLivArea

BsmtFullBath

BsmtHalfBath

FullBath

EnclosedPorch

MiscVal

MoSold

SalePrice

1

60

RL

65

8450

Lvl

5

2003

2003

Gable

196

Gd

TA

GasA

Ex

Y

SBrkr

856

854

0

1710

1

0

2

0

0

2

208500

2

20

RL

80

9600

Lvl

8

1976

1976

Gable

0

TA

TA

GasA

Ex

Y

SBrkr

1262

0

0

1262

0

1

2

0

0

5

181500

3

60

RL

68

11250

Lvl

5

2001

2002

Gable

162

Gd

TA

GasA

Ex

Y

SBrkr

920

866

0

1786

1

0

2

0

0

9

223500

4

70

RL

60

9550

Lvl

5

1915

1970

Gable

0

TA

TA

GasA

Gd

Y

SBrkr

961

756

0

1717

1

0

1

272

0

2

140000

5

60

RL

84

14260

Lvl

5

2000

2000

Gable

350

Gd

TA

GasA

Ex

Y

SBrkr

1145

1053

0

2198

1

0

2

0

0

12

250000

6

50

RL

85

14115

Lvl

5

1993

1995

Gable

0

TA

TA

GasA

Ex

Y

SBrkr

796

566

0

1362

1

0

1

0

700

10

143000

7

20

RL

75

10084

Lvl

5

2004

2005

Gable

186

Gd

TA

GasA

Ex

Y

SBrkr

1694

0

0

1694

1

0

2

0

0

8

307000

8

60

RL

NA

10382

Lvl

6

1973

1973

Gable

240

TA

TA

GasA

Ex

Y

SBrkr

1107

983

0

2090

1

0

2

228

350

11

200000

9

50

RM

51

6120

Lvl

5

1931

1950

Gable

0

TA

TA

GasA

Gd

Y

FuseF

1022

752

0

1774

0

0

2

205

0

4

129900

10

190

RL

50

7420

Lvl

6

1939

1950

Gable

0

TA

TA

GasA

Ex

Y

SBrkr

1077

0

0

1077

1

0

1

0

0

1

118000

11

20

RL

70

11200

Lvl

5

1965

1965

Hip

0

TA

TA

GasA

Ex

Y

SBrkr

1040

0

0

1040

1

0

1

0

0

2

129500

12

60

RL

85

11924

Lvl

5

2005

2006

Hip

286

Ex

TA

GasA

Ex

Y

SBrkr

1182

1142

0

2324

1

0

3

0

0

7

345000

13

20

RL

NA

12968

Lvl

6

1962

1962

Hip

0

TA

TA

GasA

TA

Y

SBrkr

912

0

0

912

1

0

1

0

0

9

144000

14

20

RL

91

10652

Lvl

5

2006

2007

Gable

306

Gd

TA

GasA

Ex

Y

SBrkr

1494

0

0

1494

0

0

2

0

0

8

279500

15

20

RL

NA

10920

Lvl

5

1960

1960

Hip

212

TA

TA

GasA

TA

Y

SBrkr

1253

0

0

1253

1

0

1

176

0

5

157000

16

45

RM

51

6120

Lvl

8

1929

2001

Gable

0

TA

TA

GasA

Ex

Y

FuseA

854

0

0

854

0

0

1

0

0

7

132000

17

20

RL

NA

11241

Lvl

7

1970

1970

Gable

180

TA

TA

GasA

Ex

Y

SBrkr

1004

0

0

1004

1

0

1

0

700

3

149000

18

90

RL

72

10791

Lvl

5

1967

1967

Gable

0

TA

TA

GasA

TA

Y

SBrkr

1296

0

0

1296

0

0

2

0

500

10

90000

19

20

RL

66

13695

Lvl

5

2004

2004

Gable

0

TA

TA

GasA

Ex

Y

SBrkr

1114

0

0

1114

1

0

1

0

0

6

159000

20

20

RL

70

7560

Lvl

6

1958

1965

Hip

0

TA

TA

GasA

TA

Y

SBrkr

1339

0

0

1339

0

0

1

0

0

5

139000

21

60

RL

101

14215

Lvl

5

2005

2006

Gable

380

Gd

TA

GasA

Ex

Y

SBrkr

1158

1218

0

2376

0

0

3

0

0

11

325300

22

45

RM

57

7449

Bnk

7

1930

1950

Gable

0

TA

TA

GasA

Ex

Y

FuseF

1108

0

0

1108

0

0

1

205

0

6

139400

23

20

RL

75

9742

Lvl

5

2002

2002

Hip

281

Gd

TA

GasA

Ex

Y

SBrkr

相關推薦

相關矩陣 Correlation matrix

#兩個特徵的相關性 pd.DataFrame({"full_data": p1,"red_data": p2}).corr() 根據提供的檔案分析各個特徵之間的相關性 Id MSSubClass MSZon

矩陣matrix)角度討論PCA(Principal Component Analysis 主成分分析)、SVD(Singular Value Decomposition 奇異值分解)相關原理

0. 引言 本文主要的目的在於討論PAC降維和SVD特徵提取原理,圍繞這一主題,在文章的開頭從涉及的相關矩陣原理切入,逐步深入討論,希望能夠學習這一領域問題的讀者朋友有幫助。 這裡推薦Mit的Gilbert Strang教授的線性代數課程,講的非常好,循循善誘,深入淺出。 Relevant Link:&

方差variance, 協方差covariance, 協方差矩陣covariance matrix

總結 一起 計算 矩陣 獨立 var 隨機 度量 誤差 參考: 如何通俗易懂地解釋「協方差」與「相關系數」的概念?(非常通俗易懂) 淺談協方差矩陣 方差(variance) 集合中各個數據與平均數之差的平方的平均數。在概率論與數理統計中,方差(Variance)用來度量隨機

淺談矩陣變換——Matrix

hit res ngs com 之間 map wid can 位置 矩陣變換在圖形學上經常用到。基本的常用矩陣變換操作包括平移、縮放、旋轉、斜切。 每種變換都對應一個變換矩陣,通過矩陣乘法,可以把多個變換矩陣相乘得到復合變換矩陣。 矩陣乘法不支持交換律,因此不同

python稀疏矩陣sparse matrix的保存和讀取

lena https path detail rom weixin from variable AD from scipy import sparse sparse.save_npz(‘./filename.npz‘, csr_matrix_variable) #保存

[NOIP2018校模擬賽]T2矩陣分組 Matrix

第一個 開始 etc getch break src () 等價 mat 題目鏈接: 矩陣分組 分析: 這道題求的是兩部分極差當中大的那個的最小值。對於這種求最值的問題,我們很自然(其實並沒有)地想到二分答案。 這個題有兩個結論: (好像當時看出來了第一個?然後發現下面都

[線性代數] 矩陣代數進階:矩陣分解 Matrix factorization

Matrix factorization 導語:承載上集的矩陣代數入門,今天來聊聊進階版,矩陣分解。其他集數可在[線性代數]標籤文章找到。有空再弄目錄什麼的。     Matrix factorization is quite like an application of inv

隨機矩陣 stochastic matrix

最近一個月來一直在看Google排序的核心演算法---PageRank排序演算法[1][2],在多篇論文中涉及到圖論、馬爾可夫鏈的相關性質說明與應用[3][4][5],而最為關鍵,一直讓我迷惑的一句話是"A stochastic matrix has principa

使用keras的fit_generator來獲得混淆矩陣Confusion Matrix

還是google過來的方法,說明它還是挺靠譜滴。這裡有必要記錄一下。 關於混亂淆矩陣是用來幹嘛的,這裡就不說了。各位可以百度or谷歌。 關於如何使用fit_generator來進行訓練可以看我上一篇文章。 我們在使用fit_generator方法來進行訓練的時候,是不需要自己讀取x_

leetcode 54. 螺旋矩陣(Spiral Matrix)

給定一個包含 m x n 個元素的矩陣(m 行, n 列),請按照順時針螺旋順序,返回矩陣中的所有元素。 示例 1: 輸入: [ [ 1, 2, 3 ], [ 4, 5, 6 ], [ 7, 8, 9 ] ] 輸出: [1,2,3,6,9,8,7,4,5] 示例

OpenGL ES (11): 答疑解惑 -- 矩陣乘法Matrix.multiplyMM();

1.介紹 之前的文章中有將投影矩陣和相機檢視變換矩陣結合的一個方法,生成一個新的矩陣mMVPMatrix。 Matrix.multiplyMM(mMVPMatrix, 0, mProjectionMatrix, 0, mViewMatrix, 0); 看官方文件: pu

旋轉矩陣(Rotate Matrix)的性質分析

  學過矩陣理論或者線性代數的肯定知道正交矩陣(orthogonal matrix)是一個非常好的矩陣,為什麼這麼說?原因有一下幾點: 正交矩陣每一列都是單位矩陣,並且兩兩正交。最簡單的正交矩陣就是單位陣。 正交矩陣的逆(inverse)等於正交矩陣的轉置(trans

黑塞矩陣 Hessian Matrix

                在機器學習課程裡提到了這個矩陣,那麼這個矩陣是從哪裡來,又是用來作什麼用呢?先來看一下定義:黑塞矩陣(Hessian Matrix),又譯作海森矩陣、海瑟矩陣、海塞矩陣等,是一個多元函式的二階偏導數構成的方陣,描述了函式的局部曲率。黑塞矩陣最早於19世紀由德國數學家Ludwig

【Math for ML】矩陣分解(Matrix Decompositions) (上)

mar 集合 分解 begin 傳統 gin logs font 成對 I. 行列式(Determinants)和跡(Trace) 1. 行列式(Determinants) 為避免和絕對值符號混淆,本文一般使用\(det(A)\)來表示矩陣\(A\)的行列式。另外這裏的\

LeetCode 54. 螺旋矩陣 Spiral Matrix(C語言)

題目描述: 給定一個包含 m x n 個元素的矩陣(m 行, n 列),請按照順時針螺旋順序,返回矩陣中的所有元素。 示例 1: 輸入: [ [ 1, 2, 3 ], [ 4, 5, 6 ], [ 7, 8, 9 ] ] 輸出: [1,2,3,6,9,8,7,4,5]

Python中的相關分析correlation analysis

相關分析(correlation analysis) 研究兩個或兩個以上隨機變數之間相互依存關係的方向和密切程度的方法。線性相關關係主要採用皮爾遜(Pearson)相關係數r來度量連續變數之間線性相

混淆矩陣(Confusion Matrix)

混淆矩陣是除了ROC曲線和AUC之外的另一個判斷分類好壞程度的方法。以下有幾個概念需要先說明:TP(True Positive): 真實為0,預測也為0FN(False Negative): 真實為0,預測為1FP(False Positive): 真實為1,預測為0TN(T

混淆矩陣confusion matrix, 準確率,召回率

混淆矩陣 . 預測正確(接受) 預測錯誤(拒絕) 真 TPTP TNTN(第一類分類錯誤,去真) PP 假 FPFP(第二類分類錯誤,存偽)

矩陣等式 matrix identity(二)

矩陣乘法 Am×n⋅Bn×p=∑jA(:,j)B(j,:) >> rng('default'); >> A = randi(3, 2, 3); B = randi(3

3. 線性模型效能分析--混淆矩陣(Confusion Matrix)

1. 什麼是混淆矩陣 在人工智慧中,混淆矩陣(confusion matrix)是視覺化工具,特別用於監督學習,在無監督學習一般叫做匹配矩陣。在影象精度評價中,主要用於比較分類結果和實際測得值,可以把分類結果的精度顯示在一個混淆矩陣裡面。混淆矩陣是通過