Linear Algebra(3)
-
Linear Algebra(1) - Vector/Matrix
Key points Vector/Matrix matrix : 기본적으로 2D array 를 사용해야 됨 (대괄호가 바깥에 하나 더 있다고 생각하자) concept transpose identity diagonal upper/lower inverse dot product magnitude determinant [transpose] $a^T$ # a 라는 np.array가 있다고 가정 a.T # ==> returns transpose of 'a' [Identity] $I$ np.identity(n) # ==> returns n by n identity matrix [inverse] $a^{-1}$ # a 라는 np.array가 있다고 가정 np.linalg.inv(a) # ==> returns inverse..
2021.01.30 -
Linear Algebra(2) - Span/Basis/Linear Projection
[Linear Algebra +] Key points covariance/correlation coefficient span basis rank project $\vec{a}$ onto $\vec{b}$ 개념 orthogonality unit vectors Gaussian Elimination [Covariance/Correlation Coefficient] $Variance = \frac{\sum(X-\bar{X})^2}{N}$ # A 라는 array가 있다고 가정 A.var(ddof=) # population : ddof = 0 / sample : ddof = 1 ==> # returns variance of 'A' $Standard \ Deviation = \sqrt{Var(X)}$ # A 라는 a..
2021.01.30 -
Linear Algebra(4) - Clustering
key points supervised / unsupervised screeplot 개념 k-means clustering [Supervised / Unsupervised] Supervised : training data에 label이 있을 경우 Classification : 주어진 데이터의 카테고리 or 클래스 예측 Prediction : continuous data를 바탕으로 결과 예측 Unsupervised : training data에 label이 없는 경우 Clustering : 연관된 feature을 바탕으로 유사한 그룹을 생성 Dimensionality Reduction : feature selection/extraction 을 활용해 차원 축소 Association Rule Learning..
2021.01.30