[AI]/Data Science Fundamentals(14)
-
Linear Algebra(3) - Dimension Reduction
[Dimension Reduction] Key points eigenvector / eigenvalue dimension reduction 개념 One-Hot Encoding PCA(Principal Component Analysis) [Eigenvector / Eigenvalue] $A\cdot\vec{x}=\lambda\cdot\vec{x}$ $\vec{x} :eigen\ vector $ $\lambda :eigen\ value \ (scalar)$ calculation ($A : 2 \times 2$ matrix 라고 가정): $ \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \cdot \begin{bmatrix} x_{1} \\..
2021.01.30 -
Linear Algebra(4) - Clustering
key points supervised / unsupervised screeplot 개념 k-means clustering [Supervised / Unsupervised] Supervised : training data에 label이 있을 경우 Classification : 주어진 데이터의 카테고리 or 클래스 예측 Prediction : continuous data를 바탕으로 결과 예측 Unsupervised : training data에 label이 없는 경우 Clustering : 연관된 feature을 바탕으로 유사한 그룹을 생성 Dimensionality Reduction : feature selection/extraction 을 활용해 차원 축소 Association Rule Learning..
2021.01.30