(1) Vector transformation
T(u+v)=T(u)+T(v)
T(cu)=cT(u)
벡터변환은 매스릭스와 벡터의 곱으로 표현할수있다
고유벡터와 고유값
행렬 A는 n*n 정방행렬(square matrix) 이라는 점
Ax = λx를 만족하는 모든 상수 λ(고유값) 와 0이 아닌 모든 벡터 x (1개 ~ 최대 n 개)를 찾는 것(고유벡터)
벡터변환을 통해 벡터가 변화한다
하지만 그 변환(transformation)에 영향을 받지 않는 벡터를 고유벡터라 한다
방향은 변하지 않지만 크기는 변할수 있다
그 변화하는 크기값 (특정 스칼라 값)을 고유값이라 한다
* 고유벡터와 고유값은 항상 쌍을 이루고 있다 *
다시 또 한번 정리해보자
T⋅v=v′=λ⋅v
고유값을 배우는 이유?
내 생각에는
고차원의 데이터 (또는 수많은 양의 데이터)를 전부 보관 , 처리하기에는 비용과 시간이 많이 들것이다.
이 데이터를 손상시키지 않고 차원을 축소, 압축 시킬수있다면 더 효과적으로 시간과 비용을 절약할수있다.
손상시키지 않고 축소,압축 시키는 방법 => 데이터의 고유벡터와 고유값을 찾으면서 벡터변환 시키는 과정
고차원의 문제
(벡터변환 , 고유벡터, 고유값을 활용하여 차원을 줄여야 하는 이유)
3차원 시각화된 데이터도 눈으로 보고 분석하기 쉽지 않은데,
고차원 (20차원, 30차원 ...) 은 시각화가 어려울 뿐만 아니라 시각화를 한다 하더라도 분석하기 어려울 것이다.
데이터의 일부를 제한하더라도, 의미 파악에는 큰 차이가 없다면
feature의 수와 관련하여 어느 시점에서는 feature를 더 사용하는 것이 되려 비효율적일수 있다.
또한 높은 feature는 'overfitting'의 문제를 야기할수 있다
Dimension Reduction
Feature Selection
데이터셋에서 덜 중용한 feature를 제거하는 방법
Feature Extraction
PCA처럼 기존 feature를 압축, 또는 변환하는 방법
출처 : 코드스테이츠 강의
'AI월드 > ⚙️AI BOOTCAMP_Section 1' 카테고리의 다른 글
HCA(하이어리컬, 클러스터)_Day14 (0) | 2021.01.15 |
---|---|
PCA의원리_Day13(3) (0) | 2021.01.14 |
eigenvector,eigenvalue,고윳값,고유벡터_Day13 (0) | 2021.01.14 |
공분산,상관계수,span,basis,rank_Day12(3) (0) | 2021.01.13 |
선형대수학을 위한 벡터 복습_Day12(2) (0) | 2021.01.13 |
댓글