교재링크(광고 아님): freelec.co.kr/book/인공지능을-위한-수학/
고유벡터(eigenvector) : 어떤 0이 아닌 벡터에 대한 선형변환(linear transformation)의 결과가 그 자신의 스칼라배(scalar multiplication)로 나타나는 벡터
고윳값(eigenvalue) : 위 고유벡터를 선형변환한 결과가 원래 벡터의 몇배가 되는지를 나타내는 값
고유방정식(eigenvalue equation) : 고유벡터를 구하는 방정식. 간단히 eigenequation이라고도 씀. 내용은 후술하겠음.
자명해(trivial solution) : 너무도 당연해서 의미가 없는 해
비자명해(nontrivial solution) : 방정식의 주요 해 (자명해의 반대)
※ 선형변환 행렬의 크기가 2x2를 넘게 되면 복잡해지므로, 2x2로 한정한다. 1x1은 의미가 없다.
기본적으로 어떤 선형변환 T(x)에 대한 고유벡터(eigenvector) v가 존재한다고 하면 아래의 수식을 만족하게 된다.
$$ T(\vec v) = \lambda \vec v \tag1 $$
여기서 λ(람다)는 바로 고유값(eigenvalue)을 나타낸다.
선형변환을 변환행렬(transformation matrix) A로 놓고 고유벡터 v를 열벡터 u로 놓고 식을 만들어보면,
$$ Au = I u $$
$$ (A - \lambda I)u = 0 $$
위 식에서 (A - λI) 이 가역 행렬이라면 벡터 v 행는 영벡터(zero vector)라는 자명해(trivial solution) 밖에 가질 수가 없다. 때문에, 벡터 v가 고유벡터가 되려면 (A - λI) 의 행렬식(determinant)가 0이어야 한다. 즉,
$$ det(A - \lambda I) = 0 $$
교재에서는 위 행렬식이 고유방정식(eigenvalue equation)처럼 표현이 되었는데, 그렇지 않고 저 위의 (1)번 식이 고유방정식이다.
참고로 위 행렬식은 특성방정식(characteristic equation)이라고 부른다.
변환행렬 A가 아래와 같을 경우에 대한 특성방정식을 구해 보면,
$$ A = \begin{bmatrix} 2 & 1 \\ 1 & 2 \end{bmatrix} $$
$$ A - \lambda I = \begin{bmatrix} 2 - \lambda & 1 \\ 1 & 2 - \lambda \end{bmatrix} $$
$$ det(A - \lambda I) = (2 - \lambda)(2 - \lambda) - 1 \cdot 1 = \lambda^2 - 4\lambda + 3 = 0$$
2차 방정식이므로 근의 공식(quadratic formula)을 이용해도 되지만, 직관적으로 인수 분해가 된다.
$$ \lambda^2 - 4\lambda + 3 = (\lambda - 3)(\lambda - 1) = 0 $$
결국 고유값은 1, 3 두개가 되겠다. 이를 통해 고유벡터를 구하는 일은 누워서 떡먹기으므로 생략한다.
한편, 고유벡터와 고유값이 실수가 아닌 경우가 존재하는지에 대해서는 아래의 포스트에 따로 담아 보았다.
'Book Study > 인공지능을 위한 수학' 카테고리의 다른 글
4장 확률과 통계(2절:확률변수와 확률분포) - 기본편 - 인공지능을 위한 수학 (0) | 2020.07.28 |
---|---|
4장 확률과 통계(1절:확률) - 기본편 - 인공지능을 위한 수학 (0) | 2020.07.23 |
3장 선형대수(12절:선형 변환) - 기본편 - 인공지능을 위한 수학 (0) | 2020.07.16 |
3장 선형대수(9~11절) - 기본편 - 인공지능을 위한 수학 (2) | 2020.06.28 |
3장 선형대수(7~8절) - 기본편 - 인공지능을 위한 수학 (0) | 2020.06.27 |