교재링크(광고 아님): freelec.co.kr/book/인공지능을-위한-수학/

 

 

고유벡터(eigenvector) : 어떤 0이 아닌 벡터에 대한 선형변환(linear transformation)의 결과가 그 자신의 스칼라배(scalar multiplication)로 나타나는 벡터

고윳값(eigenvalue) : 위 고유벡터를 선형변환한 결과가 원래 벡터의 몇배가 되는지를 나타내는 값

고유방정식(eigenvalue equation) : 고유벡터를 구하는 방정식. 간단히 eigenequation이라고도 씀. 내용은 후술하겠음.

자명해(trivial solution) : 너무도 당연해서 의미가 없는 해

비자명해(nontrivial solution) : 방정식의 주요 해 (자명해의 반대)

 

※ 선형변환 행렬의 크기가 2x2를 넘게 되면 복잡해지므로, 2x2로 한정한다. 1x1은 의미가 없다.

기본적으로 어떤 선형변환 T(x)에 대한 고유벡터(eigenvector) v가 존재한다고 하면 아래의 수식을 만족하게 된다.

$$ T(\vec v) = \lambda \vec v \tag1 $$

여기서 λ(람다)는 바로 고유값(eigenvalue)을 나타낸다.

선형변환을 변환행렬(transformation matrix) A로 놓고 고유벡터 v열벡터 u로 놓고 식을 만들어보면,

$$ Au = I u $$

$$ (A - \lambda I)u = 0 $$

 

위 식에서 (A - λI) 이 가역 행렬이라면 벡터 v 행는 영벡터(zero vector)라는 자명해(trivial solution) 밖에 가질 수가 없다. 때문에, 벡터 v가 고유벡터가 되려면 (A - λI) 의 행렬식(determinant)가 0이어야 한다. 즉,

$$ det(A - \lambda I) = 0 $$

 

교재에서는 위 행렬식이 고유방정식(eigenvalue equation)처럼 표현이 되었는데, 그렇지 않고 저 위의 (1)번 식이 고유방정식이다.

참고로 위 행렬식은 특성방정식(characteristic equation)이라고 부른다.

 

변환행렬 A가 아래와 같을 경우에 대한 특성방정식을 구해 보면,

$$ A = \begin{bmatrix} 2 & 1 \\ 1 & 2 \end{bmatrix} $$

$$ A - \lambda I = \begin{bmatrix} 2 - \lambda & 1 \\ 1 & 2 - \lambda \end{bmatrix} $$

$$ det(A - \lambda I) = (2 - \lambda)(2 - \lambda) - 1 \cdot 1 = \lambda^2 - 4\lambda + 3 = 0$$

 

2차 방정식이므로 근의 공식(quadratic formula)을 이용해도 되지만, 직관적으로 인수 분해가 된다.

$$ \lambda^2 - 4\lambda + 3 = (\lambda - 3)(\lambda - 1) = 0 $$

 

결국 고유값은 1, 3 두개가 되겠다. 이를 통해 고유벡터를 구하는 일은 누워서 떡먹기으므로 생략한다.

 

한편, 고유벡터와 고유값이 실수가 아닌 경우가 존재하는지에 대해서는 아래의 포스트에 따로 담아 보았다.

 

2차원 회전행렬(Rotation Matrix)의 고유벡터(Eigenvector)는?

고유벡터의 조건은 영벡터(zero vector)만 아니면 된다. 즉, 실수 값일 필요가 없다는 의미이다. 왜 그런지 2차원 회전행렬의 고유벡터를 구해보겠다. 기술의 편의를 위해 반시계방향 90도로 놓고 구

swjman.tistory.com

 

 

Posted by JMAN