교재링크(광고 아님): freelec.co.kr/book/인공지능을-위한-수학/

 

3-7 벡터의 노름

3-8 코사인 유사도

 

 

3-7 벡터의 노름

L1 노름(L1 norm) : 벡터의 모든 성분의 절대값을 합한 값.

$$ x = (x_1, x_2, ... , x_n) \text{에 대해} $$

$$ \| x \|_1 = \sum_{i=1}^{n}{|x_{i}|} $$

이렇게 표현한다. L1 노름은 택시 노름(Taxicab norm) 혹은 맨하탄 노름(Manhattan norm)이라고도 불리는데, 이렇게 부르는 이유는 (맨하탄의)택시가 목적지로 이동할 때 대각선으로 이동하면 최단거리로 갈 수 있지만, 건물로 막혀 있어 네모 반듯한 길을 따라 목적지로 이동하는 모습이 L1 노름의 값을 구하는 것과 비슷하기 때문이다.

 

L2 노름(L2 norm) : 벡터의 유클리드 거리를 구한 값.

$$ x = (x_1, x_2, ... , x_n) \text{에 대해} $$

$$ \| x \|_2 = \sqrt { \sum_{i=1}^{n}{x_{i}^2} } $$

내적(inner product)의 공식을 이용하면 간단히 표현이 가능하다.

$$ \| x \|_2 = \sqrt { x \cdot x } $$

$$ \| x \|_2 = \sqrt { \langle x, x \rangle } $$

 

L1 노름은 특히 인공지능에서 많이 쓰인다고 하고, L2 노름은 다양한 분야에서 쓰인다고 한다.

 

 

3-8 코사인 유사도

코사인 유사도(cosine similarity) : 두 벡터의 유사도를 구하는 방법론. 내적공식을 코사인함수 중심으로 정리하면 치역이 코사인함수와 일치된다. 즉, 1이면 0도(평행), 0일 경우 90도(직교), -1인 경우 180도(역행)로 나타나게 되고, 이 방법론은 각도가 평행이 될수록 유사하다고 판단하는 것이다.

공식을 정리해 보면

$$ \langle a, b \rangle = \| a \| \| b \| \cos \theta $$

$$ \cos \theta = \frac {\langle a, b \rangle} {\| a \| \| b \|} $$

 

이 공식을 코사인 유사도 함수로 표현하려면 cos(a, b) 라고 하면 된다.

 

이 방법은 인공지능에서 많이 쓰이는 방법이라고 하는데, 벡터의 크기가 무시되는 단점이 있다고 한다.

 

 

Posted by JMAN