교재링크(광고 아님): freelec.co.kr/book/인공지능을-위한-수학/
3-7 벡터의 노름
3-8 코사인 유사도
3-7 벡터의 노름
L1 노름(L1 norm) : 벡터의 모든 성분의 절대값을 합한 값.
$$ x = (x_1, x_2, ... , x_n) \text{에 대해} $$
$$ \| x \|_1 = \sum_{i=1}^{n}{|x_{i}|} $$
이렇게 표현한다. L1 노름은 택시 노름(Taxicab norm) 혹은 맨하탄 노름(Manhattan norm)이라고도 불리는데, 이렇게 부르는 이유는 (맨하탄의)택시가 목적지로 이동할 때 대각선으로 이동하면 최단거리로 갈 수 있지만, 건물로 막혀 있어 네모 반듯한 길을 따라 목적지로 이동하는 모습이 L1 노름의 값을 구하는 것과 비슷하기 때문이다.
L2 노름(L2 norm) : 벡터의 유클리드 거리를 구한 값.
$$ x = (x_1, x_2, ... , x_n) \text{에 대해} $$
$$ \| x \|_2 = \sqrt { \sum_{i=1}^{n}{x_{i}^2} } $$
내적(inner product)의 공식을 이용하면 간단히 표현이 가능하다.
$$ \| x \|_2 = \sqrt { x \cdot x } $$
$$ \| x \|_2 = \sqrt { \langle x, x \rangle } $$
L1 노름은 특히 인공지능에서 많이 쓰인다고 하고, L2 노름은 다양한 분야에서 쓰인다고 한다.
3-8 코사인 유사도
코사인 유사도(cosine similarity) : 두 벡터의 유사도를 구하는 방법론. 내적공식을 코사인함수 중심으로 정리하면 치역이 코사인함수와 일치된다. 즉, 1이면 0도(평행), 0일 경우 90도(직교), -1인 경우 180도(역행)로 나타나게 되고, 이 방법론은 각도가 평행이 될수록 유사하다고 판단하는 것이다.
공식을 정리해 보면
$$ \langle a, b \rangle = \| a \| \| b \| \cos \theta $$
$$ \cos \theta = \frac {\langle a, b \rangle} {\| a \| \| b \|} $$
이 공식을 코사인 유사도 함수로 표현하려면 cos(a, b) 라고 하면 된다.
이 방법은 인공지능에서 많이 쓰이는 방법이라고 하는데, 벡터의 크기가 무시되는 단점이 있다고 한다.
'Book Study > 인공지능을 위한 수학' 카테고리의 다른 글
3장 선형대수(12절:선형 변환) - 기본편 - 인공지능을 위한 수학 (0) | 2020.07.16 |
---|---|
3장 선형대수(9~11절) - 기본편 - 인공지능을 위한 수학 (2) | 2020.06.28 |
3장 선형대수(4~6절) - 기본편 - 인공지능을 위한 수학 (0) | 2020.06.26 |
3장 선형대수(1~3절) - 기본편 - 인공지능을 위한 수학 (0) | 2020.06.25 |
2장 미분(7절:특수 함수의 미분) - 기본편 - 인공지능을 위한 수학 (0) | 2020.06.22 |