반응형

선형대수 2

[머신러닝] 머신러닝 선형대수(2) - norm & orthogonality & projection

Norm norm이라는 것은 벡터의 크기를 말합니다. || x || 이런 식으로 표기를 해줍니다. || x - y || 이것은 무엇일까요? x-y는 저런 벡터가 됩니다. 그러면 저것의 크기는 결국 x 벡터와 y 벡터 사이의 거리가 되는 것 입니다. p-Norms에는 종류가 있습니다. 먼저 엘투 norms을 보면 우리가 흔히 알고 있는 피타고라스 정리를 통해서 구한 거리를 말합니다. 각 길이를 제곱후에 더해주고 루트를 취해주면 됩니다. 엘원 놈은 멘하튼 norm이라고도 불립니다. 이유는 멘하튼이 이제 네모네모 형태로 되어있는데 그림에서 보시다시피 대각선으로는 못가고 왼쪽 오른쪽 위 아래로만 갈 수 있기 때문에 그 거리를 측정한 것을 말합니다. 그래서 각 벡터의 크기를 더해주기만 하면 됩니다. 나머지는 그림..

CS/머신러닝 2022.07.03

[머신러닝] 머신러닝 선형대수 (1) - notation & inverse & 독립

본격적으로 머신러닝을 공부하기 앞서 머신러닝에 필요한 선형대수에 대해서 먼저 간단히 공부하고 머신러닝에 대해서 공부해 보겠습니다. 벡터를 기본적으로 표현하는 방법입니다. x 밑에 - 를 적어주면 기본적으로 벡터라는 뜻인데 생략하기도 합니다. 열과 행을 모으면 행렬이 되는데 이 행렬은 두 가지로 나타낼 수 있는 모습을 볼 수 있습니다. 하나는 열벡터들의 모음 다른 하는 행 벡터들의 모음 이런식으로 표현할 수 있습니다. Dot product & Outer product 이제 내적과 외적에 대해서 간단히 보겠습니다. 먼저 내적, inner product or dot product라고 합니다. 보시면 내적을 표현하는 방법은 3가지가 있습니다. 기본적으로 x 벡터라고 하면 행벡터를 나타내기 때문에 트랜스포스(T)..

CS/머신러닝 2022.07.03
반응형