본문 바로가기

머신러닝

Regression

반응형

- regression이란?

 

linear regression : H(x) = Wx + b

: 많은 곳에서 적용되는 경우가 많다 ex) 공부하는 시간이 길어질수록 공부를 더 잘하게 됨.

W,b를 알아내야 가설을 알아낼수 있다.

 

cost function = loss function

우리가 세운 가설 H(x)와 실제 데이터값이 얼마나 차이나는가를 알아본다.

차이가 클수록 더 페널티를 부여하기 위해서 제곱 ( H(x) - y )² 을 많이 사용한다.

결국 cost는 W와 b에 관한 함수가 된다.

linear regression의 학습은 cost(W,b)를 최소화 시키는 W와 b의 값을 구하는 일이다!

cost function은 항상 밥그릇 모양의 convex function으로 최저점이 존재한다.

 

이 때 많이 사용되는 알고리즘으로 Gradient descent algorithm가 있다.

어떤 점에서 시작하던지 예외가 있긴 하지만 항상 최저점에 도달할 수 있단 것이 이 알고리즘의 장점이다.

알파는 learning rate (ex. 01) 이다.

Gradient decent

multi-variable linear regression

WX vs XW

실제 구현에서는 WX가 아닌 XW 형태로 H(X)를 표현한다.

 

 

 

Youtube 모두를 위한 딥러닝 참고

반응형

'머신러닝' 카테고리의 다른 글

Application & Tips  (0) 2019.06.23
axis란?  (0) 2019.06.03
softmax classification  (0) 2019.04.29
Classification  (0) 2019.04.29
Basic  (0) 2019.04.29