티스토리 뷰

- Linear Regression의 기본적인 개념들 외우고 있어야만 다음 단계로 진행 할 수 있다. 


- Hypothesis Function 

가설, 집값을 예측한다고 하면 Data가 존재 할 것이다. 그 데이터의 분포에 따라 가장 분포들에 가까운 함수를 가설이라 한다.



 

면적대비  집값을 예측 한다고 하면 x에는 면적, y는 집값이 된다.


input
x
output
y
04
17
27
38

 


이라면 씨타0은 2, 씨타1은 2가 됨


- Cost Function

Hypothesis Function의 정확도를 측정하기 위한 Function. 모든 hypothesis Function의 Input값에 대한 Output 값의 평균을 구하여 정확도를 측정한다. 



1. 결과 값 y에서 h(x) 값을 뺀다. 이 값은 minus가 될 수 있기 떄문에 제곱근

2. 모든 결과 값에 평균을 구하기 위해 다 더한다음 1/2m으로 나눔


점의 분포를 2사분면에 나타내고 Hypothesis Function으로 선을 그었을 때 모든 점이 Hypothesis Function의 선에서 가까울 수록 좋은 가설



- Gradient Descent

Const Function의 결과 값이 작으면 작을 수록 정답에 가까운 Hypothesis Function이 된다. 이 결과 갑을 예측하기 위해 사용하는 함수

우리의 목표는 가장 작은 결과 값을 찾기 위해 바른 씨타0, 씨타1을 찾는 것이다.


X,Y축으로된 그래프가 아니라 씨타0이 X 축, 씨타1이 z축, 결과 값 (

)이 Y축인 그래프를 상상해보자.



 최소값이 좋은 Hypothesis Function이다.


J는 0, 1 (에서 linear regression)


는 Descent 할 스텝

는 J(씨타0, 씨타1)의 값을 편미분 한 것, 자세한 건 모르겠고 개념적으로만 이해하자. J(씨타0, 씨타1)의 편미분하여 접하는 기울기를 구하여 씨타0을  알파 만큼 이동 시킨다.



그래서 나온게 이넘, 편미분이 어떻게 저렇게 되는지는 잘 모르겠다. 그냥 외우자.


repeat until convergence



m은 Training Set의 사이즈

Xi, Yi는 각 트레이닝 셋의 Data




댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/03   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
글 보관함