본문 바로가기
728x90
반응형
SMALL

전체 글35

선형회귀(Linear Regression) 이론 2 - 손실함수(Loss Functiion) 2 https://wherwhen.tistory.com/3 선형회귀(Linear Regression) 이론 2 - 손실함수(Loss Function) 1 이전에는 선형회귀가 무엇인지, 그리고 선형회귀에 대한 가설함수까지 설명하였다. https://wherwhen.tistory.com/2 선형 회귀(Linear Regression) 이론 지도 학습의 한 유형이면서, 연속적인 값을 가지고 예 wherwhen.tistory.com 이전 글에서는 경사 하강법에 대한 개념과 설명을 했다면 이번글에서는 경사 하강법에 대한 예시와 계산을 설명하겠다. 이전 글에서 J와 기울기에 대해 설명을 했는데, 예시를 들어 설명하면 아래와 같이 Jθ에 대한기울기가 1θ,2θ인데 여기서 θ0,θ1이 3,2이라면 왼쪽과 같이 현재 기울기.. 2023. 5. 30.
선형회귀(Linear Regression) 이론 2 - 손실함수(Loss Function) 1 이전에는 선형회귀가 무엇인지, 그리고 선형회귀에 대한 가설함수까지 설명하였다. https://wherwhen.tistory.com/2 선형 회귀(Linear Regression) 이론 지도 학습의 한 유형이면서, 연속적인 값을 가지고 예측을 하는 회귀 모델이다. 단순 회귀 모델이라고도 한다. 선형 회귀의 그래프는 위와 같은 형태를 지니고 있다. 여기서 직선은 목표 변수(y) wherwhen.tistory.com 이번에는 이전에 언급한 가설함수를 평가하는 손실함수에 대해 설명하겠다. 손실함수는 보통 J라는 문자를 사용한다. 선형 회귀의 경우에는 평균 제곱 오차가 손실 함수의 output이다. 손실함수의 output이 작을수록 가설 함수의 손실이 적기 때문에 더 좋은 가설 함수라고 할 수 있고, 반대로 손실.. 2023. 5. 27.
선형 회귀(Linear Regression) 이론 1 지도 학습의 한 유형이면서, 연속적인 값을 가지고 예측을 하는 회귀 모델이다. 단순 회귀 모델이라고도 한다. 선형 회귀의 그래프는 위와 같은 형태를 지니고 있다. 여기서 직선은 목표 변수(y)와 입력 변수(x)의 최적선을 나타내며, 각 점들과 직선의 거리는 오차를 의미한다. 여기서 우리는 목표 변수(맞추려고 하는 값)과 입력 변수(맞추는데 사용하는 값)을 설정해주어야 하며, 위와 같이 최적선을 찾아내는것이 목표이다. 그리고 이러한 최적선을 찾기 위해 여러가지 변수와 함수(가설함수)를 이용해야 한다. 여기서 가설함수를 y=ax+b라고 가정하고 시작하자. 하지만 함수이기때문에 h(x)= θ0+θ1x 로 나타내어야 한다. 지금은 입력 변수가 하나이기에 단순한 형태이지만 만약, 여러 입력 변수를 이용한다면 h(.. 2023. 5. 25.
반응형
LIST