본문 바로가기
728x90
반응형
SMALL

Mahcine Learning4

선형회귀(LinearRegression) 가설함수, 손실함수, 경사하강법 설명 이전에는 가설함수, 손실함수, 경사 하강법에 대해서 이론을 설명해왔다. 그럼 이제 앞에서 설명해온 이론을 정리하고 실제 코딩으로 나타내어야 한다. 가설함수 일단 이전에 설명한 가설함수는 하나의 데이터에 대해서 간단하게 설명하였다. h(x)= θ0+θ1x 가 가설함수이니까 수식으로 나타내면 다음과 같다. 실제로는 이렇게 x(1)부터 x(n)까지 여러개의 데이터가 존재 할 것이고, 배열의 형태 혹은 열거의 형식이 될것이다. 하지만 더 많은 데이터를 다루어야 하기에, 실제의 가설함수를 수식으로 나타내면 다음과 같다. 이렇게 여러개의 데이터가 가설함수에 들어갈것이고, 만약 더 많은 데이터가 있다면 θ(n)까지 존재해야 할 것이다. 손실함수 이전글에서 손실함수에 대해 설명하면서, 각 θ에 대해서 업데이트 하는 수.. 2023. 6. 5.
선형회귀(Linear Regression) 이론 2 - 손실함수(Loss Functiion) 2 https://wherwhen.tistory.com/3 선형회귀(Linear Regression) 이론 2 - 손실함수(Loss Function) 1 이전에는 선형회귀가 무엇인지, 그리고 선형회귀에 대한 가설함수까지 설명하였다. https://wherwhen.tistory.com/2 선형 회귀(Linear Regression) 이론 지도 학습의 한 유형이면서, 연속적인 값을 가지고 예 wherwhen.tistory.com 이전 글에서는 경사 하강법에 대한 개념과 설명을 했다면 이번글에서는 경사 하강법에 대한 예시와 계산을 설명하겠다. 이전 글에서 J와 기울기에 대해 설명을 했는데, 예시를 들어 설명하면 아래와 같이 Jθ에 대한기울기가 1θ,2θ인데 여기서 θ0,θ1이 3,2이라면 왼쪽과 같이 현재 기울기.. 2023. 5. 30.
선형회귀(Linear Regression) 이론 2 - 손실함수(Loss Function) 1 이전에는 선형회귀가 무엇인지, 그리고 선형회귀에 대한 가설함수까지 설명하였다. https://wherwhen.tistory.com/2 선형 회귀(Linear Regression) 이론 지도 학습의 한 유형이면서, 연속적인 값을 가지고 예측을 하는 회귀 모델이다. 단순 회귀 모델이라고도 한다. 선형 회귀의 그래프는 위와 같은 형태를 지니고 있다. 여기서 직선은 목표 변수(y) wherwhen.tistory.com 이번에는 이전에 언급한 가설함수를 평가하는 손실함수에 대해 설명하겠다. 손실함수는 보통 J라는 문자를 사용한다. 선형 회귀의 경우에는 평균 제곱 오차가 손실 함수의 output이다. 손실함수의 output이 작을수록 가설 함수의 손실이 적기 때문에 더 좋은 가설 함수라고 할 수 있고, 반대로 손실.. 2023. 5. 27.
선형 회귀(Linear Regression) 이론 1 지도 학습의 한 유형이면서, 연속적인 값을 가지고 예측을 하는 회귀 모델이다. 단순 회귀 모델이라고도 한다. 선형 회귀의 그래프는 위와 같은 형태를 지니고 있다. 여기서 직선은 목표 변수(y)와 입력 변수(x)의 최적선을 나타내며, 각 점들과 직선의 거리는 오차를 의미한다. 여기서 우리는 목표 변수(맞추려고 하는 값)과 입력 변수(맞추는데 사용하는 값)을 설정해주어야 하며, 위와 같이 최적선을 찾아내는것이 목표이다. 그리고 이러한 최적선을 찾기 위해 여러가지 변수와 함수(가설함수)를 이용해야 한다. 여기서 가설함수를 y=ax+b라고 가정하고 시작하자. 하지만 함수이기때문에 h(x)= θ0+θ1x 로 나타내어야 한다. 지금은 입력 변수가 하나이기에 단순한 형태이지만 만약, 여러 입력 변수를 이용한다면 h(.. 2023. 5. 25.
반응형
LIST