Artificial Intelligence24 coursera_week2_5_Computation Graph 뉴럴넷의 결과를 계산해내는 단계인 순전파의 단계에 이어, 미분(derivatives)이나 기울기(gradients)를 계산해내는 역전파 단계에 의해 뉴럴넷의 computation이 수행된다. computation graph를 설명하기 위해, 단순한 예제를 사용하자. Let's say that we're trying to compute a function, J, which is a function of three variables a, b, and c and let's say that function is 3(a+bc. Computing this function actually has three distinct steps. The first is you need to compute what is bc an.. 2017. 10. 4. coursera_week2_4_Gradient Descent 우리는 지금까지 logistic regression model을 살펴보았고, loss function을 살펴보았고, cost function도 살펴보았다. 이제 training set에 대하여 파라미터인 W와 b를 학습시키기 위한 알고리즘인 Gradient Descent에 대해 알아보자. cost function J를 최소화하는 W와 b를 찾고자 하는 것은 합리적이다. (cost function 자체가 W와 b의 함수로 정의되어 있기 때문이다.) the cost function, J, which is a function of your parameters w and b. And that's defined as the average. So it's 1 over m times the sum of this lo.. 2017. 10. 4. coursera_week2_3_Logistic Regression Cost Function logistic regression model에서 parameter인 W와 b를 학습하기 위해서는 loss function을 정의해야 한다. 목표를 다시 상기하자. m개의 training set이 주어졌을 때, 우리의 목표는 모든 각각의 training set에 대하여 y^의 결과를 최대한 y가 되게 하는 것이다; 이 때 y^은 다음과 같이 sigmoid를 쓰면 얻을 수 있다; () 이제, Loss function 또는 error function이라고 불리는 함수에 대해 알아보자. 이 함수는 알고리즘이 얼마나 잘 작동하는지를 측정하는 데에 사용된다. 그러기 위해 한 가지 할 수 있는 일은 y^과 y의 loss를 제곱이 된 error 또는 제곱이 된 error의 절반으로 정의하는 것이다; 하지만 위의 lo.. 2017. 10. 4. coursera_week2_2_Logistic Regression (Model) 고양이인지 아닌지를 인식하기를 원하는 이미지가 input vector X로 주어질 때, Y에 대한 추정을 의미하는 Y^으로 표현가능한 ‘관측값’을 낼 수 있는 알고리즘이 필요하다. 우리는 확률값으로 주어지는 Y^(관측값)이 Y(실제값)와 동일하기를 바란다. 즉 이미지가 주어질 때, 해당 이미지가 고양이 사진인지 아닌지를 Y^이 정확히 말해줄 수 있어야 한다. 이를 위해 X-dimensional 벡터인 input과 X와 동일한 차원인 W, 그리고 실수값인 b가 주어질 것이다. 이렇게 W,X,b가 주어졌을 때 output값을 어떻게 만들어낼 수 있을까?한가지 시도해볼 수 있는 건, input에 대하여 linear function을 만드는 것이다. 하지만 linear regression에서 사용하는 모델이기 .. 2017. 10. 4. 이전 1 2 3 4 5 6 다음