cost function에서 global minimun을 찾고 local minimun에 빠지지 않기 위함입니다.


New cost function for logistic



sigmoid function의 exponential term을 log를 이용하여 상쇄합니다.


위의 cost function을 이용하면,


실제 lable이 y=1이고 예측값이 H(x)=1로 맞았을 경우, -log(1)로 cost function 값이 0이 됩니다.

실제 lable이 y=1이고 예측값이 H(x)=0으로 틀렸을 경우, -log(0)로 cost function 값이 커지게 됩니다.


실제 lable이 y=0이고 예측값이 H(x)=0으로 맞았을 경우, -log(1-0)로 cost function 값이 0이 됩니다.

실제 lable이 y=0이고 예측값이 H(x)=1로 틀렸을 경우, -log(1-1)로 cost function 값이 커지게 됩니다.


y=1인 경우와 y=0인 경우의 if condition을 위의 수식을 이용하여 상쇄합니다.


y=1인 경우,

두 번째 term이 없어집니다.


y=0인 경우,

첫 번째 term이 없어집니다.



Minimize cost - Gradient decent algorithm


cost function의 기울기(미분)을 구해서 W를 update합니다.

는 learning rate입니다.



출처


+ Recent posts