・Odds Ratio에 자연로그를 씌어주면 위와 같은 그래프 모양이 그려진다.
・Logit함수는 위와같은 과정을 통해 변형이 되는데 이를 좀더 상세하게 보면,
$$Logit(p(y=1\mid x)) = \log_{e}{\frac{p}{1-p}}$$
$$= \log_{e}{(\frac{1-p}{p})^{-1}}$$
$$= -\log_{e}{\frac{1-p}{p}}$$
$$= -\log_{e}({\frac{1}{p}-1})$$
・이때, Logit함수는 p에 대해 logit y를 반환하는데, 우리가 필요한 것은 p(확률)을 반환하는 것이므로 역함수를 취하여, y에 대해 p가 반환 되도록한다.(위식에서 z를 p로 생각)
・역함수를 y에 관해 정리하면 시그모이드 함수가 반환된다.
$$y=\frac{1}{1+e^{-z}}$$
・시그모이드 함수는 어떤 z값을 넣어도 확률로 반환해주는 함수 이므로, classification에서 유용하다.
・이때, z가 모든 수를 대변할 수 있는지에 대한 반론이 제기 될 수 있는데,
z를 odds ratio를 이용해 위와 같이 변형하면, z = Logit함수가 되는데,
위의 Logit함수 그래프에서 알수 있듯, Logit함수는 모든 실수를 나타낼 수 있다.
'C Lang > machine learing' 카테고리의 다른 글
9-4. Logistic regression implementation with Numpy (0) | 2019.05.13 |
---|---|
9-3. logistic regression cost function (0) | 2019.05.08 |
9-1. logistic regression overview (0) | 2019.05.08 |
8-7. sampling method (0) | 2019.05.07 |
8-6. polynomial regression (0) | 2019.05.06 |