・Overfitting된 경우, train데이터 과도하게 피팅되어 training값 이외의 feature값을 넣었을 때는 예측하기 어려워진다.

・오버 피팅된 데이터는 변곡점이 많다.

 

・이때 「보다 적은 수의 논리」란 weight값을 적게하라는 의미이다.

 

 

・Bias(편향)이란 최저점이 되는 weight값에 가까이 가지 못하고, 편향되어 딴 곳에서 겉돌고 있는 것을 의미한다.

 

 

・Overfitting된 데이터의 경우, Trainset에는 놀라울 정도로 잘 맞아떨어지지만 Testset의 값에 따른 결과는 예측해내지 못해는 모델이 된다. 테스트가 진행될 수록 (epoch)이 증가할 수록 trainset의 결과와 점점 멀어진다.

 

 

・더 많은 데이터를 활용하는 것이 가장 적합한 weight값을 찾기위한 가장 좋은 방법이다.

・parameter(러닝레이트 같은 hyper parameter)값은 보통 try-error의 방법으로 조정해나간다.

・Regulariztion이란 weight값을 0에 가깞게 조정하여 bias,variance를 조정하는 방법이다.

 

 

・이 가으이에서 수식 무슨 말인지 모르겠다 다음 강의를 보자.

 

+ Recent posts