인공지능
epochs/batch size
invalueable
2020. 2. 13. 18:05
epochs = 학습횟수
예를들어 epochs이 40이면 전체데이터를 40번 사용해서 학습을 거치는것
epochs 이 너무 높으면 오버피팅이 일어나고 너무 적으면 언더피팅이 일어나니 잘맞춰줘야됨
batch size
메모리 한계와 속도저하때문에 한번의 epoch에서 모든 데이터를 한껍너에 집어넣을 수없다.
그래서 데이터를 나누어서 주게된다
이때 몇번 나누어서 주는가를 iteration이라고한다.
각 iteration마다 주는 데이터사이즈를 batch size라고 한다.
--batch size 장단점
줄임으로써 얻는점
1.필요한 메모리 감소
전체 데이터를 쪼개어 여러번 학습하는것이기 때문에 최소 요구 메모리량을 줄일수있다.
2.학습속도 향상
한번의 propagation 후 weight가 갱신되는데 batch size가 작을수록 많은 propagation이 일어나기 때문에 학습속도가 올라감.
늘림으로써 얻는장점.
1.정확도 상승