epochs = 학습횟수
예를들어 epochs이 40이면 전체데이터를 40번 사용해서 학습을 거치는것
epochs 이 너무 높으면 오버피팅이 일어나고 너무 적으면 언더피팅이 일어나니 잘맞춰줘야됨
batch size
메모리 한계와 속도저하때문에 한번의 epoch에서 모든 데이터를 한껍너에 집어넣을 수없다.
그래서 데이터를 나누어서 주게된다
이때 몇번 나누어서 주는가를 iteration이라고한다.
각 iteration마다 주는 데이터사이즈를 batch size라고 한다.
--batch size 장단점
줄임으로써 얻는점
1.필요한 메모리 감소
전체 데이터를 쪼개어 여러번 학습하는것이기 때문에 최소 요구 메모리량을 줄일수있다.
2.학습속도 향상
한번의 propagation 후 weight가 갱신되는데 batch size가 작을수록 많은 propagation이 일어나기 때문에 학습속도가 올라감.
늘림으로써 얻는장점.
1.정확도 상승
'인공지능' 카테고리의 다른 글
데이터 전처리와 Augmentation(증가) // 인공지능 논문리뷰 (0) | 2020.02.20 |
---|---|
Tensor란? (0) | 2020.01.15 |
tensorflow 기본문법(placeholder/variable/constant) (0) | 2020.01.15 |
CNN / Faster R-CNN (0) | 2020.01.13 |
TFRecord (0) | 2020.01.09 |