인공지능

epochs/batch size

epochs = 학습횟수

예를들어  epochs이 40이면 전체데이터를 40번 사용해서 학습을 거치는것

 

epochs 이 너무 높으면 오버피팅이 일어나고 너무 적으면 언더피팅이 일어나니 잘맞춰줘야됨

 

 

batch size 

메모리 한계와 속도저하때문에 한번의 epoch에서 모든 데이터를 한껍너에 집어넣을 수없다.

그래서 데이터를 나누어서 주게된다

이때 몇번 나누어서 주는가를 iteration이라고한다.

각 iteration마다 주는 데이터사이즈를 batch size라고 한다.

 

--batch size 장단점

줄임으로써 얻는점

1.필요한 메모리 감소 

전체 데이터를 쪼개어 여러번 학습하는것이기 때문에 최소 요구 메모리량을 줄일수있다.

2.학습속도 향상

한번의 propagation 후 weight가 갱신되는데 batch size가 작을수록 많은 propagation이 일어나기 때문에 학습속도가 올라감. 

 

늘림으로써 얻는장점.

1.정확도 상승 

 

 

 

 

'인공지능' 카테고리의 다른 글

데이터 전처리와 Augmentation(증가) // 인공지능 논문리뷰  (0) 2020.02.20
Tensor란?  (0) 2020.01.15
tensorflow 기본문법(placeholder/variable/constant)  (0) 2020.01.15
CNN / Faster R-CNN  (0) 2020.01.13
TFRecord  (0) 2020.01.09