출처 : Efficient Processing of Deep Neural Networks (1.2)
- Training은 가중치/bias값을 update 하는 과정 (예측과 정답의 차이, loss를 줄이기 위해서)
- Training의 방법은 Gradient descent 가 사용됨 (수식 자체, 편미분 항의 필요성)
= (기존 가중치) - (가중치 편미분값)
- Gradient Descent를 계산하기 위해 Backpropagation이 적용됨 (수식의 항을-편미분 항 구하기 위해)
= 네트워크를 역방향으로 값을 전달하며 loss를 미분하는 과정