1. L1과 L2 regularization의 효과와 그 원리에 대해 설명하시오.

<aside> 💡

풀이 L1 loss

L2 Loss

한 웨이트가 너무 크거나 튀어버리면 모델의 학습이 다이나믹하게 fluctuate함

</aside>

오버피팅이 일어나는 두가지 이유를 설명하시오.

<aside> 💡 풀이 데이터의 크기가 작거나 모델의 크기가 큰 경우 모델이 데이터의 노이즈까지 학습하기 때문

</aside>

  1. 딥러닝 모델 학습 및 평가 과정 전체의 구현 플로우를 간략히 작성하시오