[바미] 지식 증류(Knowledge Distillation)로 성능은 챙기고, 모델은 줄이기
·
AI
들어가기전에실서비스에 모델을 붙이려면, 성능만큼 중요한 게 무게(추론 비용)입니다. 모델이 무거우면 바로 병목이 되버리죠. 큰 모델(Teacher)은 정확하지만 느리고 비싸고, 작은 모델(Student)은 빠르고 싸지만 성능이 아쉬운 경우가 많은데 이 둘 사이를 이어주는 대표적인 방법이 Knowledge Distillation(지식 증류)입니다. 이를 한 문장으로 정리하면 다음과 같이 표현해 볼 수 있어요.큰 모델(Teacher)의 예측 지식을 작은 모델(Student)이 따라 배우도록 학습시키는 방법. 그럼 왜 굳이 증류가 필요할까요?서비스 관점에서 모델이 좋다는 것은 단순히 정확도만 의미하지 않습니다.모바일/엣지 환경에서 돌아가야 함응답 속도가 중요함(지연 시간, latency)비용이 중요함(GPU/..