학습 모델 양자화(Quantization)
안녕하세요. 코딩벅스입니다.
배경설명
양자화.. 32bit Floating Point를 8bit Integer로 바꾸는 것은 당연히 메모리, 그리고 연산속도 면에서 개선점이죠.
이러한 개념을 신경망 모델에도 적용하는 것, 바로 학습모델에 대한 양자화(Quantization)입니다.
안녕하세요. 코딩벅스입니다.
양자화.. 32bit Floating Point를 8bit Integer로 바꾸는 것은 당연히 메모리, 그리고 연산속도 면에서 개선점이죠.
이러한 개념을 신경망 모델에도 적용하는 것, 바로 학습모델에 대한 양자화(Quantization)입니다.