Computistics
  • 홈
  • 태그
  • 방명록
  • Github
    • 전체 카테고리 (35)
      • Vision AI (7)
        • Classification (2)
        • Object Detection (4)
        • Segmentation (0)
        • etc. (1)
      • Model Compression (6)
      • Pytorch (8)
        • Tutorials (8)
      • Python (14)
        • OpenCV (6)
        • 공부하며적어놓는기록장 (8)
  • 글작성
  • 방명록
  • 환경설정
  • 메뉴 닫기
BWN 검색 결과
1 개의 검색 결과가 있습니다.
Model Compression

[Quantization] XNOR-Net

XNOR-Net은 2016년에 출시된 논문으로 가중치 양자화에 대한 컨셉에 대해서 소개를 하는 논문이다. 이전에 소개했던 DoReFa-Net보다도 앞서 발표되었으며, 이후 QAT(Quantization Aware Training)계열의 양자화 기법에 개념적 부분으로 많이 사용되고 있다. 논문에서는 가중치를 1-Bit 양자화하는 BWN(Binary-Weight-Net)과 가중치와 활성화출력 두가지를 모두 1-Bit 양자화하는 XNOR-Net 두가지를 모두 소개하고 있다. Binary Weigth Network 이전 Feature Map에서 나온 입력값을 $I$라고 하고, 양자화 되기 전 Conv Layer를 $W$라 하자. 다음으로 가중치에 대하여 이진화된 Conv Layer를 $B$ 라고 해보자. 이진화..

2021. 1. 18. 23:06
  • «
  • 1
  • »

공지사항

전체 카테고리

  • 전체 카테고리 (35)
    • Vision AI (7)
      • Classification (2)
      • Object Detection (4)
      • Segmentation (0)
      • etc. (1)
    • Model Compression (6)
    • Pytorch (8)
      • Tutorials (8)
    • Python (14)
      • OpenCV (6)
      • 공부하며적어놓는기록장 (8)
반응형
  • 최근 글
  • 최근 댓글

최근 글

최근댓글

전체 방문자

오늘
어제
전체

블로그 인기글

Powered by Privatenote/라이프코리아 Copyright © Computistics All rights reserved. TistoryWhaleSkin3.4

티스토리툴바