작은 연구노트

  • HW
  • AI
  • Vivado

고정 헤더 영역

글 제목

메뉴 레이어

작은 연구노트

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (9)
    • HW (1)
    • AI (7)
    • Tool (1)
      • Vivado (1)

검색 레이어

작은 연구노트

검색 영역

컨텐츠 검색

HW

  • [논문리뷰] A^3: Accelerating Attention Mechanismswith Approximation

    2025.04.06 by 마농농

[논문리뷰] A^3: Accelerating Attention Mechanismswith Approximation

0. A^3: Accelerating Attention Mechanismswith Approximationhttps://arxiv.org/pdf/2002.109411. IntroductionAttention mechanism 은 transformer 모델 기반의 핵심 연산으로, 자연어 처리와 컴퓨터 비전 영역에서 다용되고 있다. 이 attention mechanism은 inference 단계에서 높은 연산 비율을 차지하고 있음을 background에서 밝히며, 이 문제를 해결하고자 hw, sw co-design 설계 방법을 논문에서 보여준다. 2. Background먼저. attention mechanism을 수도 코드로 표현하였는데 이 수도 코드를 그림으로 크게 그린다면, 아래 그림과 같다. atten..

HW 2025. 4. 6. 21:01

추가 정보

인기글

최신글

페이징

이전
1
다음
TISTORY
작은 연구노트 © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바