작은 연구노트

  • HW
  • AI
  • Vivado

고정 헤더 영역

글 제목

메뉴 레이어

작은 연구노트

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (9)
    • HW (1)
    • AI (7)
    • Tool (1)
      • Vivado (1)

검색 레이어

작은 연구노트

검색 영역

컨텐츠 검색

efficient vit

  • [논문리뷰] EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense Prediction

    2025.02.20 by 마농농

[논문리뷰] EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense Prediction

0. EfficientViT: Multi-Scale Linear Attention for High-Resolution Dense Predictionhttps://arxiv.org/pdf/2205.14756 * 시간 복잡도 햇갈릴 때 쉽게 생각 하는 법 : 하나의 항이(피연산자A) 다른 "몇개의 항과"(피연산자B) 연산하는 지 우선 생각> 그리고 그 값에 모든 항의 개수를(피연산자A) 곱해준다1. 기존 Self-Attention 의 한계 by softmax2. Linear Attention으로 solution key, value를 미리 계산하여 query와 연산함 (초록, 파랑)기존 linearquery와 key를 매번 연산해야하므로 복잡도는 quadratic개선 linear ReLU로 인해 query는 ..

AI 2025. 2. 20. 00:24

추가 정보

인기글

최신글

페이징

이전
1
다음
TISTORY
작은 연구노트 © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바