일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 빅데이터
- GPT3
- 모델링
- GaN
- 컴퓨터 비전
- 강화학습
- TabNet
- mergekit
- 경진대회
- 프롬프트 엔지니어링
- 악성댓글
- LLM
- chatgpt 꿀팁
- 인공지능
- 딥러닝
- LLM 성능 개선
- 머신러닝
- 프롬프트 잘 쓰는법
- 프롬프트 잘 쓰는 법
- IT
- AI
- GPT
- Transformer
- ChatGPT 잘 쓰는 법
- 프롬프트
- SOTA
- 프롬프트 페르소나
- ChatGPT
- 거대언어모델
- 비전러닝
Archives
- Today
- Total
목록MobileViT (1)
빅웨이브에이아이 기술블로그
SOTA 알고리즘 리뷰 5 - MobileViT
시작 안녕하세요! 빅웨이브에이아이 이현상입니다. 지난 포스트에서 ViT-G/14에 대해서 소개드렸죠? 구글에서는 최근 TFT, TabNet, ViT 등 다양한 분야에서 트랜스포머 기법을 응용하여 우수한 성능을 달성하고 있습니다. 그런데 대표적인 SOTA 알고리즘 소개 사이트인 'paperwithcode'의 이미지 분류 분야를 보면 파라미터 수가 참 어마어마하죠? ImageNet 벤치마크 상위 4개 알고리즘은 모두 파라미터 개수가 1,000M(10억개)이 넘습니다! 파라미터 수가 10억개를 넘는 모델을 개인이 활용하거나 모바일 기기에 탑재하기에는 어려움이 있습니다. 그래서 딥러닝 모델을 실용적으로 활용하기 위한 효율적인 경량화도 딥러닝 분야에서 굉장히 중요한 요소 중 하나입니다. Andrew Howard,..
기술 블로그
2022. 1. 10. 18:08