일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 인공지능
- SOTA
- 강화학습
- mergekit
- 프롬프트 잘 쓰는 법
- ChatGPT
- TabNet
- 프롬프트 엔지니어링
- LLM 성능 개선
- 악성댓글
- 빅데이터
- Transformer
- GPT3
- 거대언어모델
- 딥러닝
- 프롬프트 잘 쓰는법
- 비전러닝
- 경진대회
- 프롬프트 페르소나
- 컴퓨터 비전
- LLM
- IT
- AI
- chatgpt 꿀팁
- ChatGPT 잘 쓰는 법
- 모델링
- 머신러닝
- 프롬프트
- GPT
- GaN
Archives
- Today
- Total
목록Google Cloud (1)
빅웨이브에이아이 기술블로그
SOTA 알고리즘 리뷰 4 - ViT-G/14
안녕하세요! 빅웨이브에이아이의 박정환입니다. 지난 SOTA 알고리즘 포스팅 글은 정형 데이터 분석 분야의 TabNet에 대해서 알아보았는데요, 이번 시간에는 이미지 분류 분야의 SOTA 알고리즘인 ViT(Vision Transformer)-G/14에 대해서 알아보도록 하겠습니다! Key Idea 트랜스포머(Transformer)란 멀티헤드 어텐션(Multi-Head Attention) 기법이 적용된 인코더 디코더 구조의 모델을 의미합니다. ViT 모델은 트랜스포머 방법론을 이미지 분석 분야에 적용한 것입니다. ViT는 이미지를 고정된 사이즈로 분할하여 선형으로 모델에 입력한 후 포지션 임베딩 및 벡터 시퀀스를 모델의 인코더에 입력합니다. 분류 Task를 위해 추가적으로 클래스 토큰을 시퀀스에 추가하는 방..
기술 블로그
2021. 7. 26. 17:44