NFnet
inference가 잘못된듯. 잘 됬는지 확인하려면 val dataset을 test형태로 넣어보기.
머리속에서 timeline 정해놓고. 몇시까지 뭘하고 몇시까진 뭘할거고. 앙상블은 마감하기 2시간전쯤에 하는게 좋음.
1등했던것들은 시간들이 다양했었다.
코랩 한번에 여러개 ipynb를 열어서 사용하기. 꼬일수도 있으니 조심. 3~4개까지는 한번에 킬 수있음. 램 고용량은 상관없음. 로더 쓰면 거의 안터짐.
torch.data imagefolder 하면 폴더 이름을 클래스로 불러오는 것까지 다 해줌.
웨이드 에버리징. (SWA?) 아뇨 그건 안 좋아여 써봤는데 어렵고 무겁고
웨이트 애버리징은 n개의 동일 모델의 웨이트를 평균네는 앙상블 기법이에요
네는 > 내는
모델에 dropout 써보기.
좋은 모델중에서 가벼운 efficientnet b0로 실험.
색이 너무 바뀌는 데이터면 grayscale도 괜찮은듯.
일반화 kfold TTA
batch_size 줄이면 lr 도 줄이는 관점.. batch가 줄어서 step이 들어나니 lr 더 겪을 것 같아서.
그냥 폴더 눌러가며 초고속 EDA..
tepoch. tqdm. colab에서 이쁘게 나옴.
from tqdm.notebook import tqdm
csv로 나누면 stratKFile 로 하면 아주 깔끔하게 됨.
efficientnet_b0
nfnet_l0
잘 하시는분꺼 영상으로 저장해놈.
code snipet
'과거의 것들 > AI Tech boostcamp' 카테고리의 다른 글
P-stage4 [day3] 모델최적화 기법(1); Automl 이론 (0) | 2021.12.05 |
---|---|
P-stage4 [day1] 경량화 분야 소개 & 강의 소개 (0) | 2021.12.01 |
P-stage3 img obd 마지막 정리 (0) | 2021.12.01 |
P-stage3 [day9] (0) | 2021.12.01 |
P-stage3 [day7] (0) | 2021.12.01 |