과거의 것들/AI Tech boostcamp

프로그래머스 뎁매칭 정리

NFnet
inference가 잘못된듯. 잘 됬는지 확인하려면 val dataset을 test형태로 넣어보기.

머리속에서 timeline 정해놓고. 몇시까지 뭘하고 몇시까진 뭘할거고. 앙상블은 마감하기 2시간전쯤에 하는게 좋음.
1등했던것들은 시간들이 다양했었다.

코랩 한번에 여러개 ipynb를 열어서 사용하기. 꼬일수도 있으니 조심. 3~4개까지는 한번에 킬 수있음. 램 고용량은 상관없음. 로더 쓰면 거의 안터짐.

torch.data imagefolder 하면 폴더 이름을 클래스로 불러오는 것까지 다 해줌.

웨이드 에버리징. (SWA?) 아뇨 그건 안 좋아여 써봤는데 어렵고 무겁고
웨이트 애버리징은 n개의 동일 모델의 웨이트를 평균네는 앙상블 기법이에요
네는 > 내는

모델에 dropout 써보기.

좋은 모델중에서 가벼운 efficientnet b0로 실험.

색이 너무 바뀌는 데이터면 grayscale도 괜찮은듯.

일반화 kfold TTA

batch_size 줄이면 lr 도 줄이는 관점.. batch가 줄어서 step이 들어나니 lr 더 겪을 것 같아서.

그냥 폴더 눌러가며 초고속 EDA..

tepoch. tqdm. colab에서 이쁘게 나옴.
from tqdm.notebook import tqdm

csv로 나누면 stratKFile 로 하면 아주 깔끔하게 됨.

efficientnet_b0
nfnet_l0

잘 하시는분꺼 영상으로 저장해놈.

code snipet

https://emilkwak.github.io/python-setting-file-ext