용나리 2021. 12. 1. 00:26

수업내용

양이 많은데 다 중요해서 pdf 보는거를 추천.

  1. baseline 이후에 실험 해봐야할 사항들
  2. 1 주의해야할 사항들
  3. 2 Validation
  4. 3 Augmentation
  5. 4 SOTA Model
  6. 5 Scheduler
  7. 6 Hyperparameter Tinning
  8. 7 Optimizer
  9. 8 Ensemble
  10. 9 Pseudo Labeling
  11. 10 마지막으로

Group K-Fold. 클래스 내에 어떤 상관성이 있을 때( 같은 class 내에서 corrlation이 있을 때 ) 활용한다.

피어세션

A.CLAHE

efficient-b7 unet++ 으로 해봤는데 val mIoU가 0.37, 0.4가 나옴. 별로인듯..
hrnet. 무거워서 batch size 2로 해야되는데다 val mIoU0.3나옴.
조교님이 kaggle에서 참고한 대회 1등꺼 보니 efficient unet, fcn
Focal tversky loss. unet에 쓰는거인듯.
deeplab v3 resnet101
unet
argument도 많이 하면 성능이 떨어지더라. kaggle 1등한건 horizen filp, vertical filp, color만 했다.
cutmix 말고 snapmix가 상위호환인듯.
컴퓨터가 설계한거 NASnet
HRNet.. 모델 종류가 너무 많다.

목표

오늘부터 수업에 배운것들 하나씩 적용해보기

행동

실험 기록 페이지 생성.

🧪 P-stage3 seg 실험들 기

Research 2b2dfc2670834fb9afc40196bf3842f1.csv
0.01MB

mobilenet v2 로 된 unet 쓰는데 속도도 빠르고 성능도 PB 0.45가 무난하게 나온다. 좋은듯.

Normalize 쓰면 PB 0.07가량 증가됨.

val mIoU랑 PB mIoU랑 너무 안맞는다. 토론게시판에 있는 코드는 잘 구현되었는데도 이런다. train data와 val data의 분포도 매우 비슷하다. 원인을 어디가 잘못된건지..

재현 이슈가 너무 강하다.. 모든걸 그때 그 상태 그대로 했는데도 절때로 같은값이 안나온다.