왜 loss가 떨어지는데 accuracy가 줄어들지 않는가?
scaling
fit, transform
regression의 성능지표
classification의 성능지표
스팸메일 분류 / 세포 비 정상,정상 분류
K-fold Cross Validation
모델이 학습되고있는과정을 조금더 객관적으로 보기 위해서.
k값은 5나 10(5등분 또는 10등분)으로 나누는 것이 전문가들 사이에서 자주 쓴다.
cross-validiation 장점
1. 효율적인 데이터활용(모두 학습/평가에 활용)
2. 일반적인 정확도 측정 가능
단순히 지표값을 보는 것 뿐만 아니라, 데이터에 이상이 없는지도 측정을 할 수 있다.
train/test split 장점
1. K-fold cross-validation 보다 빠르다
2. 테스트 방법이 쉽다.
로이터 뉴스 분류
CNN이 생긴이유
이미지를 이미지로서 학습시킬려고(사람의 눈이 보는것 처럼)
이미지를 일열로 바꾸어버리면 공간적으로 무엇을 의미하는지 파악하기가 어렵다.(특징이 다 사라져버린다)
그래서 나온 것이 합성곱 신경망
이미지 자체의 특징을 잘 학습하기위해 2차원으로 학습하다가 다시 1차원으로(fully connect layer)로 펼쳐주고
마지막에 softmax를 해준다.
Maxpooling Layer - 이미지 특징만 추출, 이미지 사이즈 축소, 특징 일반화
'Data Anaylsis > Deep Learning' 카테고리의 다른 글
U-net 링크 (0) | 2020.04.27 |
---|---|
keras ImageDataGenerator (0) | 2020.03.20 |
딥러닝 2일차 (0) | 2020.03.17 |
Keras 모델 생성/학습 - 당뇨병 예측 모델 (0) | 2020.03.16 |
AND,OR/XOR 문제 keras로 구현! (0) | 2020.03.16 |