왜 loss가 떨어지는데 accuracy가 줄어들지 않는가?

scaling

fit, transform

regression의 성능지표

classification의 성능지표

스팸메일 분류 / 세포 비 정상,정상 분류

K-fold Cross Validation

 

모델이 학습되고있는과정을 조금더 객관적으로 보기 위해서.

 

k값은 5나 10(5등분 또는 10등분)으로 나누는 것이 전문가들 사이에서 자주 쓴다.

cross-validiation 장점

1. 효율적인 데이터활용(모두 학습/평가에 활용)

2. 일반적인 정확도 측정 가능

 

단순히 지표값을 보는 것 뿐만 아니라, 데이터에 이상이 없는지도 측정을 할 수 있다.

 

train/test split 장점

1. K-fold cross-validation 보다 빠르다

2. 테스트 방법이 쉽다.

 


로이터 뉴스 분류

 


CNN이 생긴이유

이미지를 이미지로서 학습시킬려고(사람의 눈이 보는것 처럼)

 

이미지를 일열로 바꾸어버리면 공간적으로 무엇을 의미하는지 파악하기가 어렵다.(특징이 다 사라져버린다)

 

그래서 나온 것이 합성곱 신경망

 

이미지 자체의 특징을 잘 학습하기위해 2차원으로 학습하다가 다시 1차원으로(fully connect layer)로 펼쳐주고

마지막에 softmax를 해준다.

 

 

Maxpooling Layer - 이미지 특징만 추출, 이미지 사이즈 축소, 특징 일반화

'Data Anaylsis > Deep Learning' 카테고리의 다른 글

U-net 링크  (0) 2020.04.27
keras ImageDataGenerator  (0) 2020.03.20
딥러닝 2일차  (0) 2020.03.17
Keras 모델 생성/학습 - 당뇨병 예측 모델  (0) 2020.03.16
AND,OR/XOR 문제 keras로 구현!  (0) 2020.03.16

+ Recent posts