- 진행상황 -
<김웅곤 연구원>
https://drive.google.com/open?id=1Cz3Db4B1cgdYrOa9xmIEqhJrc3vAeC9VCetYn8gXGjQ
<양경성 부장님>
Augmentation + VGG 16 모델로 97.33% Accuracy 도달
https://github.com/choco9966/Alzheimer-Lab/tree/master/%EC%8B%A4%ED%97%98%EA%B2%B0%EA%B3%BC/%EC%96%91%EA%B2%BD%EC%84%B1_%EC%8B%A4%ED%97%98%EA%B2%B0%EA%B3%BC
Augumentation(Open CV)를 이용해 부족한 label 1을 증가시킴
가우스 프로세스와 베이지안 최적화를 적용하여 Hyperparameter Tuning
학습된 VGG16에 Fully connected Layer를 이용하여 분류
Augumentation을 적용하지 않고 정확도 89.58% 도달
Confusion matrix를 비교했을 경우 0,2를 완벽히 분류함. 1단계는 recall이 0으로 전부 분류를 못함.
Bayesian optimization을 이용하여 hyperparameter tuning을 이용함.
Augumentation 했을경우 Vgg16 결과 97.33%
문제점 ( 강도영 교수님)
1단계 치매 Recall이 낮은 이유.
intensity는 같지만, 병변의 position이 다를 수 있음. 눈으로 보면 알텐데 딥러닝이 과연 이것을 이해할 수 있을까?
segmentation을 적용해보는것을 어떨지...? Box를 쳐서 클래스와 클래스위치까지 학습시켜야 하는데, 데이터가 적어서 가능할지?
질문사항 ( 강도영 교수님)
모델에 대한 설명을 해 주심. 1. Variational Autoencoders 2. 베이지안 최적화 3. Loss . Acc 4. filter를 잡아주냐? 학습된 모델(image net 일상이미지)을 가져온것 뿐이고 fully connected 부분의 수치만 잡아준 것임.
GMM모델을 한번 적용해 보는 것이 어떠한지 질문받았음.
Size를 줄이고 VGG16를 돌리면 이미 정보가 손실되어 있지 않은가???
사람이 매기는 기준하고 AI가 매기는 기준이 다르다.
사람이 PET 사진을 보고 판독할 때는 white area는 안 보고, Gray area만 보는데, AI의 경우는 white(distribution간격이 너무 좁아서 사람이 판독하기 힘듦)까지 전부 고려한다. 그래서 1. white만 가지고 2. gray만 가지고 3. 사람 눈이 분석할 수 없는 영역까지 생각해 white + gray 전부 해 보는 경우로 나누어서 시도해보면 결과가 어떠할지?
질문사항 2 (김현우 연구원)
의학에서는 Recall이 제일 중요(민감)해서 accuracy를 낮추더라고 Recall을 더 높이는 방향으로 AUC를 최적화 하는 방안으로 https://www.dataschool.io/roc-curves-and-auc-explained/
를 참고 강구
추후 진행해볼 사항들 (김현우 연구원, 김웅곤 연구원)
VotingClassifier sklearn - Ensemble
Variational Autoencoders / WGAN - 사진의 분포
Size를 최대한 줄여서 해보고 싶음. size가 만약에 충분히 작아질 수 만 있다면, PET사진의 분포를 알 수 있음. 정규분포로 강제로 만든 다음에 정규분포를 이용해가지고 사진을 만들 수 있도록 하면 GAN도 가능할것 같다.