NVIDIA DLI의 "Fundamentals of Deep Learning (딥러닝의 기초)" 워크숍 레포지토리
1. MLP을 사용한 MNIST 데이터세트로 이미지 분류
MLP : Multi-Layer Perceptron (다중 퍼셉트론)
- (1) 데이터 로드 및 시각화
- (2) 데이터 편집(재구성, 정규화, 범주형)
- (3) 모델 생성
- (4) 모델 컴파일
- (5) 데이터에 대해 모델 트레이닝
2. MLP을 사용한 미국 수화(ASL) 데이터세트 이미지 분류
ASL : American Sign Language (미국 수화)
- (1) 밀집(Fully-connected) 뉴럴 네트워크 모델 학습
- (2) 트레이닝 정확도가 높음
- (3) 검증 정확도가 낮음
- (4) 과적합의 증거
3. CNN을 사용한 미국 수화 데이터세트 이미지 분류
CNN : Convolutional Neural Networks (합성곱 신경망)
- (1) 분석
- CNN으로 검증 정확도를 높임
- 여전히 트레이닝 정확도가 검증 정확도보다 높음
- (2) 솔루션
- 정제 데이터가 더 나은 예시를 제공
- 데이터세트의 다양성이 모델의 일반화에 도움이 됨
4. 데이터 증강을 통한 ASL 이미지 분류 모델 개선 & 모델 배포 및 예측
Keras
의ImageDataGenerator
라는 이미지 증강 클래스를 사용from tensorflow.keras.preprocessing.image import ImageDataGenerator
- 데이터 증강 기법
- 이미지 반전 (Image Flippimg)
- 회전 (Rotation)
- 확대/축소 (Zooming)
- 너비 및 높이 이동
- 호모그래피 (Homography)
- 밝기 (Brightness)
- 채널 전환 (Channel Shifting)
- (1) 트레이닝한 모델을 디스크에서 로드
- (2) 다른 형식의 이미지에 대해 트레이닝된 모델의 이미지 형식 변경
- (3) 트레이닝된 모델이 처음 접하는 새로운 이미지로 추론을 수행하고 성능을 평가
A. 사전 학습된 모델(VGG16)을 통해 개구멍 자동문 만들기
- (1) Keras를 사용하여 사전 학습된 모델(VGG16) 로드
- (2) 자체 이미지를 전처리하여 사전 학습된 모델로 작업
- (3) 사전 학습된 모델을 사용하여 자체 이미지에 대한 정확한 추론 수행
B. 전이 학습(Transfer Learning)을 통해 Bo를 위한 맞춤형 개구멍 자동문 만들기
- 전이 학습을 위한 사전 학습된 모델(ImageNet Model) 준비
- 사전 학습된 모델로 자체적인 소규모 데이터세트에 대해 전이 학습 수행
- 훨씬 더 나은 성능을 위해 모델을 추가로 파인 튜닝
- (1) RNN(Recurrent Neural Network)에 사용할 시퀀스 데이터 준비
- (2) 단어 예측을 수행할 모델 구축 및 트레이닝