from tensorflow import keras
keras.__version__
'2.4.0'
이 노트북은 케라스 창시자에게 배우는 딥러닝 책의 5장 2절의 코드 예제입니다. 책에는 더 많은 내용과 그림이 있습니다. 이 노트북에는 소스 코드에 관련된 설명만 포함합니다. 이 노트북의 설명은 케라스 버전 2.2.2에 맞추어져 있습니다. 케라스 최신 버전이 릴리스되면 노트북을 다시 테스트하기 때문에 설명과 코드의 결과가 조금 다를 수 있습니다.
매우 적은 데이터를 사용해 이미지 분류 모델을 훈련하는 일은 흔한 경우입니다. 여러분이 전문적인 컴퓨터 비전 작업을 한다면 실제로 이런 상황을 마주치게 될 가능성이 높습니다.
보통 '적은' 샘플이란 수백 개에서 수만 개 사이를 의미합니다. 실용적인 예제로 4,000개의 강아지와 고양이 사진(2,000개는 강아지, 2,000개는 고양이)으로 구성된 데이터셋에서 강아지와 고양이 이미지를 분류해 보겠습니다. 훈련을 위해 2,000개의 사진을 사용하고 검증과 테스트에 각각 1,000개의 사진을 사용하겠습니다.
이 절에서 문제를 해결하기 위해 기본적인 전략 하나를 살펴볼 것입니다. 보유한 소규모 데이터셋을 사용해 처음부터 새로운 모델을 훈련하는 것입니다. 2,000개의 훈련 샘플에서 작은 컨브넷을 어떤 규제 방법도 사용하지 않고 훈련하여 기준이 되는 기본 성능을 만들겠습니다. 이 방법은 71%의 분류 정확도를 달성할 것입니다. 이 방법의 주요 이슈는 과대적합이 될 것입니다. 그다음 컴퓨터 비전에서 과대적합을 줄이기 위한 강력한 방법인 데이터 증식을 소개하겠습니다. 데이터 증식을 통해 네트워크의 성능을 82% 정확도로 향상시킬 것입니다.
다음 절에서 작은 데이터셋에 딥러닝을 적용하기 위한 핵심적인 기술 두 가지를 살펴보겠습니다. 사전 훈련된 네트워크로 특성을 추출하는 것(90%에서 96%의 정확도를 얻게 됩니다)과 사전 훈련된 네트워크를 세밀하게 튜닝하는 것입니다(최종 모델은 97% 정확도를 얻을 것입니다). 이런 세 가지 전략(처음부터 작은 모델을 훈련하기, 사전 훈련된 모델을 사용해 특성 추출하기, 사전 훈련된 모델을 세밀하게 튜닝하기)은 작은 데이터셋에서 이미지 분류 문제를 수행할 때 여러분의 도구 상자에 포함되어 있어야 합니다.
딥러닝은 데이터가 풍부할 때만 작동한다는 말을 이따금 듣습니다. 부분적으로는 맞습니다. 딥러닝의 근본적인 특징은 훈련 데이터에서 특성 공학의 수작업 없이 흥미로운 특성을 찾을 수 있는 것입니다. 이는 훈련 샘플이 많아야만 가능합니다. 입력 샘플이 이미지와 같이 매우 고차원인 문제에서는 특히 그렇습니다.
하지만 많은 샘플이 의미하는 것은 상대적입니다. 우선 훈련하려는 네트워크의 크기와 깊이에 상대적입니다. 복잡한 문제를 푸는 컨브넷을 수십 개의 샘플만을 사용해서 훈련하는 것은 불가능합니다. 하지만 모델이 작고 규제가 잘 되어 있으며 간단한 작업이라면 수백 개의 샘플로도 충분할 수 있습니다. 컨브넷은 지역적이고 평행 이동으로 변하지 않는 특성을 학습하기 때문에 지각에 관한 문제에서 매우 효율적으로 데이터를 사용합니다. 매우 작은 이미지 데이터셋에서 어떤 종류의 특성 공학을 사용하지 않고 컨브넷을 처음부터 훈련해도 납득할 만한 결과를 만들 수 있습니다. 이 절에서 실제로 이런 결과를 보게 될 것입니다.
거기에 더해 딥러닝 모델은 태생적으로 매우 다목적입니다. 말하자면 대규모 데이터셋에서 훈련시킨 이미지 분류 모델이나 스피치-투-텍스트 모델을 조금만 변경해서 완전히 다른 문제에 재사용할 수 있습니다. 특히 컴퓨터 비전에서는 (보통 ImageNet 데이터셋에서 훈련된) 사전 훈련된 모델들이 다운로드받을 수 있도록 많이 공개되어 있어서 매우 적은 데이터에서 강력한 비전 모델을 만드는데 사용할 수 있습니다. 바로 다음 절에서 우리가 해볼 것입니다.
먼저 데이터를 구하는 것부터 시작해 보죠.
여기서 사용할 강아지 vs. 고양이 데이터셋은 케라스에 포함되어 있지 않습니다. 컨브넷이 주류가 되기 전인 2013년 후반에 캐글에서 컴퓨터 비전 경연 대회의 일환으로 이 데이터셋을 만들었습니다. 원본 데이터셋을 https://www.kaggle.com/c/dogs-vs-cats/data
에서 내려받을 수 있습니다(캐글 계정이 없다면 하나 만들어야 하지만 계정을 만드는 과정은 간단합니다). 실습의 편의를 위해서 번역서의 깃허브에는 이 데이터셋을 미리 다운로드하여 포함하였습니다.
이 사진들은 중간 정도의 해상도를 가진 컬러 JPEG 파일입니다. 다음이 몇 개 샘플입니다:
당연히 2013년 강아지 vs. 고양이 캐글 경연은 컨브넷을 사용한 참가자가 우승하였습니다. 최고 성능은 95%의 정확도를 달성했습니다. 이 예제를 가지고 (다음 절에서) 참가자들이 사용했던 데이터의 10%보다 적은 양으로 모델을 훈련하고도 이와 아주 근접한 정확도를 달성해 보겠습니다.
이 데이터셋은 25,000개의 강아지와 고양이 이미지(클래스마다 12,500개)를 담고 있고 (압축해서) 543MB 크기입니다. 다운로드하고 압축을 해제한 후 세 개의 서브셋이 들어 있는 새로운 데이터셋을 만들 것입니다. 클래스마다 1,000개의 샘플로 이루어진 훈련 세트, 클래스마다 500개의 샘플로 이루어진 검증 세트, 클래스마다 500개의 샘플로 이루어진 테스트 세트입니다.
다음은 이를 처리하는 코드입니다:
import os, shutil
# 원본 데이터셋을 압축 해제한 디렉터리 경로
original_dataset_dir = './datasets/cats_and_dogs/train'
# 소규모 데이터셋을 저장할 디렉터리
base_dir = './datasets/cats_and_dogs_small'
if os.path.exists(base_dir): # 반복적인 실행을 위해 디렉토리를 삭제합니다.
shutil.rmtree(base_dir) # 이 코드는 책에 포함되어 있지 않습니다.
os.mkdir(base_dir)
# 훈련, 검증, 테스트 분할을 위한 디렉터리
train_dir = os.path.join(base_dir, 'train')
os.mkdir(train_dir)
validation_dir = os.path.join(base_dir, 'validation')
os.mkdir(validation_dir)
test_dir = os.path.join(base_dir, 'test')
os.mkdir(test_dir)
# 훈련용 고양이 사진 디렉터리
train_cats_dir = os.path.join(train_dir, 'cats')
os.mkdir(train_cats_dir)
# 훈련용 강아지 사진 디렉터리
train_dogs_dir = os.path.join(train_dir, 'dogs')
os.mkdir(train_dogs_dir)
# 검증용 고양이 사진 디렉터리
validation_cats_dir = os.path.join(validation_dir, 'cats')
os.mkdir(validation_cats_dir)
# 검증용 강아지 사진 디렉터리
validation_dogs_dir = os.path.join(validation_dir, 'dogs')
os.mkdir(validation_dogs_dir)
# 테스트용 고양이 사진 디렉터리
test_cats_dir = os.path.join(test_dir, 'cats')
os.mkdir(test_cats_dir)
# 테스트용 강아지 사진 디렉터리
test_dogs_dir = os.path.join(test_dir, 'dogs')
os.mkdir(test_dogs_dir)
# 처음 1,000개의 고양이 이미지를 train_cats_dir에 복사합니다
fnames = ['cat.{}.jpg'.format(i) for i in range(1000)]
for fname in fnames:
src = os.path.join(original_dataset_dir, fname)
dst = os.path.join(train_cats_dir, fname)
shutil.copyfile(src, dst)
# 다음 500개 고양이 이미지를 validation_cats_dir에 복사합니다
fnames = ['cat.{}.jpg'.format(i) for i in range(1000, 1500)]
for fname in fnames:
src = os.path.join(original_dataset_dir, fname)
dst = os.path.join(validation_cats_dir, fname)
shutil.copyfile(src, dst)
# 다음 500개 고양이 이미지를 test_cats_dir에 복사합니다
fnames = ['cat.{}.jpg'.format(i) for i in range(1500, 2000)]
for fname in fnames:
src = os.path.join(original_dataset_dir, fname)
dst = os.path.join(test_cats_dir, fname)
shutil.copyfile(src, dst)
# 처음 1,000개의 강아지 이미지를 train_dogs_dir에 복사합니다
fnames = ['dog.{}.jpg'.format(i) for i in range(1000)]
for fname in fnames:
src = os.path.join(original_dataset_dir, fname)
dst = os.path.join(train_dogs_dir, fname)
shutil.copyfile(src, dst)
# 다음 500개 강아지 이미지를 validation_dogs_dir에 복사합니다
fnames = ['dog.{}.jpg'.format(i) for i in range(1000, 1500)]
for fname in fnames:
src = os.path.join(original_dataset_dir, fname)
dst = os.path.join(validation_dogs_dir, fname)
shutil.copyfile(src, dst)
# 다음 500개 강아지 이미지를 test_dogs_dir에 복사합니다
fnames = ['dog.{}.jpg'.format(i) for i in range(1500, 2000)]
for fname in fnames:
src = os.path.join(original_dataset_dir, fname)
dst = os.path.join(test_dogs_dir, fname)
shutil.copyfile(src, dst)
복사가 잘 되었는지 확인하기 위해 각 분할(훈련/검증/테스트)에 들어 있는 사진의 개수를 카운트해 보죠:
print('훈련용 고양이 이미지 전체 개수:', len(os.listdir(train_cats_dir)))
훈련용 고양이 이미지 전체 개수: 1000
print('훈련용 강아지 이미지 전체 개수:', len(os.listdir(train_dogs_dir)))
훈련용 강아지 이미지 전체 개수: 1000
print('검증용 고양이 이미지 전체 개수:', len(os.listdir(validation_cats_dir)))
검증용 고양이 이미지 전체 개수: 500
print('검증용 강아지 이미지 전체 개수:', len(os.listdir(validation_dogs_dir)))
검증용 강아지 이미지 전체 개수: 500
print('테스트용 고양이 이미지 전체 개수:', len(os.listdir(test_cats_dir)))
테스트용 고양이 이미지 전체 개수: 500
print('테스트용 강아지 이미지 전체 개수:', len(os.listdir(test_dogs_dir)))
테스트용 강아지 이미지 전체 개수: 500
이제 2,000개의 훈련 이미지, 1,000개의 검증 이미지, 1,000개의 테스트 이미지가 준비되었습니다. 분할된 각 데이터는 클래마다 동일한 개수의 샘플을 포함합니다. 균형잡힌 이진 분류 문제이므로 정확도를 사용해 성공을 측정하겠습니다.
이전 예제에서 MNIST를 위해 간단한 컨브넷을 만들었습니다. 이제 컨브넷에 친숙해졌을 것입니다. 여기서 사용할 구조도 일반적으로 동일합니다. Conv2D
(relu
활성화 함수 사용)와 MaxPooling2D
층을 번갈아 쌓은 컨브넷을 만들겠습니다.
이전보다 이미지가 크고 복잡한 문제이기 때문에 네트워크를 좀 더 크게 만들겠습니다. Conv2D
+ MaxPooling2D
단계를 하나 더 추가합니다. 이렇게 하면 네트워크의 용량을 늘리고 Flatten
층의 크기가 너무 커지지 않도록 특성 맵의 크기를 줄일 수 있습니다. 150 × 150 크기(임의로 선택한 것입니다)의 입력으로 시작해서 Flatten
층 이전에 7 × 7 크기의 특성 맵으로 줄어듭니다.
특성 맵의 깊이는 네트워크에서 점진적으로 증가하지만(32에서 128까지), 특성 맵의 크기는 감소합니다(150 × 150에서 7 × 7까지). 이는 거의 모든 컨브넷에서 볼 수 있는 전형적인 패턴입니다.
이진 분류 문제이므로 네트워크는 하나의 유닛(크기가 1인 Dense
층)과 sigmoid
활성화 함수로 끝납니다. 이 유닛은 한 클래스에 대한 확률을 인코딩할 것입니다.
from tensorflow.keras import layers
from tensorflow.keras import models
model = models.Sequential()
model.add(layers.Conv2D(32, (3, 3), activation='relu',
input_shape=(150, 150, 3)))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(128, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(128, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Flatten())
model.add(layers.Dense(512, activation='relu'))
model.add(layers.Dense(1, activation='sigmoid'))
층들을 거치면서 특성 맵의 차원이 어떻게 변하는지 살펴보겠습니다:
model.summary()
Model: "sequential" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= conv2d (Conv2D) (None, 148, 148, 32) 896 _________________________________________________________________ max_pooling2d (MaxPooling2D) (None, 74, 74, 32) 0 _________________________________________________________________ conv2d_1 (Conv2D) (None, 72, 72, 64) 18496 _________________________________________________________________ max_pooling2d_1 (MaxPooling2 (None, 36, 36, 64) 0 _________________________________________________________________ conv2d_2 (Conv2D) (None, 34, 34, 128) 73856 _________________________________________________________________ max_pooling2d_2 (MaxPooling2 (None, 17, 17, 128) 0 _________________________________________________________________ conv2d_3 (Conv2D) (None, 15, 15, 128) 147584 _________________________________________________________________ max_pooling2d_3 (MaxPooling2 (None, 7, 7, 128) 0 _________________________________________________________________ flatten (Flatten) (None, 6272) 0 _________________________________________________________________ dense (Dense) (None, 512) 3211776 _________________________________________________________________ dense_1 (Dense) (None, 1) 513 ================================================================= Total params: 3,453,121 Trainable params: 3,453,121 Non-trainable params: 0 _________________________________________________________________
컴파일 단계에서 이전과 같이 RMSprop
옵티마이저를 선택하겠습니다. 네트워크의 마지막이 하나의 시그모이드 유닛이기 때문에 이진 크로스엔트로피(binary crossentropy)를 손실로 사용합니다(4장 5절에서 다양한 경우에 사용할 수 있는 손실 함수 목록을 볼 수 있습니다).
from tensorflow.keras import optimizers
model.compile(loss='binary_crossentropy',
optimizer=optimizers.RMSprop(lr=1e-4),
metrics=['accuracy'])
데이터는 네트워크에 주입되기 전에 부동 소수 타입의 텐서로 적절하게 전처리되어 있어야 합니다. 지금은 데이터가 JPEG 파일로 되어 있으므로 네트워크에 주입하려면 대략 다음 과정을 따릅니다.
좀 복잡하게 보일 수 있지만 다행히 케라스는 이런 단계를 자동으로 처리하는 유틸리티를 가지고 있습니다. 케라스는 keras.preprocessing.image
에 이미지 처리를 위한 헬퍼 도구들을 가지고 있습니다. 특히 ImageDataGenerator
클래스는 디스크에 있는 이미지 파일을 전처리된 배치 텐서로 자동으로 바꾸어주는 파이썬 제너레이터를 만들어 줍니다. 이 클래스를 사용해 보겠습니다.
from tensorflow.keras.preprocessing.image import ImageDataGenerator
# 모든 이미지를 1/255로 스케일을 조정합니다
train_datagen = ImageDataGenerator(rescale=1./255)
test_datagen = ImageDataGenerator(rescale=1./255)
train_generator = train_datagen.flow_from_directory(
# 타깃 디렉터리
train_dir,
# 모든 이미지를 150 × 150 크기로 바꿉니다
target_size=(150, 150),
batch_size=20,
# binary_crossentropy 손실을 사용하기 때문에 이진 레이블이 필요합니다
class_mode='binary')
validation_generator = test_datagen.flow_from_directory(
validation_dir,
target_size=(150, 150),
batch_size=20,
class_mode='binary')
Found 2000 images belonging to 2 classes. Found 1000 images belonging to 2 classes.
이 제너레이터의 출력 하나를 살펴보죠. 이 출력은 150 × 150 RGB 이미지의 배치((20, 150, 150, 3)
크기)와 이진 레이블의 배치((20,)
크기)입니다. 각 배치에는 20개의 샘플(배치 크기)이 있습니다. 제너레이터는 이 배치를 무한정 만들어 냅니다. 타깃 폴더에 있는 이미지를 끝없이 반복합니다. 따라서 반복 루프안의 어디에선가 break
문을 사용해야 합니다.
for data_batch, labels_batch in train_generator:
print('배치 데이터 크기:', data_batch.shape)
print('배치 레이블 크기:', labels_batch.shape)
break
배치 데이터 크기: (20, 150, 150, 3) 배치 레이블 크기: (20,)
제너레이터를 사용한 데이터에 모델을 훈련시켜 보겠습니다. fit_generator
메서드는 fit
메서드와 동일하되 데이터 제너레이터를 사용할 수 있습니다. 이 메서드는 첫 번째 매개변수로 입력과 타깃의 배치를 끝없이 반환하는 파이썬 제너레이터를 기대합니다. 데이터가 끝없이 생성되기 때문에 케라스 모델에 하나의 에포크를 정의하기 위해 제너레이터로부터 얼마나 많은 샘플을 뽑을 것인지 알려 주어야 합니다. steps_per_epoch
매개변수에서 이를 설정합니다. 제너레이터로부터 steps_per_epoch
개의 배치만큼 뽑은 다음, 즉 steps_per_epoch
횟수만큼 경사 하강법 단계를 실행한 다음에 훈련 프로세스는 다음 에포크로 넘어갑니다. 여기서는 20개의 샘플이 하나의 배치이므로 2,000개의 샘플을 모두 처리할 때까지 100개의 배치를 뽑을 것입니다.
fit_generator
를 사용할 때 fit
메서드와 마찬가지로 validation_data
매개변수를 전달할 수 있습니다. 이 매개변수에는 데이터 제너레이터도 가능하지만 넘파이 배열의 튜플도 가능합니다. validation_data
로 제너레이터를 전달하면 검증 데이터의 배치를 끝없이 반환합니다. 따라서 검증 데이터 제너레이터에서 얼마나 많은 배치를 추출하여 평가할지 validation_steps
매개변수에 지정해야 합니다.
history = model.fit_generator(
train_generator,
steps_per_epoch=100,
epochs=30,
validation_data=validation_generator,
validation_steps=50)
WARNING:tensorflow:From <ipython-input-15-a7acfc8093a4>:6: Model.fit_generator (from tensorflow.python.keras.engine.training) is deprecated and will be removed in a future version. Instructions for updating: Please use Model.fit, which supports generators. Epoch 1/30 100/100 [==============================] - 23s 231ms/step - loss: 0.6917 - accuracy: 0.5290 - val_loss: 0.7038 - val_accuracy: 0.5000 Epoch 2/30 100/100 [==============================] - 27s 270ms/step - loss: 0.6575 - accuracy: 0.6155 - val_loss: 0.6496 - val_accuracy: 0.5960 Epoch 3/30 100/100 [==============================] - 21s 213ms/step - loss: 0.6171 - accuracy: 0.6595 - val_loss: 0.6108 - val_accuracy: 0.6470 Epoch 4/30 100/100 [==============================] - 21s 215ms/step - loss: 0.5762 - accuracy: 0.6950 - val_loss: 0.6177 - val_accuracy: 0.6480 Epoch 5/30 100/100 [==============================] - 21s 212ms/step - loss: 0.5451 - accuracy: 0.7260 - val_loss: 0.5934 - val_accuracy: 0.6790 Epoch 6/30 100/100 [==============================] - 21s 212ms/step - loss: 0.5176 - accuracy: 0.7325 - val_loss: 0.6062 - val_accuracy: 0.6660 Epoch 7/30 100/100 [==============================] - 21s 213ms/step - loss: 0.4912 - accuracy: 0.7580 - val_loss: 0.5684 - val_accuracy: 0.6970 Epoch 8/30 100/100 [==============================] - 21s 213ms/step - loss: 0.4633 - accuracy: 0.7740 - val_loss: 0.5583 - val_accuracy: 0.7200 Epoch 9/30 100/100 [==============================] - 21s 213ms/step - loss: 0.4398 - accuracy: 0.7950 - val_loss: 0.5510 - val_accuracy: 0.7070 Epoch 10/30 100/100 [==============================] - 21s 213ms/step - loss: 0.4174 - accuracy: 0.8035 - val_loss: 0.5813 - val_accuracy: 0.7180 Epoch 11/30 100/100 [==============================] - 21s 214ms/step - loss: 0.3890 - accuracy: 0.8295 - val_loss: 0.5786 - val_accuracy: 0.7090 Epoch 12/30 100/100 [==============================] - 21s 213ms/step - loss: 0.3648 - accuracy: 0.8355 - val_loss: 0.5520 - val_accuracy: 0.7200 Epoch 13/30 100/100 [==============================] - 21s 212ms/step - loss: 0.3406 - accuracy: 0.8545 - val_loss: 0.5839 - val_accuracy: 0.7290 Epoch 14/30 100/100 [==============================] - 21s 213ms/step - loss: 0.3136 - accuracy: 0.8700 - val_loss: 0.6280 - val_accuracy: 0.7130 Epoch 15/30 100/100 [==============================] - 21s 213ms/step - loss: 0.2970 - accuracy: 0.8775 - val_loss: 0.6888 - val_accuracy: 0.7020 Epoch 16/30 100/100 [==============================] - 21s 212ms/step - loss: 0.2695 - accuracy: 0.8965 - val_loss: 0.5935 - val_accuracy: 0.7320 Epoch 17/30 100/100 [==============================] - 21s 214ms/step - loss: 0.2461 - accuracy: 0.9015 - val_loss: 0.6002 - val_accuracy: 0.7340 Epoch 18/30 100/100 [==============================] - 21s 212ms/step - loss: 0.2268 - accuracy: 0.9090 - val_loss: 0.6586 - val_accuracy: 0.7240 Epoch 19/30 100/100 [==============================] - 21s 214ms/step - loss: 0.2070 - accuracy: 0.9210 - val_loss: 0.6377 - val_accuracy: 0.7360 Epoch 20/30 100/100 [==============================] - 21s 213ms/step - loss: 0.1867 - accuracy: 0.9290 - val_loss: 0.6251 - val_accuracy: 0.7440 Epoch 21/30 100/100 [==============================] - 21s 211ms/step - loss: 0.1740 - accuracy: 0.9400 - val_loss: 0.8246 - val_accuracy: 0.6990 Epoch 22/30 100/100 [==============================] - 21s 213ms/step - loss: 0.1500 - accuracy: 0.9475 - val_loss: 0.7362 - val_accuracy: 0.7200 Epoch 23/30 100/100 [==============================] - 21s 213ms/step - loss: 0.1319 - accuracy: 0.9550 - val_loss: 0.7087 - val_accuracy: 0.7440 Epoch 24/30 100/100 [==============================] - 21s 212ms/step - loss: 0.1157 - accuracy: 0.9615 - val_loss: 0.7846 - val_accuracy: 0.7300 Epoch 25/30 100/100 [==============================] - 21s 213ms/step - loss: 0.0996 - accuracy: 0.9700 - val_loss: 0.7884 - val_accuracy: 0.7370 Epoch 26/30 100/100 [==============================] - 21s 212ms/step - loss: 0.0878 - accuracy: 0.9735 - val_loss: 0.9363 - val_accuracy: 0.7090 Epoch 27/30 100/100 [==============================] - 21s 210ms/step - loss: 0.0746 - accuracy: 0.9775 - val_loss: 0.8907 - val_accuracy: 0.7320 Epoch 28/30 100/100 [==============================] - 21s 212ms/step - loss: 0.0603 - accuracy: 0.9825 - val_loss: 0.9094 - val_accuracy: 0.7270 Epoch 29/30 100/100 [==============================] - 21s 212ms/step - loss: 0.0601 - accuracy: 0.9815 - val_loss: 1.1439 - val_accuracy: 0.7140 Epoch 30/30 100/100 [==============================] - 21s 214ms/step - loss: 0.0479 - accuracy: 0.9890 - val_loss: 0.9841 - val_accuracy: 0.7210
훈련이 끝나면 항상 모델을 저장하는 것이 좋은 습관입니다:
model.save('cats_and_dogs_small_1.h5')
훈련 데이터와 검증 데이터에 대한 모델의 손실과 정확도를 그래프로 나타내 보겠습니다:
import matplotlib.pyplot as plt
acc = history.history['accuracy']
val_acc = history.history['val_accuracy']
loss = history.history['loss']
val_loss = history.history['val_loss']
epochs = range(len(acc))
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.legend()
plt.figure()
plt.plot(epochs, loss, 'bo', label='Training loss')
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.legend()
plt.show()
이 그래프는 과대적합의 특성을 보여줍니다. 훈련 정확도가 시간이 지남에 따라 선형적으로 증가해서 거의 100%에 도달합니다. 반면 검증 정확도는 70-72%에서 멈추었습니다. 검증 손실은 다섯 번의 에포크만에 최솟값에 다다른 이후에 더 이상 진전되지 않았습니다. 반면 훈련 손실은 거의 0에 도달할 때까지 선형적으로 계속 감소합니다.
비교적 훈련 샘플의 수(2,000개)가 적기 때문에 과대적합이 가장 중요한 문제입니다. 드롭아웃이나 가중치 감소(L2 규제)와 같은 과대적합을 감소시킬 수 있는 여러 가지 기법들을 배웠습니다. 여기에서는 컴퓨터 비전에 특화되어 있어서 딥러닝으로 이미지를 다룰 때 매우 일반적으로 사용되는 새로운 방법인 데이터 증식을 시도해 보겠습니다.
과대적합은 학습할 샘플이 너무 적어 새로운 데이터에 일반화할 수 있는 모델을 훈련시킬 수 없기 때문에 발생합니다. 무한히 많은 데이터가 주어지면 데이터 분포의 모든 가능한 측면을 모델이 학습할 수 있을 것입니다. 데이터 증식은 기존의 훈련 샘플로부터 더 많은 훈련 데이터를 생성하는 방법입니다. 이 방법은 그럴듯한 이미지를 생성하도록 여러 가지 랜덤한 변환을 적용하여 샘플을 늘립니다. 훈련 시에 모델이 정확히 같은 데이터를 두 번 만나지 않도록 하는 것이 목표입니다. 모델이 데이터의 여러 측면을 학습하면 일반화에 도움이 될 것입니다.
케라스에서는 ImageDataGenerator
가 읽은 이미지에 여러 종류의 랜덤 변환을 적용하도록 설정할 수 있습니다. 예제를 먼저 만들어 보죠:
datagen = ImageDataGenerator(
rotation_range=40,
width_shift_range=0.2,
height_shift_range=0.2,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True,
fill_mode='nearest')
추가적인 매개변수가 몇 개 더 있습니다(케라스 문서를 참고하세요). 이 코드를 간단히 살펴보죠.
rotation_range
는 랜덤하게 사진을 회전시킬 각도 범위입니다(0-180 사이).width_shift_range
와 height_shift_range
는 사진을 수평과 수직으로 랜덤하게 평행 이동시킬 범위입니다(전체 넓이와 높이에 대한 비율).shear_range
는 랜덤하게 전단 변환을 적용할 각도 범위입니다.zoom_range
는 랜덤하게 사진을 확대할 범위입니다.horizontal_flip
은 랜덤하게 이미지를 수평으로 뒤집습니다. 수평 대칭을 가정할 수 있을 때 사용합니다(예를 들어, 풍경/인물 사진).fill_mode
는 회전이나 가로/세로 이동으로 인해 새롭게 생성해야 할 픽셀을 채울 전략입니다.증식된 이미지 샘플을 살펴보죠:
# 이미지 전처리 유틸리티 모듈
from tensorflow.keras.preprocessing import image
fnames = sorted([os.path.join(train_cats_dir, fname) for fname in os.listdir(train_cats_dir)])
# 증식할 이미지 선택합니다
img_path = fnames[3]
# 이미지를 읽고 크기를 변경합니다
img = image.load_img(img_path, target_size=(150, 150))
# (150, 150, 3) 크기의 넘파이 배열로 변환합니다
x = image.img_to_array(img)
# (1, 150, 150, 3) 크기로 변환합니다
x = x.reshape((1,) + x.shape)
# flow() 메서드는 랜덤하게 변환된 이미지의 배치를 생성합니다.
# 무한 반복되기 때문에 어느 지점에서 중지해야 합니다!
i = 0
for batch in datagen.flow(x, batch_size=1):
plt.figure(i)
imgplot = plt.imshow(image.array_to_img(batch[0]))
i += 1
if i % 4 == 0:
break
plt.show()
데이터 증식을 사용하여 새로운 네트워크를 훈련시킬 때 네트워크에 같은 입력 데이터가 두 번 주입되지 않습니다. 하지만 적은 수의 원본 이미지에서 만들어졌기 때문에 여전히 입력 데이터들 사이에 상호 연관성이 큽니다. 즉, 새로운 정보를 만들어낼 수 없고 단지 기존 정보의 재조합만 가능합니다. 그렇기 때문에 완전히 과대적합을 제거하기에 충분하지 않을 수 있습니다. 과대적합을 더 억제하기 위해 완전 연결 분류기 직전에 Dropout
층을 추가하겠습니다:
model = models.Sequential()
model.add(layers.Conv2D(32, (3, 3), activation='relu',
input_shape=(150, 150, 3)))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(64, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(128, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Conv2D(128, (3, 3), activation='relu'))
model.add(layers.MaxPooling2D((2, 2)))
model.add(layers.Flatten())
model.add(layers.Dropout(0.5))
model.add(layers.Dense(512, activation='relu'))
model.add(layers.Dense(1, activation='sigmoid'))
model.compile(loss='binary_crossentropy',
optimizer=optimizers.RMSprop(lr=1e-4),
metrics=['accuracy'])
데이터 증식과 드롭아웃을 사용하여 이 네트워크를 훈련시켜 봅시다:
train_datagen = ImageDataGenerator(
rescale=1./255,
rotation_range=40,
width_shift_range=0.2,
height_shift_range=0.2,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True,)
# 검증 데이터는 증식되어서는 안 됩니다!
test_datagen = ImageDataGenerator(rescale=1./255)
train_generator = train_datagen.flow_from_directory(
# 타깃 디렉터리
train_dir,
# 모든 이미지를 150 × 150 크기로 바꿉니다
target_size=(150, 150),
batch_size=20,
# binary_crossentropy 손실을 사용하기 때문에 이진 레이블을 만들어야 합니다
class_mode='binary')
validation_generator = test_datagen.flow_from_directory(
validation_dir,
target_size=(150, 150),
batch_size=20,
class_mode='binary')
history = model.fit_generator(
train_generator,
steps_per_epoch=100,
epochs=100,
validation_data=validation_generator,
validation_steps=50)
Found 2000 images belonging to 2 classes. Found 1000 images belonging to 2 classes. Epoch 1/100 100/100 [==============================] - 34s 340ms/step - loss: 0.6944 - accuracy: 0.5045 - val_loss: 0.6966 - val_accuracy: 0.4990 Epoch 2/100 100/100 [==============================] - 34s 337ms/step - loss: 0.6872 - accuracy: 0.5480 - val_loss: 0.6751 - val_accuracy: 0.5630 Epoch 3/100 100/100 [==============================] - 34s 336ms/step - loss: 0.6766 - accuracy: 0.5740 - val_loss: 0.6900 - val_accuracy: 0.5620 Epoch 4/100 100/100 [==============================] - 34s 336ms/step - loss: 0.6710 - accuracy: 0.5665 - val_loss: 0.6833 - val_accuracy: 0.5300 Epoch 5/100 100/100 [==============================] - 34s 337ms/step - loss: 0.6560 - accuracy: 0.6005 - val_loss: 0.6306 - val_accuracy: 0.6340 Epoch 6/100 100/100 [==============================] - 34s 338ms/step - loss: 0.6427 - accuracy: 0.6340 - val_loss: 0.6593 - val_accuracy: 0.5800 Epoch 7/100 100/100 [==============================] - 34s 338ms/step - loss: 0.6342 - accuracy: 0.6375 - val_loss: 0.6100 - val_accuracy: 0.6600 Epoch 8/100 100/100 [==============================] - 34s 336ms/step - loss: 0.6271 - accuracy: 0.6440 - val_loss: 0.5971 - val_accuracy: 0.6760 Epoch 9/100 100/100 [==============================] - 34s 337ms/step - loss: 0.6112 - accuracy: 0.6730 - val_loss: 0.5767 - val_accuracy: 0.6890 Epoch 10/100 100/100 [==============================] - 33s 334ms/step - loss: 0.6040 - accuracy: 0.6740 - val_loss: 0.5665 - val_accuracy: 0.7090 Epoch 11/100 100/100 [==============================] - 34s 336ms/step - loss: 0.6003 - accuracy: 0.6760 - val_loss: 0.5676 - val_accuracy: 0.6970 Epoch 12/100 100/100 [==============================] - 34s 338ms/step - loss: 0.5920 - accuracy: 0.6915 - val_loss: 0.5558 - val_accuracy: 0.7120 Epoch 13/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5883 - accuracy: 0.6845 - val_loss: 0.5551 - val_accuracy: 0.7150 Epoch 14/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5784 - accuracy: 0.6945 - val_loss: 0.5438 - val_accuracy: 0.7240 Epoch 15/100 100/100 [==============================] - 34s 337ms/step - loss: 0.5780 - accuracy: 0.6945 - val_loss: 0.5597 - val_accuracy: 0.7290 Epoch 16/100 100/100 [==============================] - 34s 337ms/step - loss: 0.5681 - accuracy: 0.6955 - val_loss: 0.5469 - val_accuracy: 0.7140 Epoch 17/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5530 - accuracy: 0.7060 - val_loss: 0.5796 - val_accuracy: 0.6990 Epoch 18/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5613 - accuracy: 0.7165 - val_loss: 0.5283 - val_accuracy: 0.7320 Epoch 19/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5554 - accuracy: 0.7220 - val_loss: 0.5366 - val_accuracy: 0.7120 Epoch 20/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5590 - accuracy: 0.7180 - val_loss: 0.5179 - val_accuracy: 0.7510 Epoch 21/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5386 - accuracy: 0.7290 - val_loss: 0.5038 - val_accuracy: 0.7480 Epoch 22/100 100/100 [==============================] - 34s 337ms/step - loss: 0.5466 - accuracy: 0.7250 - val_loss: 0.5049 - val_accuracy: 0.7510 Epoch 23/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5446 - accuracy: 0.7200 - val_loss: 0.5625 - val_accuracy: 0.7020 Epoch 24/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5383 - accuracy: 0.7260 - val_loss: 0.5172 - val_accuracy: 0.7390 Epoch 25/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5353 - accuracy: 0.7295 - val_loss: 0.5404 - val_accuracy: 0.7260 Epoch 26/100 100/100 [==============================] - 34s 337ms/step - loss: 0.5264 - accuracy: 0.7265 - val_loss: 0.5294 - val_accuracy: 0.7280 Epoch 27/100 100/100 [==============================] - 34s 338ms/step - loss: 0.5352 - accuracy: 0.7270 - val_loss: 0.5358 - val_accuracy: 0.7320 Epoch 28/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5248 - accuracy: 0.7390 - val_loss: 0.5117 - val_accuracy: 0.7480 Epoch 29/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5199 - accuracy: 0.7520 - val_loss: 0.4958 - val_accuracy: 0.7540 Epoch 30/100 100/100 [==============================] - 34s 337ms/step - loss: 0.5202 - accuracy: 0.7385 - val_loss: 0.5590 - val_accuracy: 0.7170 Epoch 31/100 100/100 [==============================] - 34s 335ms/step - loss: 0.5299 - accuracy: 0.7375 - val_loss: 0.4904 - val_accuracy: 0.7460 Epoch 32/100 100/100 [==============================] - 34s 335ms/step - loss: 0.5071 - accuracy: 0.7495 - val_loss: 0.4633 - val_accuracy: 0.7790 Epoch 33/100 100/100 [==============================] - 34s 336ms/step - loss: 0.5129 - accuracy: 0.7495 - val_loss: 0.5045 - val_accuracy: 0.7570 Epoch 34/100 100/100 [==============================] - 34s 337ms/step - loss: 0.4948 - accuracy: 0.7580 - val_loss: 0.5226 - val_accuracy: 0.7410 Epoch 35/100 100/100 [==============================] - 34s 337ms/step - loss: 0.5131 - accuracy: 0.7485 - val_loss: 0.5202 - val_accuracy: 0.7370 Epoch 36/100 100/100 [==============================] - 34s 337ms/step - loss: 0.5037 - accuracy: 0.7485 - val_loss: 0.5228 - val_accuracy: 0.7540 Epoch 37/100 100/100 [==============================] - 34s 335ms/step - loss: 0.5058 - accuracy: 0.7550 - val_loss: 0.5296 - val_accuracy: 0.7460 Epoch 38/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4965 - accuracy: 0.7560 - val_loss: 0.4876 - val_accuracy: 0.7650 Epoch 39/100 100/100 [==============================] - 33s 334ms/step - loss: 0.4980 - accuracy: 0.7475 - val_loss: 0.4622 - val_accuracy: 0.7780 Epoch 40/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4897 - accuracy: 0.7575 - val_loss: 0.5151 - val_accuracy: 0.7450 Epoch 41/100 100/100 [==============================] - 34s 337ms/step - loss: 0.4788 - accuracy: 0.7710 - val_loss: 0.5324 - val_accuracy: 0.7510 Epoch 42/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4883 - accuracy: 0.7630 - val_loss: 0.4483 - val_accuracy: 0.7900 Epoch 43/100 100/100 [==============================] - 34s 338ms/step - loss: 0.4965 - accuracy: 0.7630 - val_loss: 0.4786 - val_accuracy: 0.7570 Epoch 44/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4974 - accuracy: 0.7545 - val_loss: 0.5117 - val_accuracy: 0.7410 Epoch 45/100 100/100 [==============================] - 33s 333ms/step - loss: 0.4801 - accuracy: 0.7800 - val_loss: 0.4567 - val_accuracy: 0.7870 Epoch 46/100 100/100 [==============================] - 34s 337ms/step - loss: 0.4739 - accuracy: 0.7665 - val_loss: 0.4757 - val_accuracy: 0.7870 Epoch 47/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4885 - accuracy: 0.7650 - val_loss: 0.5690 - val_accuracy: 0.7170 Epoch 48/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4730 - accuracy: 0.7860 - val_loss: 0.4616 - val_accuracy: 0.7870 Epoch 49/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4710 - accuracy: 0.7690 - val_loss: 0.6784 - val_accuracy: 0.7030 Epoch 50/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4745 - accuracy: 0.7755 - val_loss: 0.4583 - val_accuracy: 0.7920 Epoch 51/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4577 - accuracy: 0.7825 - val_loss: 0.4507 - val_accuracy: 0.7910 Epoch 52/100 100/100 [==============================] - 33s 335ms/step - loss: 0.4741 - accuracy: 0.7785 - val_loss: 0.4285 - val_accuracy: 0.7930 Epoch 53/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4612 - accuracy: 0.7820 - val_loss: 0.5431 - val_accuracy: 0.7230 Epoch 54/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4590 - accuracy: 0.7855 - val_loss: 0.4529 - val_accuracy: 0.7690 Epoch 55/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4485 - accuracy: 0.7860 - val_loss: 0.4484 - val_accuracy: 0.7890 Epoch 56/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4699 - accuracy: 0.7710 - val_loss: 0.4998 - val_accuracy: 0.7560 Epoch 57/100 100/100 [==============================] - 34s 337ms/step - loss: 0.4553 - accuracy: 0.7825 - val_loss: 0.4805 - val_accuracy: 0.7770 Epoch 58/100 100/100 [==============================] - 34s 337ms/step - loss: 0.4514 - accuracy: 0.7940 - val_loss: 0.4556 - val_accuracy: 0.7880 Epoch 59/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4607 - accuracy: 0.7945 - val_loss: 0.4765 - val_accuracy: 0.7810 Epoch 60/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4416 - accuracy: 0.7980 - val_loss: 0.4571 - val_accuracy: 0.7980 Epoch 61/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4373 - accuracy: 0.7980 - val_loss: 0.4323 - val_accuracy: 0.8020 Epoch 62/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4509 - accuracy: 0.7885 - val_loss: 0.4260 - val_accuracy: 0.8050 Epoch 63/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4516 - accuracy: 0.7860 - val_loss: 0.4584 - val_accuracy: 0.7830 Epoch 64/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4352 - accuracy: 0.7890 - val_loss: 0.5160 - val_accuracy: 0.7680 Epoch 65/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4470 - accuracy: 0.7920 - val_loss: 0.4317 - val_accuracy: 0.8070 Epoch 66/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4419 - accuracy: 0.7970 - val_loss: 0.4488 - val_accuracy: 0.7910 Epoch 67/100 100/100 [==============================] - 33s 335ms/step - loss: 0.4303 - accuracy: 0.7990 - val_loss: 0.4616 - val_accuracy: 0.7890 Epoch 68/100 100/100 [==============================] - 33s 335ms/step - loss: 0.4538 - accuracy: 0.7800 - val_loss: 0.4609 - val_accuracy: 0.7760 Epoch 69/100 100/100 [==============================] - 34s 337ms/step - loss: 0.4321 - accuracy: 0.8030 - val_loss: 0.4565 - val_accuracy: 0.7960 Epoch 70/100 100/100 [==============================] - 33s 335ms/step - loss: 0.4326 - accuracy: 0.7940 - val_loss: 0.4734 - val_accuracy: 0.7870 Epoch 71/100 100/100 [==============================] - 33s 334ms/step - loss: 0.4431 - accuracy: 0.7890 - val_loss: 0.4386 - val_accuracy: 0.8020 Epoch 72/100 100/100 [==============================] - 35s 347ms/step - loss: 0.4225 - accuracy: 0.8040 - val_loss: 0.4352 - val_accuracy: 0.8080 Epoch 73/100 100/100 [==============================] - 33s 335ms/step - loss: 0.4152 - accuracy: 0.8155 - val_loss: 0.4744 - val_accuracy: 0.7730 Epoch 74/100 100/100 [==============================] - 33s 334ms/step - loss: 0.4244 - accuracy: 0.7980 - val_loss: 0.5854 - val_accuracy: 0.7300 Epoch 75/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4314 - accuracy: 0.7980 - val_loss: 0.4322 - val_accuracy: 0.8000 Epoch 76/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4089 - accuracy: 0.8045 - val_loss: 0.4672 - val_accuracy: 0.7840 Epoch 77/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4298 - accuracy: 0.8015 - val_loss: 0.4762 - val_accuracy: 0.7970 Epoch 78/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4319 - accuracy: 0.8005 - val_loss: 0.4469 - val_accuracy: 0.7890 Epoch 79/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4218 - accuracy: 0.8045 - val_loss: 0.4639 - val_accuracy: 0.7920 Epoch 80/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4178 - accuracy: 0.8070 - val_loss: 0.4479 - val_accuracy: 0.7910 Epoch 81/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4205 - accuracy: 0.8105 - val_loss: 0.4691 - val_accuracy: 0.7920 Epoch 82/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4195 - accuracy: 0.8035 - val_loss: 0.4969 - val_accuracy: 0.7670 Epoch 83/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4088 - accuracy: 0.8200 - val_loss: 0.4657 - val_accuracy: 0.7810 Epoch 84/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4187 - accuracy: 0.8055 - val_loss: 0.4407 - val_accuracy: 0.8000 Epoch 85/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4229 - accuracy: 0.8210 - val_loss: 0.4172 - val_accuracy: 0.8200 Epoch 86/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4034 - accuracy: 0.8130 - val_loss: 0.4464 - val_accuracy: 0.8010 Epoch 87/100 100/100 [==============================] - 34s 336ms/step - loss: 0.4046 - accuracy: 0.8180 - val_loss: 0.4362 - val_accuracy: 0.7920 Epoch 88/100 100/100 [==============================] - 34s 336ms/step - loss: 0.3961 - accuracy: 0.8160 - val_loss: 0.4528 - val_accuracy: 0.8040 Epoch 89/100 100/100 [==============================] - 34s 337ms/step - loss: 0.4044 - accuracy: 0.8225 - val_loss: 0.5101 - val_accuracy: 0.7560 Epoch 90/100 100/100 [==============================] - 34s 337ms/step - loss: 0.3950 - accuracy: 0.8180 - val_loss: 0.4247 - val_accuracy: 0.8090 Epoch 91/100 100/100 [==============================] - 34s 335ms/step - loss: 0.3973 - accuracy: 0.8195 - val_loss: 0.4412 - val_accuracy: 0.8020 Epoch 92/100 100/100 [==============================] - 34s 335ms/step - loss: 0.4258 - accuracy: 0.7995 - val_loss: 0.4855 - val_accuracy: 0.7910 Epoch 93/100 100/100 [==============================] - 34s 336ms/step - loss: 0.3861 - accuracy: 0.8330 - val_loss: 0.4787 - val_accuracy: 0.7840 Epoch 94/100 100/100 [==============================] - 34s 338ms/step - loss: 0.3931 - accuracy: 0.8235 - val_loss: 0.4032 - val_accuracy: 0.8080 Epoch 95/100 100/100 [==============================] - 34s 338ms/step - loss: 0.3856 - accuracy: 0.8225 - val_loss: 0.4362 - val_accuracy: 0.8110 Epoch 96/100 100/100 [==============================] - 34s 339ms/step - loss: 0.3941 - accuracy: 0.8180 - val_loss: 0.4464 - val_accuracy: 0.8110 Epoch 97/100 100/100 [==============================] - 34s 336ms/step - loss: 0.3747 - accuracy: 0.8300 - val_loss: 0.4381 - val_accuracy: 0.8160 Epoch 98/100 100/100 [==============================] - 34s 335ms/step - loss: 0.3907 - accuracy: 0.8225 - val_loss: 0.4575 - val_accuracy: 0.8080 Epoch 99/100 100/100 [==============================] - 34s 337ms/step - loss: 0.3952 - accuracy: 0.8240 - val_loss: 0.4347 - val_accuracy: 0.8150 Epoch 100/100 100/100 [==============================] - 34s 336ms/step - loss: 0.3857 - accuracy: 0.8190 - val_loss: 0.5003 - val_accuracy: 0.7880
다음 절에서 이 모델을 사용하기 위해 모델을 저장합니다.
model.save('cats_and_dogs_small_2.h5')
결과 그래프를 다시 그려 보죠:
acc = history.history['accuracy']
val_acc = history.history['val_accuracy']
loss = history.history['loss']
val_loss = history.history['val_loss']
epochs = range(len(acc))
plt.plot(epochs, acc, 'bo', label='Training acc')
plt.plot(epochs, val_acc, 'b', label='Validation acc')
plt.title('Training and validation accuracy')
plt.legend()
plt.figure()
plt.plot(epochs, loss, 'bo', label='Training loss')
plt.plot(epochs, val_loss, 'b', label='Validation loss')
plt.title('Training and validation loss')
plt.legend()
plt.show()
그림 5-12와 5-13을 참고하세요. 데이터 증식과 드롭아웃 덕택에 더이상 과대적합되지 않습니다. 훈련 곡선이 검증 곡선에 가깝게 따라가고 있습니다. 검증 데이터에서 82% 정확도를 달성하였습니다. 규제하지 않은 모델과 비교했을 때 15% 정도 향상되었습니다.
다른 규제 기법을 더 사용하고 네트워크의 파라미터를 튜닝하면(합성곱 층의 필터 수나 네트워크의 층의 수 등) 86%나 87% 정도까지 더 높은 정확도를 얻을 수도 있습니다. 하지만 데이터가 적기 때문에 컨브넷을 처음부터 훈련해서 더 높은 정확도를 달성하기는 어렵습니다. 이런 상황에서 정확도를 높이기 위한 다음 단계는 사전 훈련된 모델을 사용하는 것입니다. 다음 두 절에서 이에 대해 집중적으로 살펴보겠습니다.