PyTorchとMNIST手書き数字の、学習と分類

はてなブックマーク - PyTorchとMNIST手書き数字の、学習と分類
LINEで送る
Pocket

前回の記事で、scikit-learnの手書き数字の学習の内容を紹介しましt。

今日の記事は、PyTorch+MNISTの手書き数字データセットを使って学習とその後の分類(推論)を紹介します。

目次

PyTorchとは

PyTorch(http://pytorch.org/)はFacebookの人工知能研究グループにより開発されたPython向けのオープンソース機械学習のライブラリです。

PyTorchは元々「Torch(トーチ)」「Lua言語」書かれていましたが、PyTorchはそれのPython版です。2018年10月前半にリリースされ、今安定しているのはPyTorch 0.4.1です。

PyTorchは2016年後半に発表された比較的新しいライブラリです。他の機械学習のフレームワークと比べると、後発ではありますが、最近人気が増え続けています。注目すべき機械学習フレームワークの一つだと言えるでしょう。

MNISTとは

MNIST(http://yann.lecun.com/exdb/mnist/)とは、「Mixed National Institute of Standards and Technology database」の略で、手書きの数字「0~9」とその正解ラベルがセットになっているデータセットです。手書き数字の画像データセットが70,000個あります。

データセットにある手書き文字は28ピクセル×28ピクセルの画像になっており、784次元のデータとなります。この784次元のデータを使って0~9を分類します。

scikit-learnのレ記事でも手書き数字の認識を機械学習のアプローチで体験してみましたが、今回は、ニューラルネットワークの手法を用いて、学習させていきます。

機械学習入門チュートリアルscikit-learnで手書き数字学習と認識

また、scikit-learnの手書き数字の一つの画像は8×8の画像で、全部で64ピクセルということに対して、MINISTのデータは、28×28の画像で、全部で784ピクセルがあるということで、MNISTデータの「粒度」はscikit-learnのデータと比べ、より細かく、ディテールが多いです。

MINISTの手書き数字データセットは様々な機械学習フレームワークから簡単に利用することができます。

例えば、Keras、PyTorch、Chainerも一行でデータセットのロードすることができます。

今回の記事の内容はGoogle Colabで実行できます。

PyTorchのインストール

下記のようにGoogle Colabが提供している標準な方法を使ってインストールします。

from os.path import exists
from wheel.pep425tags import get_abbr_impl, get_impl_ver, get_abi_tag
platform = '{}{}-{}'.format(get_abbr_impl(), get_impl_ver(), get_abi_tag())
cuda_output = !ldconfig -p|grep cudart.so|sed -e 's/.*\.\([0-9]*\)\.\([0-9]*\)$/cu\1\2/'
accelerator = cuda_output[0] if exists('/dev/nvidia0') else 'cpu'

!pip install -q http://download.pytorch.org/whl/{accelerator}/torch-0.4.1-{platform}-linux_x86_64.whl torchvision
import torch
print(torch.__version__)

実行結果:0.4.1

必要なパケージを導入する

まず、torchvisionが必要です。torchvisionとは,PyTorchのコンピュータービジョン用のパッケージで,データセットのロードや画像の前処理の関数などが入っています。

今回使うMNISTのデータセット以外に、16種類のデータセットが予め入っています。こちらのデータを使って、練習するのもいいですね。

今回は、torchvision.datasetsを使って、MNISTのデータを導入します。

import matplotlib.pyplot as plt
import torchvision.transforms as transforms
from torch.utils.data import DataLoader
from torchvision.datasets import MNIST

データセットのダウンロード

mnist_data = MNIST('~/tmp/mnist', train=True, download=True, transform=transforms.ToTensor())
data_loader = DataLoader(mnist_data,batch_size=4,shuffle=False)

データの中身を見てみる

data_iterator = iter(data_loader)
images, labels = data_iterator.next()

1つ目のデータを可視化してみる

data = images[2].numpy()
plt.imshow(data.reshape(28, 28), cmap='inferno', interpolation='bicubic')
plt.show()
print('ラベル:', labels[0])

実行結果:

ラベル: tensor(5)

 

学習データと検証データを用意する

学習のデータか検証のデータかは、trainという引数で決めています。

train=Trueの場合は、学習データとしてロードします。 train=Falseの場合は、検証データとしてロードします。

PyTorchでは、こんなやり方が分かりやすいですね!

# 学習データ
train_data_with_label = MNIST('~/tmp/mnist', train=True, download=True, transform=transforms.ToTensor())
train_data_loader = DataLoader(train_data_with_label,batch_size=4,shuffle=True)
# 検証データ
test_data_with_label = MNIST('~/tmp/mnist', train=False, download=True, transform=transforms.ToTensor())
test_data_loader = DataLoader(test_data_with_label,batch_size=4,shuffle=False)

ニューラルネットワークを定義

ニューラルネットワーク(MLP)は torch.nn パッケージを使用して構築できます。

親クラスはPyTorchでは、nn.Moduleとなります。

そして、マルチレイヤーパーセプトロン (ニューラルネットワーク)の定義をしていきます。

ネットワークをFeed Forwardネットワークにします。

from torch.autograd import Variable
import torch.nn as nn
import torch.nn.functional as F

class MLP(nn.Module):
  def __init__(self):
    super().__init__()
    #入力層から中間層(隠れ層)
    self.l1 = nn.Linear(28 * 28, 50)
    # 中間層(隠れ層)から出力層
    self.l2 = nn.Linear(50, 10)
        
  def forward(self, x):
    x = x.view(-1, 28 * 28)
    x = self.l1(x)
    x = self.l2(x)
    return x

モデル

model = MLP()

コスト関数と最適化手法を定義

PyTorchでは代表的なコスト関数や最適化手法はあらかじめ提供されています。

コスト関数にクロスエントロピー、最適化手法にSGDをします。

optimizer.SGDに引数として最適化対象のパラメータ一覧を渡しています。

PyTorchでは

optimizer = optimizer.SGD(model.parameters(), lr=0.01)

という形で、モデルに最適手法を適用していますね。

import torch.optim as optimizer

# ソフトマックスロスエントロピー
criterion = nn.CrossEntropyLoss()
# SGD
optimizer = optimizer.SGD(model.parameters(), lr=0.01)

学習

早速学習させてみましょう!まず、学習回数を4回にしてみましょう

学習ループ内では次のような作業を順次実行していきます:

# 最大学習回数
MAX_EPOCH=4

for epoch in range(MAX_EPOCH):
  running_loss = 0.0
  for i, data in enumerate(train_data_loader):
    
    # dataから学習対象データと教師ラベルデータを取り出します
    train_data, teacher_labels = data
    
    # 入力をtorch.autograd.Variableに変換
    train_data teacher_labels = Variable(train_data), Variable(teacher_labels)
    
    # 計算された勾配情報を削除します
    optimizer.zero_grad()
    
    # モデルでの予測を計算します
    outputs = model(train_data)
    
    # lossとwによる微分計算します
    loss = criterion(outputs, teacher_labels)
    loss.backward()
    
    # 勾配を更新します
    optimizer.step()
    
    # 損失を累計します
    running_loss += loss.data[0]
    
    # 2000ミニバッチずつ、進捗を表示します 
    if i % 2000 == 1999:
      print('学習進捗:[%d, %d] 学習損失(loss): %.3f' % (epoch + 1, i + 1, running_loss / 2000))
      running_loss = 0.0
        
print('学習終了')

実行結果

/usr/local/lib/python3.6/dist-packages/ipykernel_launcher.py:27: UserWarning: invalid index of a 0-dim tensor. This will be an error in PyTorch 0.5. Use tensor.item() to convert a 0-dim tensor to a Python number
学習進捗:[1, 2000] 学習損失(loss): 0.810
学習進捗:[1, 4000] 学習損失(loss): 0.397
学習進捗:[1, 6000] 学習損失(loss): 0.362
学習進捗:[1, 8000] 学習損失(loss): 0.349
学習進捗:[1, 10000] 学習損失(loss): 0.329
学習進捗:[1, 12000] 学習損失(loss): 0.317
学習進捗:[1, 14000] 学習損失(loss): 0.310
学習進捗:[2, 2000] 学習損失(loss): 0.321
学習進捗:[2, 4000] 学習損失(loss): 0.298
学習進捗:[2, 6000] 学習損失(loss): 0.297
学習進捗:[2, 8000] 学習損失(loss): 0.301
学習進捗:[2, 10000] 学習損失(loss): 0.311
学習進捗:[2, 12000] 学習損失(loss): 0.296
学習進捗:[2, 14000] 学習損失(loss): 0.302
学習進捗:[3, 2000] 学習損失(loss): 0.284
学習進捗:[3, 4000] 学習損失(loss): 0.297
学習進捗:[3, 6000] 学習損失(loss): 0.296
学習進捗:[3, 8000] 学習損失(loss): 0.294
学習進捗:[3, 10000] 学習損失(loss): 0.280
学習進捗:[3, 12000] 学習損失(loss): 0.301
学習進捗:[3, 14000] 学習損失(loss): 0.299
学習進捗:[4, 2000] 学習損失(loss): 0.274
学習進捗:[4, 4000] 学習損失(loss): 0.290
学習進捗:[4, 6000] 学習損失(loss): 0.288
学習進捗:[4, 8000] 学習損失(loss): 0.284
学習進捗:[4, 10000] 学習損失(loss): 0.287
学習進捗:[4, 12000] 学習損失(loss): 0.284
学習進捗:[4, 14000] 学習損失(loss): 0.303
学習終了

検証データを使った検証

import torch

count_when_correct = 0
total = 0
#
for data in test_data_loader:
  #
  test_data, teacher_labels = data
  #
  results = model(Variable(test_data))
  #
  _, predicted = torch.max(results.data, 1)
  #
  total += teacher_labels.size(0)
  count_when_correct += (predicted == teacher_labels).sum()
    
print('正解率:%d / %d = %f'% (count_when_correct, total, int(count_when_correct)/int(total)))

実行結果:

正解率:9204 / 10000 = 0.920400

検証データを決める

test_iterator = iter(test_data_loader)
# ここで回数を増減して、違うテストデータを取り出せます
test_data, labels = test_iterator.next()
test_data, labels = test_iterator.next()
test_data, labels = test_iterator.next()
#
results = model(Variable(test_data))
_, predicted_label = torch.max(results.data, 1)

plt.imshow(test_data [0].numpy().reshape(28, 28), cmap='inferno', interpolation='bicubic')
print('ラベル:', predicted_label[0])

実行結果:

ラベル: tensor(6)

まとめ

いかがですか?この記事の内容でPyTorchの使い方のイメージを摘むことができましたでしょうか?

ニューラルネットワークの定義の仕方がとても分かりやすいかと思います。

では、また別の機会でPyTorchの使い方を紹介していきたいと思います。

はてなブックマーク - PyTorchとMNIST手書き数字の、学習と分類
LINEで送る
Pocket

Add a Comment

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

By continuing to use the site, you agree to the use of cookies. more information

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close