2017/10/09

加速度センサーで行動分類(CNN編)

前回は加速度センサーデータをLSTMで分類しましたが、今回はCNNで試してみます。

センサーデータは、LSTMのときと同様にランダムに窓で区切ります。ただし、そのまま入力はせず、3次元のヒストグラムを作り、それをCNNの入力とします。センサーデータは3軸あり、振幅は整数でその範囲は[0,64)です。単純に、64x64x64の3次元配列でヒストグラムを作っても良いのですが、大部分が0になるスカスカのヒストグラムになる点と、CNNの規模が大きくなる点を考慮して、振幅を4分の1にしてヒストグラムを作ります。つまり、16x16x16の3次元配列(テンソル)をCNNの入力にします。これでも要素の数は4096個あり、窓幅を64とするとスカスカです。

使用するCNNのモデルは、3Dの畳み込み層3つと全結合層2つです。具体的には、

BIN_SIZE = 4
si = int(64/BIN_SIZE)
model = Sequential()
model.add(Conv3D(32, kernel_size=(5, 5, 5),
                 input_shape=(si, si, si, 1), 
                 data_format='channels_last'))
model.add(LeakyReLU(0.2))
for _ in range(2):
    model.add(Conv3D(32, kernel_size=(5, 5, 5), data_format='channels_last'))
    model.add(LeakyReLU(0.2))
model.add(Flatten())
model.add(Dense(256))
model.add(LeakyReLU(0.2))
model.add(Dropout(0.5))
model.add(Dense(num_classes))
model.add(Activation('softmax'))
の通りです。Conv3Dのフィルタサイズは32としました。Conv3Dの出力は順に、12x12x12x32、8x8x8x32、4x4x4x32です。したがって、1つ目のDenseへの入力サイズは2048となります。Conv3Dで適度なサイズに絞らないと、全結合層のパラメータ数が増えすぎて、GPUで処理できなくなります。

3次元のヒストグラムはデータを増やすためにランダムに回転させます。回転範囲の制限は、回転行列の対角要素の全てが一定値θより大きいという条件を満たす回転行列のみを使用することにより実現します。

前回と同様、バッチサイズ32、1エポックあたりのステップ数は100で、100エポック学習させました。結果は下表の通りです。100エポック終了後のモデルで訓練、検証ともに32000サンプル生成し、評価しています。32000サンプルはランダムに選択しているので毎回基準は揺れます。

Train accuracy





Window width No rotation Random rotation (θ)
0.95 0.9 0.5 0 Full
32 83.7% 57.5% 52.9% 40.2% 34.8% 29.7%
64 93.1% 70.4% 64.4% 49.8% 41.6% 35.9%
128 98.6% 85.5% 80.1% 63.4% 54.6% 47.6%
256 99.9% 95.0% 91.7% 79.5% 70.0% 61.8%
512 100.0% 98.7% 96.9% 89.6% 83.1% 75.6%

Validation accuracy
Window width No rotation Random rotation (θ)
0.95 0.9 0.5 0 Full
32 51.7% 51.2% 50.2% 38.5% 33.5% 25.3%
64 55.9% 59.9% 57.2% 46.1% 36.2% 31.9%
128 65.0% 70.8% 70.3% 58.6% 50.5% 37.3%
256 74.8% 80.6% 82.2% 77.1% 63.1% 51.9%
512 78.4% 80.7% 82.3% 83.1% 71.4% 65.0%

窓幅(Windows width)が32の場合、1秒のデータだけを見て分類していることになります。表から分かるように、入力データのランダム回転の範囲にかかわらず、窓幅が広いほど精度が高くなります。これは、窓幅が広くなるほど入力データのバリエーションが減り、分類に使えるデータが増えるためです。

入力データのランダムな回転の有効性は、窓幅によって変化します。窓幅が狭いと回転範囲が狭い(θが大きい)ほうが検証用データでの精度が良く、窓幅が広くなるにつれて精度が最も良くなる回転範囲が広めになります。ただし、どの窓幅でも回転範囲を広げすぎると精度が下がります。

今回の実験に使ったコードは次の通りです。util.random_rotateとutil.historyはここにあります。

  1
  2
  3
  4
  5
  6
  7
  8
  9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35
 36
 37
 38
 39
 40
 41
 42
 43
 44
 45
 46
 47
 48
 49
 50
 51
 52
 53
 54
 55
 56
 57
 58
 59
 60
 61
 62
 63
 64
 65
 66
 67
 68
 69
 70
 71
 72
 73
 74
 75
 76
 77
 78
 79
 80
 81
 82
 83
 84
 85
 86
 87
 88
 89
 90
 91
 92
 93
 94
 95
 96
 97
 98
 99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
# This script trains a neural network model using accelerometer data
import sys,os
sys.path.append(os.path.dirname(os.path.abspath(__file__)) + '/../keras-examples/src')

import keras, datetime
import numpy as np
from keras.models import Sequential
from keras.layers import Dense, Activation, Conv3D, LeakyReLU, Flatten, Dropout
from keras.layers import LSTM
from util.random_rotate import uniform_random_rotation_matrix_3D
from util.history import ExperimentHistory

TRAIN_EPOCH = 100
BIN_SIZE = 4

def make_model(num_classes):
    si = int(64/BIN_SIZE) # Size of input
    model = Sequential()
    model.add(Conv3D(32, kernel_size=(5, 5, 5),
                     input_shape=(si, si, si, 1), 
                     data_format='channels_last'))
    model.add(LeakyReLU(0.2))
    for _ in range(2):
        model.add(Conv3D(32, kernel_size=(5, 5, 5), data_format='channels_last'))
        model.add(LeakyReLU(0.2))
    model.add(Flatten())
    model.add(Dense(256))
    model.add(LeakyReLU(0.2))
    model.add(Dropout(0.5))
    model.add(Dense(num_classes))
    model.add(Activation('softmax'))
    model.summary()
    return model

def read_accel(filename):
    with open(filename) as f:
        data = []
        for line in f:
            for v in line.rstrip().split(" "):
                if not v.isdigit():
                    print(v, "is not digit")
            data.append([int(v) for v in line.rstrip().split(" ")])
        data = np.array(data)
        return data

# Data generator
def data_gen(filelist, batch_size, window_width, random_rotate=False, rotation_range=0):
    # Make a dict for converting a class ID to files
    num_class = 0
    with open(filelist) as f:
        id2f = dict()
        for line in f:
            id, filename = line.split(" ", maxsplit=2)
            id = int(id)
            id2f.setdefault(id, []).append(read_accel(filename.rstrip()))
            num_class = max(num_class, id)
        num_class += 1
    yield num_class # Return the number of classes at first

    # Generate data eternally
    shift = np.array([32, 32, 32]) # Specify the center of rotation
    while True:
        data = []
        labels = []
        for i in range(batch_size):
            while True:
                c = np.random.randint(0, num_class) # Select a class
                if c in id2f:
                    break
            # Select a file in the class
            f = np.random.randint(0, len(id2f[c]))
            # Select a window position
            p = np.random.randint(0, max(0, len(id2f[c][f])-window_width)+1)
            # Make a label for the selected class
            labels.append(keras.utils.to_categorical(c, num_classes=num_class))
            # Add selected data
            if(random_rotate):
                while True:
                    m = uniform_random_rotation_matrix_3D()
                    if m[0,0] > rotation_range and m[1,1] > rotation_range and m[2,2] > rotation_range:
                        break
                data.append(np.dot(m, (id2f[c][f][p:p+window_width,:]-shift).T).T+shift)
            else:
                data.append(id2f[c][f][p:p+window_width,:])
                
            if(len(data[-1]) < window_width):
                padding = window_width - len(data[-1])
                data[-1] = np.append(np.zeros((padding, data[-1].shape[1]), dtype=np.int),
                                              data[-1], axis=0)
        # Make 3D-histogram (x, y and z range are 0-63)
        hist_data = []
        for i in range(batch_size):
            h = np.zeros(shape=(int(64/BIN_SIZE), int(64/BIN_SIZE), int(64/BIN_SIZE), 1))
            for t in range(data[i].shape[0]):
                if data[i][t,0] > 63 or data[i][t,0] < 0 or \
                   data[i][t,1] > 63 or data[i][t,1] < 0 or \
                   data[i][t,2] > 63 or data[i][t,2] < 0:
                    continue
                x = int(data[i][t,0]/BIN_SIZE)
                y = int(data[i][t,1]/BIN_SIZE)
                z = int(data[i][t,2]/BIN_SIZE)
                h[x, y, z, 0] += 1
            hist_data.append(h)
        yield np.array(hist_data), np.array(labels).reshape((batch_size, num_class))

def get_data(data_generator, steps):
    dgr = [next(data_generator) for _ in range(steps)]
    data = np.array([w for v in dgr for w in v[0]])
    labels = np.array([w for v in dgr for w in v[1]])
    return data, labels

def run(eh):
    dg = data_gen("train.list", eh.batch_size, eh.window_width, eh.random_rotate, eh.rotation_range)
    num_classes = next(dg)
    dgv = data_gen("val.list", eh.batch_size, eh.window_width)
    assert num_classes == next(dgv)

    # Make a model
    opt = keras.optimizers.Adamax(lr=0.002, beta_1=0.9, beta_2=0.999,
                                  epsilon=1e-08, decay=1e-4)
    model = make_model(num_classes)
    model.compile(loss='categorical_crossentropy', optimizer=opt, metrics=['accuracy'])

    # Train the model
    hist = model.fit_generator(dg, steps_per_epoch=100, 
                               validation_data=dgv, validation_steps=100,
                               epochs=TRAIN_EPOCH).history
    # Get data for evaluation
    score_train = model.evaluate(*get_data(dg, 1000))
    score_val = model.evaluate(*get_data(dgv, 1000))
    comments = "#Final model loss_train={0:10.6f} acc_train={1:10.6f} loss_val={2:10.6f} acc_val={3:10.6f}"\
               .format(score_train[0], score_train[1], score_val[0], score_val[1])
    eh.write("history.log", model, opt, hist, comments)

    # Evaluate the last model by train and validation data
    model.save("models/cnn_b{0}_ww{1}_rr{2}.hdf5"\
               .format(BIN_SIZE, eh.window_width, str(eh.rotation_range) if eh.random_rotate else "no"))

if __name__ == '__main__':
    if not os.path.exists("models"):
        os.mkdir("models")

    eh = ExperimentHistory()
    eh.BIN_SIZE = BIN_SIZE
    eh.batch_size = 32
    for (rr, rrange) in [(False, 0), (True, 0.95), (True, 0.9), (True, 0.5), (True, 0), (True, -2)]:
        eh.random_rotate = rr
        eh.rotation_range = rrange
        for ww in [32, 64, 128, 256, 512]:
            eh.window_width = ww
            run(eh)

0 件のコメント :