web-dev-qa-db-ja.com

Kerasで入力を異なるチャネルに分割する方法

それぞれ5000の値を持つ20のチャネルデータがあります(HDに.npyファイルとして保存された合計150,000以上のレコード)。

https://stanford.edu/~shervine/blog/keras-how-to-generate-data-on-the-fly.html で利用可能なkerasfit_generatorチュートリアルに従ってデータを読み取ります(各レコードは、float32タイプの(5000、20)numpy配列として読み取られます。

私が理論化したネットワークには、チャネルごとに並列畳み込みネットワークがあり、最後に連結するため、データを並列にフィードする必要があります。データから単一チャネルのみを読み取ってフィードし、単一ネットワークにフィードすることは成功します

def __data_generation(self, list_IDs_temp):
    'Generates data containing batch_size samples' # X : (n_samples, *dim, n_channels)
    # Initialization
    if(self.n_channels == 1):
        X = np.empty((self.batch_size, *self.dim))
    else:
        X = np.empty((self.batch_size, *self.dim, self.n_channels))
    y = np.empty((self.batch_size), dtype=int)

    # Generate data
    for i, ID in enumerate(list_IDs_temp):
        # Store sample
        d = np.load(self.data_path + ID + '.npy')
        d = d[:, self.required_channel]
        d = np.expand_dims(d, 2)
        X[i,] = d

        # Store class
        y[i] = self.labels[ID]

    return X, keras.utils.to_categorical(y, num_classes=self.n_classes)

ただし、レコード全体を読み取り、Lambdaレイヤーを使用してスライスしてネットワークにフィードしようとすると、

レコード全体を読む

 X[i,] = np.load(self.data_path + ID + '.npy')

で利用可能なLambdaSlicing Layer実装の使用: https://github.com/keras-team/keras/issues/89

input = Input(shape=(5000, 20))
slicedInput = crop(2, 0, 1)(input)

モデルをコンパイルすると、予想されるレイヤーサイズが表示されます。

データがこのネットワークに送られると、

ValueError: could not broadcast input array from shape (5000,20) into shape (5000,1)

どんな助けでも大歓迎です....

4
MuTaTeD

参照しているGithub thread で述べたように、Lambdaレイヤーは1つの出力のみを返すことができるため、提案された crop(dimension, start, end) はのみを返します単一の「開始から終了までの特定の次元のテンソル」。

私はあなたが達成したいことはそのような方法で行うことができると信じています:

from keras.layers import Dense, Concatenate, Input, Lambda
from keras.models import Model

num_channels = 20
input = Input(shape=(5000, num_channels))

branch_outputs = []
for i in range(num_channels):
    # Slicing the ith channel:
    out = Lambda(lambda x: x[:, i])(input)

    # Setting up your per-channel layers (replace with actual sub-models):
    out = Dense(16)(out)
    branch_outputs.append(out)

# Concatenating together the per-channel results:
out = Concatenate()(branch_outputs)

# Adding some further layers (replace or remove with your architecture):
out = Dense(10)(out)

# Building model:
model = Model(inputs=input, outputs=out)    
model.compile(optimizer=keras.optimizers.Adam(lr=0.001), loss='categorical_crossentropy', metrics=['accuracy'])

# --------------
# Generating dummy data:
import numpy as np
data = np.random.random((64, 5000, num_channels))
targets = np.random.randint(2, size=(64, 10))

# Training the model:
model.fit(data, targets, epochs=2, batch_size=32)
# Epoch 1/2
# 32/64 [==============>...............] - ETA: 1s - loss: 37.1219 - acc: 0.1562
# 64/64 [==============================] - 2s 27ms/step - loss: 38.4801 - acc: 0.1875
# Epoch 2/2
# 32/64 [==============>...............] - ETA: 0s - loss: 38.9541 - acc: 0.0938
# 64/64 [==============================] - 0s 4ms/step - loss: 36.0179 - acc: 0.1875
10
benjaminplanche