web-dev-qa-db-ja.com

分散Tensorflowを使用したKerasモデルの学習

2つのGPUが2つの異なるマシンにインストールされています。 2つのGPUを一緒に使用してKerasモデルを学習できるクラスターを構築したいと考えています。 Kerasブログでは、分散トレーニングセクションにコードの2つのスライスを示し、公式のTensorflowドキュメントにリンクしています。

私の問題は、モデルを学習してTensorflowのドキュメントで報告されている内容を実践する方法がわからないことです。たとえば、複数のGPUのクラスターで次のコードを実行する場合はどうすればよいですか?

# For a single-input model with 2 classes (binary classification):

model = Sequential()
model.add(Dense(32, activation='relu', input_dim=100))
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])

# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))

# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, epochs=10, batch_size=32)
11
Alessandro

ブログの前半と後半では、テンソルフローでケラスモデルを使用する方法を説明しています。

また、このケラの例を 分散トレーニング で見つけました。

そして、これが horovod を使用した別の例です。

6