web-dev-qa-db-ja.com

KerasでマルチGPUトレーニングを行う方法は?

モデルを複数のGPUで実行し、パラメーターを共有しますが、データのバッチは異なります。

model.fit()でそのようなことをすることはできますか?他に選択肢はありますか?

10
Rajarshee Mitra

Kerasは(v2.0.9以降)keras.utils.multi_gpu_modelを使用して、複数のGPU間でデバイスの並列処理をサポートするようになりました。

現在、Tensorflowバックエンドのみをサポートしています。

ここでの良い例(ドキュメント): https://keras.io/getting-started/faq/#how-can-i-run-a-keras-model-on-multiple-gpus またカバーされていますここ: https://datascience.stackexchange.com/a/25737

2
4Oh4

make_parallel関数を次の場所で使用してみてください: https://github.com/kuza55/keras-extras/blob/master/utils/multi_gpu.py (テンソルフローバックエンドでのみ機能します)。

1
Dror Hilman