web-dev-qa-db-ja.com

NumpyはGPUを自動的に検出して使用しますか?

NumpyをGPU(nvidia GTX 1080 Ti)で使用する場合の基本的な質問がいくつかあります。私はGPUが初めてなので、Numpy/Pythonを高速化するためにGPUを適切に使用していることを確認したいと思います。しばらくインターネットで検索しましたが、質問に答える簡単なチュートリアルは見つかりませんでした。誰かが私にいくつかのポインタを与えることができるなら、私はそれを感謝します:

1)Numpy/PythonはGPUの存在を自動的に検出し、それを利用して行列計算を高速化しますか(例:numpy.multiply、numpy.linalg.invなど)?または、GPUを利用して高速計算を行うための特定の方法でコードがありますか?

2)GPU(nvidia)でNumpy/Pythonを使用するための良いチュートリアル/入門資料を誰かがお勧めできますか?

どうもありがとう!

12
syeh_106

Numpy/PythonはGPUの存在を自動的に検出し、それを利用して行列計算を高速化しますか(例:numpy.multiply、numpy.linalg.invなど)?

いや.

または、GPUを利用して高速計算を行うための特定の方法でコードがありますか?

はい。 Numba、Theano、PyTorch、またはPyCUDAを検索して、GPUでPythonを加速するためのさまざまなパラダイムを探します。

13
talonmies

いいえ、numpyと同様のインターフェースを持つCuPyを使用することもできます。 https://cupy.chainer.org/

2
Deniz Beker