web-dev-qa-db-ja.com

dask

Daskを使用してすべてのCPUコアを使用する方法

daskワーカーの数を設定する際のベストプラクティス

Dask:継続的に送信し、送信されたすべてのデータに取り組みます

python dask DataFrame、(簡単に並列化可能な)行のサポートが適用されますか?

パンダで適用を使用して多くの(ファジー)文字列比較を並列化する方法は?

どのような状況でApache Sparkの代わりにDaskを使用できますか?

Dask.DataFrameをpd.DataFrameに変換する方法

文字列をdictに変換してから、key:valuesにアクセスしますか? Pythonの<class'dict '>のデータにアクセスする方法は?

dask.dataframeのメタデータを指定する方法

Daskパーティションを単一のファイルに書き込む

列をto_datetimeに変換する方法

PandasデータフレームをDaskデータフレームに変換

csvファイルからの読み取りをdask parallelizeできますか?

Daskのデフォルトのpipインストールで「ImportError:no tool moduleという名前のモジュール」が表示される

分散されたDaskで大きな引数を持つタスクを効率的に送信するにはどうすればよいですか?

dask:client.persistとclient.computeの違い

2つの既存の列の値に基づいてdaskデータフレームに新しい列を割り当て(追加)します-条件ステートメントが含まれます

ダスク:ダスク遅延でコードを並列化するにはどうすればよいですか?

MongoDBからpython

dask dataframe apply meta

daskデータフレームを効率的に分割するための戦略

スパースCSR配列のアウトオブコア処理

Python

1台のマシン上のすべてのコアを利用するPandasデータフレームでapply()を並列化するにはどうすればよいですか?

DaskでKilledWorkerの例外はどういう意味ですか?

Daskを連結する簡単な方法(水平、axis = 1、列)

単純なdask map_partitionsの例

Dask Computeタスクの進捗状況を確認する方法は?

気流+セロリまたは薄暗がり。何のために、いつ?

Daskのグループ化されたデータフレームに関数を適用する:関数の引数としてグループ化されたデータフレームをどのように指定しますか?

pd.DataFrameを保存するときに寄木細工のdtypeを強制する方法は?

夕暮れのデータフレームの形状を取得するにはどうすればよいですか?

fastparquetとpyarrowの比較?

Daskデータフレームを使用して列を削除する

Dask read_csv--`pd.read_csv` / `pd.read_table`で不一致のdtypeが見つかりました

TYPEERROR:DASKを使用する場合はpandas DataFrameを使用する場合は、_thread._localオブジェクトを選択できません。

pythonで15 M行のcsvファイルを読み取る効率的な方法

DTypeマッピング引数のキーには列名のみが使用できます。

Python関数をPandas grouped DataFrameに適用する-計算を高速化するための最も効率的なアプローチは何ですか?

Groupbyとdaskデータフレームのシフト

Python multiprocessing throws Killed:9