web-dev-qa-db-ja.com

AWS Glue executorのメモリ制限

AWS Glueは、executorのインスタンスを5 Gbのメモリ制限でセットアップしました--conf spark.executor.memory=5gそして時々、大きなデータセットではJava.lang.OutOfMemoryError。同じことは、ドライバーインスタンス--spark.driver.memory=5g。この値を増やすオプションはありますか?

9
Alexey Bakulin

公式の接着剤ドキュメント は、接着剤がカスタムspark config。

また、AWS Glueが内部で使用する、決して設定してはいけない引数名がいくつかあります。

--conf — AWS Glueの内部。設定しないでください!

--debug — AWS Glueの内部。設定しないでください!

--mode — AWS Glueの内部。設定しないでください!

--JOB_NAME — AWS Glueの内部。設定しないでください!

この問題を解決するためのより良い提案はありますか?

2
rileyss
  1. 接着剤を開きます>ジョブ>ジョブの編集>スクリプトライブラリとジョブパラメーター(オプション)>下部近くのジョブパラメーター
  2. 以下を設定します。キー:--conf値:spark.yarn.executor.memoryOverhead = 1024 spark.driver.memory = 10g
4
ashutosh singh

ジョブを編集してジョブパラメータを追加することにより、パラメータをオーバーライドできます。使用したキーと値は次のとおりです。

キー:--conf

:spark.yarn.executor.memoryOverhead = 7g

設定キーは実際には値の中にあるため、これは直感に反しているように見えましたが、認識されていました。したがって、spark.yarn.executor.memoryを設定しようとする場合、次のパラメーターが適切です。

キー:--conf

:spark.yarn.executor.memory = 7g

4
Kris Bravo

--confパラメータを渡さないでください。AWSサポートチームは--conf spark.driver.memory=10g私たちが抱えていた問題を修正しました

2
xtreampb

データセットに大きな偏りがあると、このようなメモリ不足エラーが発生します。私の場合、jsonで示されたイベントタイプに基づいて異なる動的ペイロードを含むjsonファイルのバケットがありました。ここで示した構成フラグを使用してDPUを増やしても、メモリ不足エラーが発生し続けました。私のイベントは、データセット全体の90%を超えるいくつかのイベントタイプに大きく偏っていたことがわかりました。イベントタイプに「塩」を追加し、非常に歪んだデータを分割すると、メモリ不足エラーは発生しませんでした。

これは、AWS EMRのブログ投稿で、非常に歪んだデータを使用した同じメモリ不足エラーについて説明しています。 https://medium.com/thron-tech/optimising-spark-rdd-pipelines-679b41362a8a

1
Zambonilli