web-dev-qa-db-ja.com

値の反復とポリシーの反復の違いは何ですか?

強化学習では、ポリシーの反復値の反復の違いは何ですか?

私が理解している限り、値の反復ではベルマン方程式を使用して最適なポリシーを解きますが、ポリシーの反復ではランダムにポリシーπを選択し、そのポリシーの報酬を見つけます。

私の疑問は、PIでランダムポリシーπを選択している場合、複数のランダムポリシーを選択している場合でも、どのように最適なポリシーであることが保証されるかということです。

62
Arslán

それらを並べて見てみましょう。比較のための重要な部分が強調表示されています。図はサットンとバルトの本からのものです:強化学習:はじめに

enter image description here キーポイント:

  1. ポリシーの反復には以下が含まれます:ポリシー評価+ポリシーの改善、およびポリシーが収束するまで2つが反復的に繰り返されます。
  2. 値の反復には以下が含まれます:最適値関数を見つける+ oneポリシー抽出。値関数が最適になると、そこから出るポリシーも最適になる(つまり収束する)ため、2つの繰り返しはありません。
  3. 最適値関数を見つけることは、ポリシーの改善(最大による)と切り捨てられたポリシー評価(v_(s)の再割り当て後)の組み合わせとして見ることもできます収束に関係なく、すべての状態の1つのスイープのみ)。
  4. ポリシー評価および最適値関数を見つけるためのアルゴリズムは、非常に類似しています最大操作の場合(強調表示)
  5. 同様に、ポリシー改善ポリシー抽出への重要なステップは同じです前者は安定性チェックを伴います。

私の経験では、ポリシーは値関数よりも速く収束するため、ポリシーの反復値の反復よりも高速です。これは本でも説明されていることを覚えています。

混乱は主にこれらのやや似た用語すべてから来たと思いますが、これも以前私を混乱させていました。

79
zyxue

policy iterationアルゴリズムでは、ランダムなポリシーから開始し、そのポリシーの値関数を見つけ(ポリシー評価ステップ)、次に新しい(改善された)前の値関数に基づくポリシーなど。このプロセスでは、各ポリシーは以前のポリシーよりも厳密に改善されることが保証されています(既に最適化されている場合を除く)。ポリシーが与えられた場合、その値関数はBellman演算子を使用して取得できます。

value iterationでは、ランダムな値関数から始めて、最適な値関数に達するまで、反復プロセスで新しい(改善された)値関数を見つけます。最適値関数から最適なポリシーを簡単に導出できることに注意してください。このプロセスは、最適ベルマン演算子に基づいています。

ある意味では、両方のアルゴリズムは同じ動作原理を共有し、それらは generalized policy iteration の2つのケースとして見ることができます。ただし、最適性のベルマン演算子にはmax演算子が含まれています。これは非線形であるため、さまざまな機能があります。さらに、純粋な値の反復と純粋なポリシーの反復の間でハイブリッド方式を使用することもできます。

59
Pablo EM

基本的な違いは-

In Policy Iteration-ポリシーをランダムに選択し、それに対応する値関数を見つけてから、前の値関数に基づいて新しい(改善された)ポリシーを見つけます。これにより、最適なポリシーが得られます。

値の反復-値関数をランダムに選択し、最適な値関数に到達するまで反復プロセスで新しい(改善された)値関数を見つけ、その最適な値関数から最適なポリシーを導き出します。

ポリシーの反復は、「ポリシー評価->ポリシーの改善」の原則に基づいて機能します。

値の反復は、「最適な値関数->最適なポリシー」の原則に基づいて機能します。

3
Himanshu Gupta

私に関する限り、@ zyxueの考え方とは反対に、VIは一般的にはるかに高速 PIよりも優れています。

その理由は非常に簡単です。すでにご存じのように、Bellman方程式は特定のポリシーの価値関数を解くために使用されます。 最適ポリシー直接の値関数を解くことができるため、currentポリシーの値関数を解くことは明らかに時間の無駄です。

PIの収束性に関する質問については、各情報状態の戦略を改善すると、ゲーム全体の戦略が改善されるという事実を見落とす可能性があると思います。反事実的後悔の最小化に精通していれば、これも簡単に証明できます-各情報状態の後悔の合計が後悔全体の上限を形成しているため、各状態の後悔を最小化すると後悔全体が最小化されます最適なポリシーにつながります。

0
Response777