web-dev-qa-db-ja.com

ReLUは負の入力を処理できますか?

負の値と正の値として入力されるデータについてニューラルネットワークをトレーニングしています。

すべてを正に変換せず、データが負か正かを示す個別の入力を持たずに、データをReLUネットワークにフィードする方法はありますか?

私が見ている問題は、入力レイヤーでの負の入力は、重みを負に初期化しない限り、ReLUノードがアクティブ化されず、永久に停止することを意味します。

11
tt_Gantz

多くの活性化関数があり、独自のコードを簡単に作成できるため、何を求めているのか完全にはわかりません。独自にコーディングしたくない場合は、別の方法を試してみてください。

リークReLU

enter image description here

パラメータReLU

enter image description here

基本的に見てください ここenter image description here

5
Thomas W

入力層で実際に活性化関数を使用する場合は、ELUなどの別の活性化関数を使用するか、データを[0,1]の範囲に変換することをお勧めします。 ReLU関数が隠れ層にある場合、ReLU関数は一時的にのみ機能しなくなります。

フィードフォワードネットワークの最後の隠れ層にReLU関数があるとします。バックプロパゲーションアルゴリズムを使用すると、前の隠れ層の出力が変更され、最終的にReLU関数への入力が再び正になる可能性があります。そうすれば、ReLUはもう死んでいないでしょう。ここで何かが足りない可能性があります。

とにかく、あなたは間違いなくELUを試してみるべきです! ReLUよりも良い結果が得られました。

1
ml4294