web-dev-qa-db-ja.com

Python scikitはMLPClassifier "hidden_​​layer_sizes"を学習します

0.18ユーザーマニュアルを学ぶscikitで失われます( http://scikit-learn.org/dev/modules/generated/sklearn.neural_network.MLPClassifier.html#sklearn.neural_network.MLPClassifier ):

   hidden_layer_sizes : Tuple, length = n_layers - 2, default (100,)
   The ith element represents the number of neurons in the ith hidden layer.

モデルで1つの隠しレイヤーと7つの隠しユニットのみを探している場合、このように配置する必要がありますか?ありがとう!

    hidden_layer_sizes=(7, 1)
37
Chubaka

hidden_layer_sizes=(7,) 7つの非表示ユニットを持つ1つの非表示レイヤーのみが必要な場合。

length = n_layers - 2は、1つの入力レイヤーと1つの出力レイヤーがあるためです。

41
Farseer

私は答えるのが遅く、まだ共有していることを知っています...

文書内

hidden_​​layer_sizes:タプル、長さ= n_layers-2、デフォルト(100、)

意味:hidden_​​layer_sizesはサイズのタプルです(n_layers -2)

n_layersは、アーキテクチャごとに必要なレイヤーがないことを意味します。

2つのレイヤー(入力と出力)は非表示レイヤーの一部ではないため、n_layersから値2が減算され、カウントに属しません。

default(100、)は、hidden_​​layer_sizesに値が指定されていない場合、デフォルトアーキテクチャに1つの入力レイヤー、100ユニットの1つの非表示レイヤー、1つの出力レイヤーがあることを意味します。

ライン

I番目の要素は、i番目の隠れ層のニューロンの数を表します。

tupleの各エントリが対応する非表示レイヤーに属することを意味します。

例:

  1. アーキテクチャ56:25:11:7:5:3:1の場合、入力56と1の出力隠しレイヤーは(25:11:7:5:3)になります。 Tuple hidden_​​layer_sizes =(25,11,7,5,3、)

  2. アーキテクチャ3:45:2:11:2の場合、入力3および2の出力隠しレイヤーは(45:2:11)になります。タプルhidden_​​layer_sizes =(45,2,11、)

これがあなたの質問に完全に答えることを願っています..

18
shantanu pathak