web-dev-qa-db-ja.com

`tensorflow.python.keras.estimator.model_to_estimator`を使用してKerasモデルをEstimatorAPIに変換するときに、クラスの重みを通知するにはどうすればよいですか?

不均衡なデータセットで純粋なKerasモデルをTensorFlowEstimatorAPIに変換するのに問題があります。

純粋なKerasAPIを使用する場合、class_weightパラメーターはmodel.fitメソッドで使用できますが、Kerasモデルをtensorflow.python.keras.estimator.model_to_estimatorでTensorFlowEstimatorに変換する場合、class_weightsに通知する場所はありません。

どうすればこれを克服できますか?

Ubuntu 18、Cuda 9、Cudnn7でTF1.12を使用しています

純粋なKerasモデル:

def keras_model(n_classes=None, model_dir='./tmp-model/', config=None):
    with tf.device('/gpu:0'):

        # Inputs
        inp_raw = Input(shape=(max_len,), name='Word_raw')

        # raw text LSTM network
        Word_raw_emb = Embedding(
            input_dim=nunique_chars_raw,
            output_dim=EMBED_SIZE,
            input_length=MAX_Word_LENGTH,
            trainable=True,
            name='Word_raw_emb')(inp_raw)

        Word_raw_emb = Dropout(rate=dropout_rate)(Word_raw_emb)

        Word_raw_emb_lstm = Bidirectional(
            LSTM(48, return_sequences=True))(Word_raw_emb)
        Word_raw_emb_gru = Bidirectional(
            GRU(48, return_sequences=False))(Word_raw_emb_lstm)

        Word_raw_net = Dense(16, activation='relu')(Word_raw_emb_gru)
        output_raw_net = Dense(n_classes, activation='softmax')(Word_raw_net)

        model = Model(inputs=inp_raw, outputs=output_raw_net)
        optz = keras.optimizers.RMSprop(
            lr=0.002, rho=0.9, epsilon=None, decay=0.0)
        model.compile(loss='categorical_crossentropy',
                      optimizer=optz, metrics=['categorical_accuracy'])
        return model



model = keras_model(5)

model.fit(train_X, train_Y_onehot,
        batch_size=128,
        epochs=10,
        validation_data=(eval_X,eval_Y_onehot),
        class_weight=class_weights,
        verbose=1)

KerasモデルからTensorFlow Estimatorへ:

def keras_estimator_model(n_classes=None, model_dir='./tmp-model/', config=None):
    with tf.device('/gpu:0'):

        # Inputs
        inp_raw = Input(shape=(max_len,), name='Word_raw')

        # raw text LSTM network
        Word_raw_emb = Embedding(
            input_dim=nunique_chars_raw,
            output_dim=EMBED_SIZE,
            input_length=MAX_Word_LENGTH,
            trainable=True,
            name='Word_raw_emb')(inp_raw)

        Word_raw_emb = Dropout(rate=dropout_rate)(Word_raw_emb)

        Word_raw_emb_lstm = Bidirectional(
            LSTM(48, return_sequences=True))(Word_raw_emb)
        Word_raw_emb_gru = Bidirectional(
            GRU(48, return_sequences=False))(Word_raw_emb_lstm)

        Word_raw_net = Dense(16, activation='relu')(Word_raw_emb_gru)
        output_raw_net = Dense(n_classes, activation='softmax')(Word_raw_net)

        model = Model(inputs=inp_raw, outputs=output_raw_net)
        optz = keras.optimizers.RMSprop(
            lr=0.002, rho=0.9, epsilon=None, decay=0.0)
        model.compile(loss='categorical_crossentropy',
                      optimizer=optz, metrics=['categorical_accuracy'])

        model_estimator = model_to_estimator(keras_model=model, model_dir=model_dir, config=config)

        return model_estimator

estimator_model = keras_estimator_model(5)

train_spec = tf.estimator.TrainSpec(input_fn=train_input_fn,max_steps=10)

eval_spec = tf.estimator.EvalSpec(
        input_fn=eval_input_fn,
        steps=None,
        start_delay_secs=10,
        throttle_secs=10)

tf.estimator.train_and_evaluate(estimator_model, train_spec, eval_spec)

18
Rodrigo Pereira

私は回避策を考え出しましたが、うまくいくようです。私

import tensorflow as tf
from tensorflow.python.keras import backend as K

def weighted_loss_fn(class_weights):    

    def _loss_fn(y_true, y_pred):
        class_weights_tensor = K.variable(class_weights)        
        y_true_labels = K.argmax(y_true,axis=1)        
        weights = K.gather(class_weights_tensor,y_true_labels)                

        return tf.losses.softmax_cross_entropy(onehot_labels=y_true, logits=y_pred, weights=weights)
    return _loss_fn




def keras_estimator_model(n_classes=None, model_dir='./tmp-model/', config=None, class_weights=None):
    with tf.device('/gpu:0'):

        # Inputs
        inp_raw = Input(shape=(max_len,), name='Word_raw')

        # raw text LSTM network
        Word_raw_emb = Embedding(
            input_dim=nunique_chars_raw,
            output_dim=EMBED_SIZE,
            input_length=MAX_Word_LENGTH,
            trainable=True,
            name='Word_raw_emb')(inp_raw)

        Word_raw_emb = Dropout(rate=dropout_rate)(Word_raw_emb)

        Word_raw_emb_lstm = Bidirectional(
            LSTM(48, return_sequences=True))(Word_raw_emb)
        Word_raw_emb_gru = Bidirectional(
            GRU(48, return_sequences=False))(Word_raw_emb_lstm)

        Word_raw_net = Dense(16, activation='relu')(Word_raw_emb_gru)
        output_raw_net = Dense(n_classes, activation='softmax')(Word_raw_net)

        model = Model(inputs=inp_raw, outputs=output_raw_net)
        optz = keras.optimizers.RMSprop(
            lr=0.002, rho=0.9, epsilon=None, decay=0.0)

        loss_fn = weighted_loss_fn(class_weights)
        model.compile(loss=loss_fn,
                      optimizer=optz, metrics=['categorical_accuracy'])

        model_estimator = model_to_estimator(keras_model=model, model_dir=model_dir, config=config)

        return model_estimator



estimator_model = keras_estimator_model(5)
train_spec = tf.estimator.TrainSpec(input_fn=train_input_fn,max_steps=10)
eval_spec = tf.estimator.EvalSpec(
        input_fn=eval_input_fn,
        steps=None,
        start_delay_secs=10,
        throttle_secs=10)

tf.estimator.train_and_evaluate(estimator_model, train_spec, eval_spec)

私の場合 class_weights = [0.17041813 42.00318471 35.26470588 29.70495495 42.00318471 44.55743243]

2
Rodrigo Pereira

class_weight paramは、損失関数の重み付けに使用されます(トレーニング中のみ)。したがって、同じ効果を得るには、損失関数を変更する必要があります。既存のTensorFlowの損失関数は見つかりませんでした。クラスの重みを使用したクロスエントロピー損失については、 機能リクエスト のみです。言及されている回避策があります:

ここ

ちなみに、Kerasで可能であるため、問題はクローズされました:)

0
Dmytro Prylipko