web-dev-qa-db-ja.com

単純なベイで機能の重要性を取得する方法は?

私は、ポジティブ/ネガティブのクラスラベルを持つレビューのデータセットを持っています。そのレビューデータセットにNaive Bayesを適用しています。まず、Bag of wordsに変換しています。ここでsorted_data ['Text']はレビューであり、final_countsはスパース行列です

count_vect = CountVectorizer() 
final_counts = count_vect.fit_transform(sorted_data['Text'].values)

データをトレインデータセットとテストデータセットに分割しています。

X_1, X_test, y_1, y_test = cross_validation.train_test_split(final_counts, labels, test_size=0.3, random_state=0)

私は次のように単純ベイズアルゴリズムを適用しています

optimal_alpha = 1
NB_optimal = BernoulliNB(alpha=optimal_aplha)

# fitting the model
NB_optimal.fit(X_tr, y_tr)

# predict the response
pred = NB_optimal.predict(X_test)

# evaluate accuracy
acc = accuracy_score(y_test, pred) * 100
print('\nThe accuracy of the NB classifier for k = %d is %f%%' % (optimal_aplha, acc))

ここで、X_testは、X_testのベクトルが正のクラスであるか負のクラスであるかをpred変数が示すテストデータセットです。

X_test形状は(54626行、82343次元)

predの長さは54626

私の質問は、各ベクトルで最も高い確率で単語を取得して、なぜそれがポジティブまたはネガティブクラスとして予測したかを単語で知ることができるようにすることです。したがって、各ベクトルで最も高い確率を持つ単語を取得する方法は?

7
merkle

coefs_またはfeature_log_prob_属性を使用して、各Wordの重要性を適合モデルから取得できます。例えば

neg_class_prob_sorted = NB_optimal.feature_log_prob_[0, :].argsort()
pos_class_prob_sorted = NB_optimal.feature_log_prob_[1, :].argsort()

print(np.take(count_vect.get_feature_names(), neg_class_prob_sorted[:10]))
print(np.take(count_vect.get_feature_names(), pos_class_prob_sorted[:10]))

各クラスの上位10個の最も予測的な単語を出力します。

7
piman314

これを試して:

pred_proba = NB_optimal.predict_proba(X_test)
words = np.take(count_vect.get_feature_names(), pred_proba.argmax(axis=1))
0
MaxU