web-dev-qa-db-ja.com

ValueError:このソルバーには、データに少なくとも2つのクラスのサンプルが必要ですが、データには1つのクラスのみが含まれています:0.0

データセットをテストセットとトレインセットに分割した後、トレインセットにロジスティック回帰を適用しましたが、上記のエラーが発生しました。それを解決しようとしましたが、コンソールで応答ベクトルy_trainを出力しようとすると、0や1などの整数値が出力されます。しかし、ファイルに書き込むと、値が0.0や1.0などの浮動小数点数であることがわかりました。それが問題なら、どうすればそれを克服できますか。

lenreg = LogisticRegression()

print y_train[0:10]
y_train.to_csv(path='ytard.csv')

lenreg.fit(X_train, y_train)
y_pred = lenreg.predict(X_test)
print metics.accuracy_score(y_test, y_pred)

StrackTraceは次のとおりです。

Traceback (most recent call last):

  File "/home/amey/prog/pd.py", line 82, in <module>

    lenreg.fit(X_train, y_train)

  File "/usr/lib/python2.7/dist-packages/sklearn/linear_model/logistic.py", line 1154, in fit

    self.max_iter, self.tol, self.random_state)

  File "/usr/lib/python2.7/dist-packages/sklearn/svm/base.py", line 885, in _fit_liblinear

    " class: %r" % classes_[0])

ValueError: This solver needs samples of at least 2 classes in the data, but the data contains only one class: 0.0

その間私は答えられなかった リンク に出くわしました。解決策はありますか?.

8
Amey Yadav

ここでの問題は、あなたのy_trainベクトルは、何らかの理由で、ゼロしかありません。それは実際にはあなたのせいではなく、その種のバグです(私は思います)。分類器には2つのクラスが必要です。そうでない場合、このエラーがスローされます。

それは理にかなっている。もしあなたの y_trainベクトルにはゼロのみ(つまり1クラスのみ)があり、すべての予測は1つのクラスである必要があるため、分類子は実際には何もする必要はありません。

私の意見では、分類子はまだ完了し、1つのクラス(この場合はすべてゼロ)を予測してから警告をスローする必要がありますが、そうではありません。代わりにエラーをスローします。

この状態を確認する方法は次のとおりです。

lenreg = LogisticRegression()

print y_train[0:10]
y_train.to_csv(path='ytard.csv')

if len(np.sum(y_train)) in [len(y_train),0]:
    print "all one class"
    #do something else
else:
    #OK to proceed
    lenreg.fit(X_train, y_train)
    y_pred = lenreg.predict(X_test)
    print metics.accuracy_score(y_test, y_pred)

この問題をより簡単に克服するには、テストセットに10ではなく100や1000などのサンプルを含めることをお勧めします。

6

learning_curveを使用しても同じ問題が発生しました:

 train_sizes, train_scores, test_scores = learning_curve(estimator,
           X, y, cv=cv, n_jobs=n_jobs, train_sizes=train_sizes,
           scoring="f1", random_state=RANDOM_SEED, shuffle=True)

セットをランダム化するsuffleパラメーターを追加します。

これはエラーの発生を防ぐことはできませんが、関数によって使用されるサブセットに両方のクラスがある可能性を高める方法です。

1
Xfox

サンプルサイズが非常に小さかったため、y_testで1または0が終了したためであることがわかりました。 test_size値を変更してみてください。

0
Guesting
# python3
import numpy as np
from sklearn.svm import LinearSVC

def upgrade_to_work_with_single_class(SklearnPredictor):
    class UpgradedPredictor(SklearnPredictor):
        def __init__(self, *args, **kwargs):
            self._single_class_label = None
            super().__init__(*args, **kwargs)

        @staticmethod
        def _has_only_one_class(y):
            return len(np.unique(y)) == 1

        def _fitted_on_single_class(self):
            return self._single_class_label is not None

        def fit(self, X, y=None):
            if self._has_only_one_class(y):
                self._single_class_label = y[0]
            else:
                super().fit(X, y)
            return self

        def predict(self, X):
            if self._fitted_on_single_class():
                return np.full(X.shape[0], self._single_class_label)
            else:
                return super().predict(X)
    return UpgradedPredictor

LinearSVC = upgrade_to_work_with_single_class(LinearSVC)

またはハードウェイ(より右):

import numpy as np

from sklearn.svm import LinearSVC
from copy import deepcopy, copy
from functools import wraps

def copy_class(cls):
    copy_cls = type(f'{cls.__name__}', cls.__bases__, dict(cls.__dict__))
    for name, attr in cls.__dict__.items():
        try:
            hash(attr)
        except TypeError:
            # Assume lack of __hash__ implies mutability. This is NOT
            # a bullet proof assumption but good in many cases.
            setattr(copy_cls, name, deepcopy(attr))
    return copy_cls

def upgrade_to_work_with_single_class(SklearnPredictor):
    SklearnPredictor = copy_class(SklearnPredictor)
    original_init = deepcopy(SklearnPredictor.__init__)
    original_fit = deepcopy(SklearnPredictor.fit)
    original_predict = deepcopy(SklearnPredictor.predict)

    @staticmethod
    def _has_only_one_class(y):
        return len(np.unique(y)) == 1

    def _fitted_on_single_class(self):
        return self._single_class_label is not None

    @wraps(SklearnPredictor.__init__)
    def new_init(self, *args, **kwargs):
        self._single_class_label = None
        original_init(self, *args, **kwargs)

    @wraps(SklearnPredictor.fit)
    def new_fit(self, X, y=None):
        if self._has_only_one_class(y):
            self._single_class_label = y[0]
        else:
            original_fit(self, X, y)
        return self

    @wraps(SklearnPredictor.predict)
    def new_predict(self, X):
        if self._fitted_on_single_class():
            return np.full(X.shape[0], self._single_class_label)
        else:
            return original_predict(self, X)

    setattr(SklearnPredictor, '_has_only_one_class', _has_only_one_class)
    setattr(SklearnPredictor, '_fitted_on_single_class', _fitted_on_single_class)
    SklearnPredictor.__init__ = new_init
    SklearnPredictor.fit = new_fit
    SklearnPredictor.predict = new_predict
    return SklearnPredictor

LinearSVC = upgrade_to_work_with_single_class(LinearSVC)