web-dev-qa-db-ja.com

評価および上位N精度の計算:上位1および上位5

Top-Nアプローチで精度を評価することについて言及したいくつかの(機械学習-分類問題)ジャーナル論文に出くわしました。データは、同じトレーニング、テスト条件で、トップ1の精度= 42.5%、トップ5の精度= 72.5%であることを示しました。トップ1とトップ5のこの割合をどのように計算するのでしょうか?

誰かがこれを計算するための例と手順を教えてもらえますか?

ありがとう

41
D_9268

トップ1の精度は、従来の精度です。モデルの回答(最も確率の高いもの)は、正確に予想される回答でなければなりません。

トップ5の精度とは、モデルのany5つの最も確率の高い答えが期待される答えと一致する必要があることを意味します。

たとえば、ニューラルネットワークを使用してオブジェクト認識に機械学習を適用しているとします。猫の写真が表示され、これらはニューラルネットワークの出力です。

  • タイガー:0.4
  • 犬:0.3
  • 猫:0.1
  • リンクス:0.09
  • ライオン:0.08
  • 鳥:0.02
  • クマ:0.01

トップ1の精度を使用すると、トラを予測したため、この出力をwrongとしてカウントします。

Catはトップ5の推測の1つであるため、トップ5の精度を使用して、この出力をcorrectとしてカウントします。

89
rcpinto

精度の補数はエラーです。トップ1エラーは、分類器が正しいクラスの最高確率スコアを与えなかった時間の割合です。トップ5エラー:-分類器がトップ5の確率または推測に正しいクラスを含めなかった時間の割合。

2
Mohammed Awney