web-dev-qa-db-ja.com

弱く監視された学習(ブートストラップ)とは何ですか?

教師あり学習と教師なし学習の違いを理解しています。

教師あり学習は、ラベル付きデータを使用して、分類子を「教える」方法です。

教師なし学習は、たとえばクラスタリングを使用して、分類子が「自分で学習」できるようにします。

しかし、「弱く監視された学習」とは何ですか?例としてどのように分類しますか?

22
Cheshie

以下のいくつかのコメントが言及しているように、状況は2013年に最初に書いたほど単純ではありません。

一般的に受け入れられている見解は、

  • 弱い監督-ノイズの多いラベルによる監督( wikipedia
  • semi監視-トレーニングデータのサブセットのみにラベルがあります( wikipedia

Zhi-Hua Zhouの2017弱い監視された学習への簡単な紹介 は弱い監視を包括的用語であると見なします

  • 不完全監視-トレーニングデータのサブセットのみにラベルがあります(上記と同じ)
  • inexact監視-トレーニングデータが粗いラベルのみで提供される場合に呼び出されます
  • 不正確監督-ここで、指定されたラベルは常に根本的な真実ではありません(上記の弱い監督)。

元の答え:

つまり、弱く監視された学習では、限られた量のラベル付きデータを使用します。

このデータをどのように選択するか、そしてそれを正確にどのように処理するかは、メソッドによって異なります。一般に、取得が簡単で実際の違いを生む限られた数のデータを使用して、残りのデータを学習します。ブートストラップは弱く監視された学習で使用できる方法であると私は考えていますが、以下のベンによるコメントが示すように、これは一般に受け入れられている見解ではありません。

たとえば、ニースの概要については Chris Biemanの2007年の論文 を参照してください。ブートストラップ/弱く監視された学習について次のように書かれています。

ブートストラップは、自己トレーニングとも呼ばれ、トレーニングの例をさらに少なくするように設計されているため、弱監督と呼ばれることもあります。ブートストラップは、いくつかのトレーニング例から始まり、分類子をトレーニングし、再分類のためにこの分類子によって生成された考えられる前向きな例を使用します。トレーニング例のセットが増えると、分類子は改善されますが、負の例がポジティブとして誤って分類されない限り、パフォーマンスが低下する可能性があります。

たとえば、品詞タグ付けの場合、通常はHMM(または最大エントロピーなど)タガーを10,000の単語でトレーニングし、それぞれにPOSを付けます。監視が弱いタグ付けの場合は、数百語の非常に小さいコーパスを使用するだけです。いくつかのタガーを取得し、それを使用して1000語のコーパスにタグを付け、その上でタガーをトレーニングし、さらに大きなコーパスにタグを付けるために使用します。明らかに、これより賢くする必要がありますが、これは良い出発点です。 (ブートストラップされたタガーのより高度な例については この論文 を参照してください)

注:弱く監視された学習は、ノイズの多いラベルでの学習を指すこともあります(そのようなラベルは、ブートストラップの結果である必要はありませんが)

23
Jirka
  • 弱い監視は、ノイズの多いラベルによる監視です。たとえば、ブートストラップ手順では、いくつかの例のラベルが誤っている場合があります。
  • 遠隔監視例に直接ラベルを付けないトレーニング信号を指します。たとえば、質問と回答のデータセットからセマンティックパーサーを学習します。
  • Semi-supervised学習は、部分的にラベル付けされ、部分的にラベル付けされていないデータセットがある場合です。
  • Full-supervised学習とは、各データポイントにグラウンドトゥルースラベルがある場合です。
26
Tudor Achim

このペーパー[1]は、3つの典型的なタイプの弱い監視を定義しています。

  • 不完全な監督、トレーニングデータのサブセットのみにラベルが付けられます。 (これはsemi-supervisionと同じだと思います)
  • inexact supervision、トレーニングデータは粗いラベルのみで提供されます。
  • および不正確な監督、ここで、指定されたラベルは必ずしも真実ではありません。

[1] Zhi-Hua Zhou、弱く監視された学習の簡単な紹介、National Science Review、Volume 5、Issue 1、2018年1月、ページ44〜53、 https://doi.org/10.1093/nsr/ nwx106

4
Alexandre Huat

Jirkaによって説明されているように、弱い監視では、小さなラベル付きデータセットでの初期(監視あり)トレーニング、より大きなセットでの予測、および(監視なしで)モデルへの明確に識別されたインスタンス(またはその特性)の組み込み(モデルの再トレーニングを通じて)データセットの拡大またはモデルの直接更新による)。 (監視なし)更新のプロセスは、特定の目標が達成されるまで繰り返されます。明らかに、これは、初期予測子が多くの偽陽性をもたらす場合、簡単に失敗する可能性がありますが、弱い監視によって得られた一般化が(多くの場合)正常に実行されない、またはユーザー入力が実行されないように、検索スペースが制約される特定の状況があります。学習プロセスを(弱く)監督するために使用されます。テキストマイニングではない補完的な非常に成功した例を提供するには、 PSI-BLAST タンパク質配列プロファイルを繰り返し改良して、離れたホモログを特定します。このコンテキストでのこのようなアプローチで何が問題になるかについての概要は、この paper に記載されています。

1
pythiest