適当な仕事をしている注釈者を発見せよ!
NIPS2011の論文を紹介していくコーナー.
今回対象とする論文は,Ranking annotators for crowdsourced labeling tasks.
概要
- 本論文は,標本のラベル付を複数人にしてもらう時に,標本をきちんと見ず,適当な注釈を行なっている人を見付け出すためのスコアリングを提案しています.
- Mechanical Turk等のクラウドソーシングで今後必要になりそうなテーマですね.
- 本論文では,このような適当な注釈者をスパマーと呼び,スパマーを効率的に見つけ出すためのランキング手法を提案しています.
手法
- 2クラスの場合と多クラスの場合について議論していますが,今回は2クラスの場合を簡単に紹介します.
- スパマーはコイン投げと同じようにラベルを選んでいるため,P(注釈者のラベル|真のラベル)が0.5になります.[α,β]
- 一方で,仕事が出来る注釈者は上の確率が1に,悪意を持った注釈者は確率が0に近づきます.
- この性質を利用し,スパマーはスコアが0に,その他の注釈者は1に値が近づく様なスコアリング手法を設計したのが(3)式となります.
- 今回はバイアスのないコイン投げを仮定しましたが,(3)式の定義からバイアスを持ったコイン投げの場合も同様にスコアが0に近づきます.
- ここで,悪意のある注釈者と仕事のできる注釈者のスコアが同様に1に近づくことに疑問を持つところですが,悪意のある注釈者がいた場合,その注釈者のラベルを反転させれば有用な情報となりえます.
実験
- 人工データとMechanical Turkで実験しており,スパマーを上手く抽出出来ていることを確認しています.
感想
- モデル化は,Learning from Crowdsの素直な改良.
- とにかく読みやすい.