文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automatic Sentiment...
-
Upload
shohei-okada -
Category
Science
-
view
90 -
download
3
Transcript of 文献紹介:Mine the Easy, Classify the Hard: A Semi-Supervised Approach to Automatic Sentiment...
文献紹介2014/07/03
長岡技術科学大学自然言語処理研究室
岡田 正平
文献情報Sajib Dasgupta and Vincent NgMine the Easy, Classify the Hard: A semi-Supervised Approach to Automatic Sentiment ClassificationIn Proceedings of the 47th Annual Meeting of the ACL and the 4th IJCNLP of the AFNLP, pp 701-709.2009
2014/7/3 文献紹介 2
概要• semi-supervised approach to sentiment
classification• はじめに曖昧でないデータだけを分けて,その
結果を利用して曖昧なデータを分類する手法
2014/7/3 文献紹介 3
背景
2014/7/3 文献紹介 4
背景polarity classification は topic-based text classification と比べ曖昧性が多い• 1つのレビュー内で良い部分と悪い部分の両方に
言及する• 長々と解説して,最後にちょっとだけ自分の
意見を言う
2014/7/3 文献紹介 5
背景過去に行われた研究 (supervised approach)• 客観的な部分を独立に学習・分類• positive/negativeの他にneutralも用いる• sentence- and document-level sentiment
analysis を同時に扱うモデル大量の手動アノテーションが必要
2014/7/3 文献紹介 6
背景unsupervised approach は意義は大きいが難しい• domain-specific なことが一因• 一般的なクラスタリング手法では,有効な素性
を同定できない
2014/7/3 文献紹介 7
背景提案手法 (semi-supervised)“mine the easy, classify the hard” approach• 最初に曖昧でないレビュー(i.e., “easy”)を同定し
ラベル付けを行う• 次に曖昧なレビュー(i.e., “hard”)を扱う
2014/7/3 文献紹介 8
Spectral Clustering
Spectral Clusteringk-means法では線形分離不可能なデータに対応不可 Spectral Clusteringを適用
– 情報を保ちつつ低次元空間に移してからクラスタリングを行う
2014/7/3 文献紹介 10
Spectral Clustering𝑆: 各データ間の類似度行列𝐺: (𝑖, 𝑖)の要素が𝑆の𝑖番目の行の総和である
対角行列𝐿: ラプラシアン行列
𝐿 = 𝐺1/2𝑆𝐺−1/2
2014/7/3 文献紹介 11
Spectral Clustering• 𝐿について,固有値の大きい方から𝑚個の固有ベ
クトルで新しい行列をつくる– 各データ点が𝑚次元空間に移される
• 各行を単位長に正規化(各符号は保持)• k-means法によりクラスタリングを行う
2014/7/3 文献紹介 12
Spectral Clustering※ 各次元は1つの固有ベクトルにより定義される• 固有値の大きい固有ベクトルはデータに対して
大きい分散を持つ(クラスタリングのために)重要な次元が選択
されると考えられる
2014/7/3 文献紹介 13
Spectral Clustering
1 1 1 0 01 1 1 0 00 0 1 1 00 0 0 1 10 0 0 1 1
−0.6983 0.7158−0.6983 0.7158−0.9869 −0.1616−0.6224 −0.7827−0.6224 −0.7827
2014/7/3 文献紹介 14
提案手法
提案手法• spectral clustering を用いても,うまく
分離できるとは限らない– 曖昧なレビューが存在するため
一度に全てクラスタリングせず,曖昧なレビューは別で扱う
2014/7/3 文献紹介 16
提案手法1. spectral clustering を用いて曖昧でない(i.e.,
“easy”)レビューを同定・分類2. 少数の曖昧な(i.e., “hard”)レビューに対し手動で
ラベリング3. これらを使って残りのレビューを分類
2014/7/3 文献紹介 17
提案手法1. spectral clustering を用いて曖昧でない(i.e.,
“easy”)レビューを同定・分類2. 少数の曖昧な(i.e., “hard”)レビューに対し手動で
ラベリング3. これらを使って残りのレビューを分類
2014/7/3 文献紹介 18
提案手法 | step 1• 素性ベクトルはBOW
– 句読点, 長さ1の単語,単一のレビューにしか現れない語を除去
– 文書頻度の高い方から1.5%の語も除去• 類似度行列の計算には,内積を用いる
– ただし,対角成分は0とする
2014/7/3 文献紹介 19
提案手法 | step 1どの固有ベクトルを用いるか?• 一般に2番目の固有ベクトルのみを用いるのが良
いと言われている• 提案手法の場合は必ずしもそうではない 5番目までの固有ベクトルを用いる
(→次ページに続く)
2014/7/3 文献紹介 20
提案手法 | step 1各固有ベクトルに対して1. 𝑛個の要素それぞれを閾値として扱う
(𝑛通りの分割方法が存在することになる)2. 各分割方法についてcut-valueを計算する3. 最小のcut-valueを選ぶ最小のcut-valueを持つ固有ベクトルを用いる
2014/7/3 文献紹介 21
提案手法 | step 1曖昧なレビューを同定する
1 1 1 0 01 1 1 0 00 0 1 1 00 0 0 1 10 0 0 1 1
−0.6983 0.7158−0.6983 0.7158−0.9869 −0.1616−0.6224 −0.7827−0.6224 −0.7827
2014/7/3 文献紹介 22
提案手法 | step 1曖昧なレビューを同定する
1 1 1 0 01 1 1 0 00 0 1 1 00 0 0 1 10 0 0 1 1
−0.6983 0.7158−0.6983 0.7158−0.9869 −0.1616−0.6224 −0.7827−0.6224 −0.7827
2014/7/3 文献紹介 23
提案手法 | step 1曖昧なレビューを同定する
1 1 1 0 01 1 1 0 00 0 1 1 00 0 0 1 10 0 0 1 1
−0.6983 0.7158−0.6983 0.7158−0.9869 −0.1616−0.6224 −0.7827−0.6224 −0.7827
2014/7/3 文献紹介 24
提案手法 | step 1曖昧なレビューを同定する
1 1 1 0 01 1 1 0 00 0 1 1 00 0 0 1 10 0 0 1 1
−0.6983 0.7158−0.6983 0.7158−0.9869 −0.1616−0.6224 −0.7827−0.6224 −0.7827
2014/7/3 文献紹介 25
曖昧なレビュー
提案手法 | step 1曖昧なレビューを同定する
1 1 1 0 01 1 1 0 00 0 1 1 00 0 0 1 10 0 0 1 1
−0.6983 0.7158−0.6983 0.7158−0.9869 −0.1616−0.6224 −0.7827−0.6224 −0.7827
2014/7/3 文献紹介 26
提案手法 | step 1曖昧なレビューを同定する
1 1 1 0 01 1 1 0 00 0 1 1 00 0 0 1 10 0 0 1 1
−0.6983 0.7158−0.6983 0.7158−0.9869 −0.1616−0.6224 −0.7827−0.6224 −0.7827
2014/7/3 文献紹介 27
提案手法 | step 1曖昧なレビューを同定する
1 1 1 0 01 1 1 0 00 0 1 1 00 0 0 1 10 0 0 1 1
−0.6983 0.7158−0.6983 0.7158−0.9869 −0.1616−0.6224 −0.7827−0.6224 −0.7827
2014/7/3 文献紹介 28
提案手法 | step 11. データ点集合𝐷から先述の手順に従って
ラプラシアン行列の固有ベクトルを選ぶ2. 固有ベクトルにしたがって𝐷をソートし
中央の𝛼個のデータを取り除く3. データ点の数が𝛽個になるまで1,2を繰り返す4. 固有ベクトルを用いて,2-meansによる
クラスタリングを行う2014/7/3 文献紹介 29
提案手法 | step 1筆者らの実験では• 𝛼 = 50• 𝛽 = 500
2014/7/3 文献紹介 30
提案手法 | step 1得られた2クラスタに対してラベルを付ける• 10点ずつランダムサンプリングし手動で
positive/negative のタグ付け• 半数より多くpositiveが付けられたら
そのクラスタはpositive,それ以外はnegative
2014/7/3 文献紹介 31
提案手法 | step 1評価データセットに対するseedの分類精度
2014/7/3 文献紹介 32
提案手法 | step 1• Book および DVD を除き,80%超え• 不完全なseedデータでも,よりよく分類器を
学習させる
2014/7/3 文献紹介 33
提案手法1. spectral clustering を用いて曖昧でない(i.e.,
“easy”)レビューを同定・分類2. 少数の曖昧な(i.e., “hard”)レビューに対し手動で
ラベリング3. これらを使って残りのレビューを分類
2014/7/3 文献紹介 34
提案手法 | step 2クラスタリング手法だけでは各素性が有効かそうでないかを同定できない• seed set を用いて極性分類に有効な素性を同定
2014/7/3 文献紹介 35
提案手法 | step 2seed set が高精度であっても,残りのデータを精度よく分類できないことが予測される• 曖昧なレビューとそうでないレビューの両方で
学習しなければ高精度は達成できないと仮定• 曖昧なレビューの中でも特に曖昧さが大きい
ものから学習する方が効率がいい
2014/7/3 文献紹介 36
提案手法 | step 2active learning を適用• seed set を用いてSVMを学習させる• SVMに残りのデータを入力• SVMの分離超平面に近いデータ点(=曖昧な点)
10個ずつを人手でタグ付け,それを含めて再学習繰り返すことで,計100個の人手によるラベル付き
データを得る
2014/7/3 文献紹介 37
提案手法1. spectral clustering を用いて曖昧でない(i.e.,
“easy”)レビューを同定・分類2. 少数の曖昧な(i.e., “hard”)レビューに対し手動で
ラベリング3. これらを使って残りのレビューを分類
2014/7/3 文献紹介 38
提案手法 | step 3transductive SVMを適用• step 1で得られたラベル付きデータ(低精度)
の数の方が大きい(step 1: 500,step 2: 100)
– 分離超平面の決定時に支配的に振る舞う
2014/7/3 文献紹介 39
提案手法 | step 3step 2 で得られたラベル付きデータ(高精度)を効率良く使い,またノイズに強い分類器を構築したい 5つの分類器を別々に学習させる
– それぞれ100個の高精度ラベル付きデータ(共通)と,100個の低精度ラベル付きデータ(別々)で学習を行う
2014/7/3 文献紹介 40
提案手法 | step 3データセットの分け方• step 1 の最終的な固有値ベクトルの要素値に
基づき昇順にソート• 𝑖番目のデータを(𝑖 mod 5)番目のセットに含めるただ分けるだけでなく,信頼性の高い/低い
データ点を等しく分ける
2014/7/3 文献紹介 41
提案手法 | step 3最終的に,ラベル無しデータに対して• 5つの分類器の confidence value (符号付)の
総和をとる• 0以上ならpositive,それ以外ならnegative
2014/7/3 文献紹介 42
評価
評価 | データセット• movie (MOV), books (BOO), DVDs (DVD),
electronics (ELE), kitchen appliances (KIT) の5種類のレビューデータセット(ラベル付き)を使用
• 各データセットのサイズは2000(positive, negative それぞれが1000ずつ)
2014/7/3 文献紹介 44
評価 | 指標• 10分割交差検定を用いて精度を評価• Adjusted Rand Index でも評価
– −1 から 1 の値を取り,大きいほど良い指標
2014/7/3 文献紹介 45
評価 | ベースライン公平を期すため,各ベースラインは100個のデータのラベルを使用できる• Semi-supervised spectral clustering• Transductive SVM• Active learning
2014/7/3 文献紹介 46
評価 | 結果
2014/7/3 文献紹介 47
評価 | 結果
2014/7/3 文献紹介 48
評価 | 結果• いずれのデータセット・評価指標でも,
提案手法が最高結果を達成• step 1 の段階でも,ベースラインに匹敵する
精度を達成• ステップを追うごとに精度は向上していく
2014/7/3 文献紹介 49
評価 | 追加実験どの部分が性能に影響を与えているのかを調べる次の7つの手法を評価する
2014/7/3 文献紹介 50
評価 | 追加実験• seeds を得る際に single step で行う• seeds を用いない• 曖昧さの小さい方から100個のみを seeds とする• 分類器を5つに分けない• passive learningを用いる(100個をランダムに選ぶ)• active learning で500個のデータを得る• fully supervised
2014/7/3 文献紹介 51
評価 | 追加実験
2014/7/3 文献紹介 52
評価 | 追加実験
2014/7/3 文献紹介 53
評価 | 追加実験• seeds, ensemble, active learningのいずれも精度
向上に貢献している• seedsは低精度であっても貢献している• 3つのデータセットについては,人手による
ラベル付きデータを500個程度用意することで,fully-supervised の精度をほぼ達成している
2014/7/3 文献紹介 54
結論
結論• 感情極性分類のsemi-supervised なアプローチ• “mine the easy, classify the hard” apprach• 高い精度を達成• 次の観点から拡張可能
– この手法は感情の分類に特化していない– 素性はBOWしか使っていない
2014/7/3 文献紹介 56