いくつかのテキストドキュメントをクラスター化する必要があり、さまざまなオプションを調査しています。 LingPipeは(ベクトル空間などへの)事前の変換なしでプレーンテキストをクラスター化できるように見えますが、文字列で機能すると明示的に主張しているのは私が見た唯一のツールです。
テキストを直接クラスター化できるPythonツールはありますか?そうでない場合、これを処理するための最良の方法は何ですか?
テキストクラスタリングの品質は、主に2つの要因に依存します。
クラスター化するドキュメント間の類似性の概念。たとえば、tfidf-cosine-distanceを使用すると、ベクトル空間でスポーツと政治に関するニュース記事を簡単に区別できます。この指標に基づいて、製品レビューを「良い」または「悪い」に分類することは非常に困難です。
クラスタリング手法自体。クラスターがいくつあるか知っていますか? OK、kmeansを使用します。精度は気にしませんが、検索結果のナビゲーション用に素敵なツリー構造を表示したいですか?ある種の階層的クラスタリングを使用します。
どのような状況でもうまく機能するテキストクラスタリングソリューションはありません。したがって、クラスタリングソフトウェアを箱から取り出して、そこにデータを投入するだけではおそらく十分ではありません。
そうは言っても、テキストクラスタリングを試すために少し前に使用した実験的なコードを次に示します。ドキュメントは正規化されたtfidfベクトルとして表され、類似性はコサイン距離として測定されます。クラスタリング手法自体は majorclust です。
import sys
from math import log, sqrt
from itertools import combinations
def cosine_distance(a, b):
cos = 0.0
a_tfidf = a["tfidf"]
for token, tfidf in b["tfidf"].iteritems():
if token in a_tfidf:
cos += tfidf * a_tfidf[token]
return cos
def normalize(features):
norm = 1.0 / sqrt(sum(i**2 for i in features.itervalues()))
for k, v in features.iteritems():
features[k] = v * norm
return features
def add_tfidf_to(documents):
tokens = {}
for id, doc in enumerate(documents):
tf = {}
doc["tfidf"] = {}
doc_tokens = doc.get("tokens", [])
for token in doc_tokens:
tf[token] = tf.get(token, 0) + 1
num_tokens = len(doc_tokens)
if num_tokens > 0:
for token, freq in tf.iteritems():
tokens.setdefault(token, []).append((id, float(freq) / num_tokens))
doc_count = float(len(documents))
for token, docs in tokens.iteritems():
idf = log(doc_count / len(docs))
for id, tf in docs:
tfidf = tf * idf
if tfidf > 0:
documents[id]["tfidf"][token] = tfidf
for doc in documents:
doc["tfidf"] = normalize(doc["tfidf"])
def choose_cluster(node, cluster_lookup, edges):
new = cluster_lookup[node]
if node in edges:
seen, num_seen = {}, {}
for target, weight in edges.get(node, []):
seen[cluster_lookup[target]] = seen.get(
cluster_lookup[target], 0.0) + weight
for k, v in seen.iteritems():
num_seen.setdefault(v, []).append(k)
new = num_seen[max(num_seen)][0]
return new
def majorclust(graph):
cluster_lookup = dict((node, i) for i, node in enumerate(graph.nodes))
count = 0
movements = set()
finished = False
while not finished:
finished = True
for node in graph.nodes:
new = choose_cluster(node, cluster_lookup, graph.edges)
move = (node, cluster_lookup[node], new)
if new != cluster_lookup[node] and move not in movements:
movements.add(move)
cluster_lookup[node] = new
finished = False
clusters = {}
for k, v in cluster_lookup.iteritems():
clusters.setdefault(v, []).append(k)
return clusters.values()
def get_distance_graph(documents):
class Graph(object):
def __init__(self):
self.edges = {}
def add_Edge(self, n1, n2, w):
self.edges.setdefault(n1, []).append((n2, w))
self.edges.setdefault(n2, []).append((n1, w))
graph = Graph()
doc_ids = range(len(documents))
graph.nodes = set(doc_ids)
for a, b in combinations(doc_ids, 2):
graph.add_Edge(a, b, cosine_distance(documents[a], documents[b]))
return graph
def get_documents():
texts = [
"foo blub baz",
"foo bar baz",
"asdf bsdf csdf",
"foo bab blub",
"csdf hddf kjtz",
"123 456 890",
"321 890 456 foo",
"123 890 uiop",
]
return [{"text": text, "tokens": text.split()}
for i, text in enumerate(texts)]
def main(args):
documents = get_documents()
add_tfidf_to(documents)
dist_graph = get_distance_graph(documents)
for cluster in majorclust(dist_graph):
print "========="
for doc_id in cluster:
print documents[doc_id]["text"]
if __name__ == '__main__':
main(sys.argv)
実際のアプリケーションでは、適切なトークナイザーを使用し、トークン文字列の代わりに整数を使用し、O(n ^ 2)距離行列を計算しないでください...
単純なUNIXコマンドラインツールを使用してこれらのドキュメントのテキストコンテンツをテキストファイルに抽出し、実際のクラスタリングに純粋なPythonソリューションを使用することで可能と思われます。
一般的にデータをクラスタリングするためのコードスニペットを見つけました:
http://www.daniweb.com/code/snippet216641.html
Pythonこのパッケージ:
http://python-cluster.sourceforge.net/
別のpythonパッケージ(主にバイオインフォマティクスに使用):
http://bonsai.ims.u-tokyo.ac.jp/~mdehoon/software/cluster/software.htm#pycluster
テキストのクラスタリングを含む言語分析をサポートするPythonライブラリ [〜#〜] nltk [〜#〜] があります