web-dev-qa-db-ja.com

Gensim:TypeError:doc2bowは、単一の文字列ではなく、入力時にUnicodeトークンの配列を予期します

私はいくつかのpythonタスクから始めています、gensimの使用中に問題に直面しています。ディスクからファイルをロードして処理しようとしています(ファイルを分割して小文字())

私が持っているコードは以下です:

dictionary_arr=[]
for file_path in glob.glob(os.path.join(path, '*.txt')):
    with open (file_path, "r") as myfile:
        text=myfile.read()
        for words in text.lower().split():
            dictionary_arr.append(words)
dictionary = corpora.Dictionary(dictionary_arr)

リスト(dictionary_arr)には、すべてのファイルのすべての単語のリストが含まれています。次に、gensimcorpora.Dictionaryを使用してリストを処理します。しかし、私はエラーに直面しています。

TypeError: doc2bow expects an array of unicode tokens on input, not a single string

何が問題なのか理解できません。少しガイダンスをいただければ幸いです。

10
Sam

辞書.pyでは、初期化関数は次のとおりです。

def __init__(self, documents=None):
    self.token2id = {} # token -> tokenId
    self.id2token = {} # reverse mapping for token2id; only formed on request, to save memory
    self.dfs = {} # document frequencies: tokenId -> in how many documents this token appeared

    self.num_docs = 0 # number of documents processed
    self.num_pos = 0 # total number of corpus positions
    self.num_nnz = 0 # total number of non-zeroes in the BOW matrix

    if documents is not None:
        self.add_documents(documents)

関数add_documentsドキュメントのコレクションから辞書を作成します。各ドキュメントはトークンのリストです:

def add_documents(self, documents):

    for docno, document in enumerate(documents):
        if docno % 10000 == 0:
            logger.info("adding document #%i to %s" % (docno, self))
        _ = self.doc2bow(document, allow_update=True) # ignore the result, here we only care about updating token ids
    logger.info("built %s from %i documents (total %i corpus positions)" %
                 (self, self.num_docs, self.num_pos))

したがって、この方法でディクショナリを初期化する場合は、ドキュメントを渡す必要がありますが、単一のドキュメントを渡すことはできません。例えば、

dic = corpora.Dictionary([a.split()])

大丈夫です。

12
wyq10

辞書 入力にはトークン化された文字列が必要です:

dataset = ['driving car ',
           'drive car carefully',
           'student and university']

# be sure to split sentence before feed into Dictionary
dataset = [d.split() for d in dataset]

vocab = Dictionary(dataset)
3
Amir

こんにちは、私は同じ問題に遭遇しました。これは私のために働いたものです

    #Tokenize the sentence into words
    tokens = [Word for Word in sentence.split()]

    #Create dictionary
    dictionary = corpora.Dictionary([tokens])
    print(dictionary)
1
Fasih Zafar