Python 言語は、今日最も人気のあるプログラミング言語の 1 つであり、その強力な自然言語処理ツールキットが独自の利点となっています。自然言語処理 (NLP) は、人工知能の分野における重要な研究方向であり、幅広い応用の可能性があります。この記事ではPythonにおける自然言語処理の例の一つである単語セグメンテーションを中心に紹介します。
トークン化は自然言語処理の基本タスクであり、その目的は、テキストを意味のある語彙単位 (英語の単語や句読点、単語、単語など) に分割することです。単語のセグメンテーションは自然言語処理の最初のステップであり、次のステップで実装される品詞タグ付け、固有表現認識、感情分析などのタスクの基礎でもあります。
Python には nltk、spatiy、jieba などよく使われる単語分割ツールが多数ありますが、この記事では主によく使われる jieba 単語分割ツールの使い方を紹介します。
まず、jieba 単語分割ツールをインストールする必要があります。次のコマンドを実行するだけです:
!pip install jieba
インストールが完了したら、テキストに対して単語の分割を実行できます。中国語のテキストがあるとします:
text = "自然语言处理是人工智能领域的一个重要方向,其目的是让计算机能够理解自然语言及其含义。"
jieba の cut()
メソッドを使用して、それを単語に分割します。サンプル コードは次のとおりです:
import jieba text = "自然语言处理是人工智能领域的一个重要方向,其目的是让计算机能够理解自然语言及其含义。" seg_list = jieba.cut(text, cut_all=False) print(" ".join(seg_list))
cut()
このメソッドは 2 つのパラメータを受け入れます。最初のパラメータはセグメント化するテキスト コンテンツです。2 番目のパラメータ cut_all
はフル モード セグメント化を使用するかどうかを示します (つまり、すべての可能な単語がセグメント化されます)そうでない場合は、デフォルトは False
で、正確なモード ワード セグメンテーションを使用することを意味します。
コードの実行結果は次のとおりです:
自然语言 处理 是 人工智能 领域 的 一个 重要 方向 , 其 目的 是 让 计算机 能够 理解 自然语言 及 其 含义 。
この例では、jieba 単語分割によりテキストが意味のある単語単位に正しく分割されていることがわかります。同時に、jieba.cut()
メソッドのさまざまなパラメータを呼び出すことで、他の単語の分割操作を完了することもできます:
cut()
このメソッドは、for ループを直接使用して単語分割結果を繰り返し出力できるジェネレーターを返します。cut_for_search()
メソッドは、単語を正確に分割してスキャンできる混合モードの単語分割ツールです。これは単語の組み合わせであり、lcut()
メソッドと lcut_for_search()
メソッドはリスト型の単語分割結果を返します。 さらに、jieba 単語セグメンテーション ツールはカスタム辞書もサポートしており、単語セグメンテーションの精度を高めることができます。たとえば、ドメイン関連の用語を含む辞書を newdict.txt
という名前で定義し、jieba 単語セグメンタの load_userdict()
メソッドを呼び出してカスタム辞書をロードできます。
import jieba # 加载自定义词典 jieba.load_userdict("newdict.txt") text = "自然语言处理是人工智能领域的一个重要方向,其目的是让计算机能够理解自然语言及其含义。" seg_list = jieba.cut(text, cut_all=False) print(" ".join(seg_list))
この簡単な例を通じて、Python での自然言語処理に jieba 単語分割ツールを使用する方法を学びました。単語の分割は NLP の基本タスクの 1 つであり、単語分割テクノロジの使用をマスターすることは、他の複雑な NLP タスクを実現するためにも非常に重要です。継続的な学習と実践を通じて、誰もが Python 自然言語処理テクノロジをよりよく習得し、さまざまなテキスト データの処理をより適切に支援できるようになると信じています。
以上がPython での自然言語処理の例: 単語のセグメンテーションの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。