ホームページ > バックエンド開発 > Python チュートリアル > Pandas で大規模なテキスト データセットから句読点を効率的に削除する方法

Pandas で大規模なテキスト データセットから句読点を効率的に削除する方法

Patricia Arquette
リリース: 2024-11-12 05:55:02
オリジナル
210 人が閲覧しました

How to Efficiently Remove Punctuation from Large Text Datasets in Pandas?

Pandas で句読点を効率的に削除する方法

問題:

テキストの前処理時データを分析できるようにするには、句読点を削除することが不可欠です。このタスクには、句読点として定義されている文字を識別してフィルタリングすることが含まれます。

課題:

大量のテキストを扱う状況では、組み込みのpandas の str.replace のような関数では、計算コストが高くなる可能性があります。これは、数十万のレコードを扱う場合に特に重要になります。

解決策:

この質問では、大規模なテキスト データセットを扱う場合に str.replace に代わるいくつかのパフォーマンスの高い代替案を検討します。

1. Regex.sub:

コンパイル済みの正規表現パターンを使用して、re ライブラリの sub 関数を利用します。このメソッドは、str.replace.

2 に比べてパフォーマンスが大幅に向上します。 str.translate:

C で実装され、その速度で知られる Python の str.translate 関数を利用します。このプロセスには、入力文字列を 1 つの大きな文字列に変換し、変換を適用して句読点を削除し、結果を分割して元の文字列を再構築することが含まれます。

3.その他の考慮事項:

  • NaN の処理: regex.sub のようなリスト内包メソッドは、NaN では機能しません。インデックスを特定し、null 以外の値にのみ置換を適用することで、これらを個別に処理する必要があります。
  • DataFrames: これらのメソッドを DataFrame 全体に適用するには、値をフラット化できます。平坦化された配列を元の形状に戻す前に、置換を実行します。 shape.

パフォーマンス分析:

ベンチマークを通じて、特に大規模なデータセットの場合、str.translate が他の方法よりも一貫して優れたパフォーマンスを発揮することがわかりました。 str.translate はより多くのメモリを必要とするため、パフォーマンスとメモリ使用量のトレードオフを考慮することが重要です。

結論:

句読点を削除するための適切な方法は、特定の句読点によって異なります。あなたの状況の要件。パフォーマンスが最優先の場合、str.translate が最適なオプションを提供します。ただし、メモリ使用量が懸念される場合は、regex.sub などの他のメソッドの方が適している可能性があります。

以上がPandas で大規模なテキスト データセットから句読点を効率的に削除する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
著者別の最新記事
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート