ホームページ バックエンド開発 Python チュートリアル # | PDF データ抽出を自動化する: ビルド

# | PDF データ抽出を自動化する: ビルド

Dec 15, 2024 am 11:06 AM

概要

PDF データ抽出のビジネス ロジックを動作するコードに変換する Python スクリプトを作成しました。

スクリプトは、10 か月間 (2024 年 1 月から 10 月まで) にわたる保管者声明 PDF の 71 ページ でテストされました。 PDF の処理は完了するまでに約 4 秒かかり、手動で行うよりも大幅に速くなりました。

# | Automate PDF data extraction: Build

見たところ、出力は正しいように見え、コードにはエラーは発生していません。

3 つの CSV 出力のスナップショットを以下に示します。機密データはグレー表示されていることに注意してください。

スナップショット 1: 株式保有

# | Automate PDF data extraction: Build

スナップショット 2: ファンド保有

# | Automate PDF data extraction: Build

スナップショット 3: 現金保有

# | Automate PDF data extraction: Build

このワークフローは、CSV ファイルを生成するために行った大まかな手順を示しています。

# | Automate PDF data extraction: Build

ここで、ビジネス ロジックを Python のコードに変換する方法を詳しく説明します。

ステップ 1: PDF ドキュメントを読む

pdfplumber の open() 関数を使用しました。

# Open the PDF file
with pdfplumber.open(file_path) as pdf:
ログイン後にコピー
ログイン後にコピー

file_path は、pdfplumber にどのファイルを開くかを指示する宣言された変数です。

ステップ 2.0: 各ページからテーブルを抽出およびフィルタリングする

extract_tables() 関数は、各ページからすべてのテーブルを抽出するという大変な作業を行います。

私は基礎となるロジックには詳しくありませんが、この関数はかなり良い仕事をしたと思います。たとえば、以下の 2 つのスナップショットは、抽出されたテーブルと元の (PDF からの) テーブルを示しています

スナップショット A: VS Code ターミナルからの出力

# | Automate PDF data extraction: Build

スナップショット B: PDF の表

# | Automate PDF data extraction: Build

その後、後で特定のテーブルからデータを「選択」できるように、各テーブルに一意のラベルを付ける必要がありました。

理想的なオプションは、各テーブルのタイトルを使用することでした。しかし、タイトルの座標を決定することは私の能力を超えていました。

回避策として、最初の 3 つの列のヘッダーを連結して各テーブルを識別しました。たとえば、スナップショット B株式保有 テーブルには、Stocks/ETFsnNameExchangeQuantity.

というラベルが付いています。

⚠️このアプローチには重大な欠点があります。最初の 3 つのヘッダー名ではすべてのテーブルが一意になるわけではありません。幸いなことに、これは無関係なテーブルにのみ影響します。

ステップ 2.1: 表以外のテキストを抽出、フィルター、変換する

私が必要とした特定の値 (口座番号と明細書日付) は、各 PDF のページ 1 の部分文字列でした。

たとえば、「口座番号 M1234567」には口座番号「M1234567」が含まれます。

# | Automate PDF data extraction: Build

私は Python の re ライブラリを使用し、ChatGPT に適切な正規表現 (「regex」) を提案してもらいました。正規表現は各文字列を 2 つのグループに分割し、2 番目のグループに必要なデータを入れます。

明細書日付および口座番号文字列の正規表現

# Open the PDF file
with pdfplumber.open(file_path) as pdf:
ログイン後にコピー
ログイン後にコピー

次に、明細書日付を「yyyymmdd」形式に変換しました。これにより、データのクエリと並べ替えが簡単になります。

regex_date=r'Statement for \b([A-Za-z]{3}-\d{4})\b'
regex_acc_no=r'Account Number ([A-Za-z]\d{7})'
ログイン後にコピー

match_date は、正規表現に一致する文字列が見つかったときに宣言される変数です。

ステップ 3: 表形式のデータを作成する

関連するデータポイントの抽出という難しい作業は、この時点でほぼ完了しました。

次に、pandas の DataFrame() 関数を使用して、ステップ 2ステップ 3 の出力に基づいて表形式のデータを作成しました。また、この関数を使用して不要な列と行を削除しました。

最終結果は、CSV に簡単に書き込んだり、データベースに保存したりできます。

ステップ 4: データを CSV ファイルに書き込む

Python の write_to_csv() 関数を使用して、各データフレームを CSV ファイルに書き込みました。

 if match_date:
    # Convert string to a mmm-yyyy date
    date_obj=datetime.strptime(match_date.group(1),"%b-%Y")
    # Get last day of the month
    last_day=calendar.monthrange(date_obj.year,date_obj.month[1]
    # Replace day with last day of month
    last_day_of_month=date_obj.replace(day=last_day)
    statement_date=last_day_of_month.strftime("%Y%m%d")
ログイン後にコピー

df_cash_selected は現金保有データフレームであり、file_cash_holdings は現金保有 CSV のファイル名です。

➡️ データベースのノウハウを習得したら、適切なデータベースにデータを書き込みます。

次のステップ

カストディアンステートメント PDF から表とテキストデータを抽出するための作業スクリプトが用意されました。

先に進む前に、いくつかのテストを実行して、スクリプトが期待どおりに動作するかどうかを確認します。

--終了

以上が# | PDF データ抽出を自動化する: ビルドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

LinuxターミナルでPythonバージョンを表示するときに発生する権限の問題を解決する方法は? LinuxターミナルでPythonバージョンを表示するときに発生する権限の問題を解決する方法は? Apr 01, 2025 pm 05:09 PM

LinuxターミナルでPythonバージョンを表示する際の許可の問題の解決策PythonターミナルでPythonバージョンを表示しようとするとき、Pythonを入力してください...

中間の読書にどこでもfiddlerを使用するときにブラウザによって検出されないようにするにはどうすればよいですか? 中間の読書にどこでもfiddlerを使用するときにブラウザによって検出されないようにするにはどうすればよいですか? Apr 02, 2025 am 07:15 AM

fiddlereveryversings for the-middleの測定値を使用するときに検出されないようにする方法

あるデータフレームの列全体を、Python内の異なる構造を持つ別のデータフレームに効率的にコピーする方法は? あるデータフレームの列全体を、Python内の異なる構造を持つ別のデータフレームに効率的にコピーする方法は? Apr 01, 2025 pm 11:15 PM

PythonのPandasライブラリを使用する場合、異なる構造を持つ2つのデータフレーム間で列全体をコピーする方法は一般的な問題です。 2つのデータがあるとします...

プロジェクトの基本と問題駆動型の方法で10時間以内にコンピューター初心者プログラミングの基本を教える方法は? プロジェクトの基本と問題駆動型の方法で10時間以内にコンピューター初心者プログラミングの基本を教える方法は? Apr 02, 2025 am 07:18 AM

10時間以内にコンピューター初心者プログラミングの基本を教える方法は?コンピューター初心者にプログラミングの知識を教えるのに10時間しかない場合、何を教えることを選びますか...

uvicornは、serving_forever()なしでhttpリクエストをどのように継続的に聞いていますか? uvicornは、serving_forever()なしでhttpリクエストをどのように継続的に聞いていますか? Apr 01, 2025 pm 10:51 PM

UvicornはどのようにしてHTTPリクエストを継続的に聞きますか? Uvicornは、ASGIに基づく軽量のWebサーバーです。そのコア機能の1つは、HTTPリクエストを聞いて続行することです...

Investing.comの反クローラーメカニズムをバイパスするニュースデータを取得する方法は? Investing.comの反クローラーメカニズムをバイパスするニュースデータを取得する方法は? Apr 02, 2025 am 07:03 AM

Investing.comの反クラウリング戦略を理解する多くの人々は、Investing.com(https://cn.investing.com/news/latest-news)からのニュースデータをクロールしようとします。

See all articles