Heim Backend-Entwicklung Python-Tutorial Wie extrahiere ich mit Python für NLP strukturierte Textdaten aus PDF-Dateien?

Wie extrahiere ich mit Python für NLP strukturierte Textdaten aus PDF-Dateien?

Sep 27, 2023 am 11:17 AM
python nlp pdf提取

如何用Python for NLP从PDF文件中提取结构化文本数据?

Wie extrahiere ich strukturierte Textdaten aus PDF-Dateien mit Python für NLP?

Einleitung:
Natürliche Sprachverarbeitung (NLP) ist einer der wichtigen Zweige im Bereich der künstlichen Intelligenz. Ihr Ziel ist es, Computer in die Lage zu versetzen, menschliche Sprache zu verstehen und zu verarbeiten. Textdaten sind die Kernressource von NLP. Daher ist die Extraktion strukturierter Textdaten aus verschiedenen Quellen zu einer grundlegenden Aufgabe von NLP geworden. PDF-Dateien sind ein gängiges Dokumentformat. In diesem Artikel wird erläutert, wie Sie Python für NLP verwenden und strukturierte Textdaten aus PDF-Dateien extrahieren.

Schritt 1: Abhängige Bibliotheken installieren
Zuerst müssen wir einige notwendige Python-Bibliotheken installieren, um PDF-Dateien zu verarbeiten. Unter ihnen ist die PyPDF2-Bibliothek die wichtigste, die uns beim Lesen und Analysieren von PDF-Dateien helfen kann. Die PyPDF2-Bibliothek kann mit dem folgenden Befehl installiert werden:

pip install PyPDF2
Nach dem Login kopieren

Schritt 2: PDF-Datei lesen
Bevor wir beginnen, müssen wir eine Beispiel-PDF-Datei zur Demonstration vorbereiten. Angenommen, unsere Beispiel-PDF-Datei heißt „sample.pdf“. Als nächstes verwenden wir die PyPDF2-Bibliothek, um PDF-Dateien zu lesen, wie unten gezeigt:

import PyPDF2

filename = "sample.pdf"

# 打开PDF文件
pdf_file = open(filename, 'rb')

# 创建一个PDF阅读器
pdf_reader = PyPDF2.PdfReader(pdf_file)

# 获取PDF文件中的页数
num_pages = pdf_reader.numPages

# 逐页提取文本
text_data = []
for page in range(num_pages):
    page_obj = pdf_reader.getPage(page)
    text_data.append(page_obj.extractText())

# 关闭PDF文件
pdf_file.close()
Nach dem Login kopieren

Im obigen Code öffnen wir zuerst die PDF-Datei und erstellen dann einen PDF-Reader mit der PyPDF2-Bibliothek. Danach erhalten wir die Seitenzahl der PDF-Datei und verwenden eine Schleife, um den Textinhalt Seite für Seite zu extrahieren und die extrahierten Textdaten in einer Liste zu speichern. Denken Sie abschließend daran, die PDF-Datei zu schließen.

Schritt 3: Textdaten bereinigen
Die aus PDF-Dateien extrahierten Textdaten enthalten häufig eine große Anzahl von Leerzeichen und anderen irrelevanten Sonderzeichen. Daher müssen wir die Textdaten bereinigen und vorverarbeiten, bevor wir mit dem nächsten Schritt fortfahren. Hier ist ein Beispiel für eine einfache Textbereinigungsfunktion:

import re

def clean_text(text):
    # 去除多余的空白字符
    text = re.sub('s+', ' ', text)
    
    # 去除特殊字符
    text = re.sub('[^A-Za-z0-9]+', ' ', text)
    
    return text
    
# 清理文本数据
cleaned_text_data = []
for text in text_data:
    cleaned_text = clean_text(text)
    cleaned_text_data.append(cleaned_text)
Nach dem Login kopieren

Im obigen Code verwenden wir zunächst reguläre Ausdrücke, um zusätzliche Leerzeichen zu entfernen, und entfernen dann Sonderzeichen. Natürlich kann die Textreinigungsmethode an die tatsächliche Situation angepasst werden.

Schritt 4: Weiterverarbeitung der Textdaten
In den obigen Schritten haben wir die strukturierten Textdaten aus der PDF-Datei extrahiert und eine einfache Bereinigung durchgeführt. Abhängig von den spezifischen Anwendungsanforderungen müssen wir jedoch möglicherweise eine weitere Textverarbeitung durchführen. Hier stellen wir kurz zwei gängige Textverarbeitungsaufgaben vor: Worthäufigkeitsstatistik und Schlüsselwortextraktion.

Worthäufigkeitsstatistik:
Worthäufigkeitsstatistik ist eine der häufigsten Aufgaben im NLP und ihr Zweck besteht darin, zu zählen, wie oft jedes Wort im Text vorkommt. Das Folgende ist ein einfaches Beispiel für eine Worthäufigkeitsstatistik:

from collections import Counter

# 将文本数据拼接为一个字符串
combined_text = ' '.join(cleaned_text_data)

# 分词
words = combined_text.split()

# 统计词频
word_freq = Counter(words)

# 打印出现频率最高的前10个词语
print(word_freq.most_common(10))
Nach dem Login kopieren

Schlüsselwortextraktion:
Die Schlüsselwortextraktion ist eine wichtige Aufgabe im NLP und ihr Zweck besteht darin, die repräsentativsten Schlüsselwörter aus Textdaten zu extrahieren. In Python können wir die textrank4zh-Bibliothek zur Schlüsselwortextraktion verwenden. Das Beispiel lautet wie folgt:

from textrank4zh import TextRank4Keyword

# 创建TextRank4Keyword对象
tr4w = TextRank4Keyword()

# 提取关键词
tr4w.analyze(text=combined_text, lower=True, window=2)

# 打印关键词
for item in tr4w.get_keywords(10, word_min_len=2):
    print(item.word)
Nach dem Login kopieren

Im obigen Code erstellen wir zuerst ein TextRank4Keyword-Objekt und rufen dann die Methode „analysate()“ auf, um Schlüsselwörter zu extrahieren. Danach können wir die angegebene Anzahl von Schlüsselwörtern über die Methode get_keywords() abrufen. Der Standardwert sind die ersten 10 Schlüsselwörter.

Fazit:
In diesem Artikel wird erläutert, wie Sie Python für die Verarbeitung natürlicher Sprache (NLP) verwenden und strukturierte Textdaten aus PDF-Dateien extrahieren. Wir haben die PyPDF2-Bibliothek zum Lesen und Analysieren von PDF-Dateien verwendet und anschließend eine einfache Textbereinigung und Vorverarbeitung durchgeführt. Schließlich haben wir auch die Durchführung von Worthäufigkeitsstatistiken und die Schlüsselwortextraktion vorgestellt. Ich glaube, dass Leser durch die Einleitung dieses Artikels lernen können, wie man strukturierte Textdaten aus PDF-Dateien extrahiert und sie weiter auf Aufgaben der Verarbeitung natürlicher Sprache anwendet.

Das obige ist der detaillierte Inhalt vonWie extrahiere ich mit Python für NLP strukturierte Textdaten aus PDF-Dateien?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Wie kann man Node.js oder Python -Dienste in Lampenarchitektur effizient integrieren? Wie kann man Node.js oder Python -Dienste in Lampenarchitektur effizient integrieren? Apr 01, 2025 pm 02:48 PM

Viele Website -Entwickler stehen vor dem Problem der Integration von Node.js oder Python Services unter der Lampenarchitektur: Die vorhandene Lampe (Linux Apache MySQL PHP) Architekturwebsite benötigt ...

Was ist der Grund, warum Pipeline persistente Speicherdateien bei der Verwendung von Scapy Crawler nicht geschrieben werden kann? Was ist der Grund, warum Pipeline persistente Speicherdateien bei der Verwendung von Scapy Crawler nicht geschrieben werden kann? Apr 01, 2025 pm 04:03 PM

Bei der Verwendung von Scapy Crawler kann der Grund, warum Pipeline persistente Speicherdateien nicht geschrieben werden kann? Diskussion beim Lernen, Scapy Crawler für Data Crawler zu verwenden, begegnen Sie häufig auf eine ...

Was ist der Grund, warum der Python -Prozesspool gleichzeitige TCP -Anfragen behandelt und den Kunden dazu bringt, stecken zu bleiben? Was ist der Grund, warum der Python -Prozesspool gleichzeitige TCP -Anfragen behandelt und den Kunden dazu bringt, stecken zu bleiben? Apr 01, 2025 pm 04:09 PM

Python Process Pool verarbeitet gleichzeitige TCP -Anfragen, die dazu führen, dass der Client stecken bleibt. Bei der Verwendung von Python für die Netzwerkprogrammierung ist es entscheidend, gleichzeitige TCP -Anforderungen effizient zu verarbeiten. ...

Python Cross-Platform Desktop-Anwendungsentwicklung: Welche GUI-Bibliothek ist die beste für Sie? Python Cross-Platform Desktop-Anwendungsentwicklung: Welche GUI-Bibliothek ist die beste für Sie? Apr 01, 2025 pm 05:24 PM

Auswahl der Python-plattformübergreifenden Desktop-Anwendungsentwicklungsbibliothek Viele Python-Entwickler möchten Desktop-Anwendungen entwickeln, die sowohl auf Windows- als auch auf Linux-Systemen ausgeführt werden können ...

Wie kann ich die ursprünglichen Funktionen betrachten, die von Python Functools.Partial Object in intern eingekapselt sind? Wie kann ich die ursprünglichen Funktionen betrachten, die von Python Functools.Partial Object in intern eingekapselt sind? Apr 01, 2025 pm 04:15 PM

Erforschen Sie tief die Betrachtungsmethode von Python Functools.Partialial Object in functools.Partial mit Python ...

Python Hourglass Graph Drawing: Wie vermeiden Sie variable undefinierte Fehler? Python Hourglass Graph Drawing: Wie vermeiden Sie variable undefinierte Fehler? Apr 01, 2025 pm 06:27 PM

Erste Schritte mit Python: Hourglas -Grafikzeichnung und Eingabeüberprüfung In diesem Artikel wird das Problem der Variablendefinition gelöst, das von einem Python -Anfänger im Hourglass -Grafikzeichnungsprogramm auftritt. Code...

Wie optimieren Sie die Verarbeitung hochauflösender Bilder in Python, um präzise weiße kreisförmige Bereiche zu finden? Wie optimieren Sie die Verarbeitung hochauflösender Bilder in Python, um präzise weiße kreisförmige Bereiche zu finden? Apr 01, 2025 pm 06:12 PM

Wie gehe ich mit hochauflösenden Bildern in Python um, um weiße Bereiche zu finden? Verarbeitung eines hochauflösenden Bildes von 9000x7000 Pixel, wie man zwei des Bildes genau findet ...

Wie kann ich große Produktdatensätze in Python effizient zählen und sortieren? Wie kann ich große Produktdatensätze in Python effizient zählen und sortieren? Apr 01, 2025 pm 08:03 PM

Datenkonvertierung und Statistik: Effiziente Verarbeitung großer Datensätze In diesem Artikel werden ausführlich das Umwandeln einer Datenliste in eine andere enthält ...

See all articles