Heim > Backend-Entwicklung > Python-Tutorial > Web Scraping und Analyse fremdsprachiger Daten

Web Scraping und Analyse fremdsprachiger Daten

Susan Sarandon
Freigeben: 2024-12-24 11:40:14
Original
944 Leute haben es durchsucht

Vor kurzem habe ich beschlossen, dass ich gerne ein schnelles Web-Scraping- und Datenanalyseprojekt durchführen möchte. Da mein Gehirn gerne große Ideen entwickelt, die viel Zeit in Anspruch nehmen würden, beschloss ich, mich der Herausforderung zu stellen, etwas Einfaches zu finden, das in ein paar Stunden realisierbar wäre.

Hier ist, was ich mir ausgedacht habe:

Da mein Bachelor-Abschluss ursprünglich Fremdsprachen (Französisch und Spanisch) war, dachte ich, es würde Spaß machen, ein paar sprachbezogene Daten im Web zu sammeln. Ich wollte die BeautifulSoup-Bibliothek verwenden, die statisches HTML analysieren kann, aber nicht mit dynamischen Webseiten umgehen kann, die Onclick-Ereignisse benötigen, um den gesamten Datensatz anzuzeigen (z. B. Klicken auf die nächste Datenseite, wenn die Seite paginiert ist).

Ich habe mich für diese Wikipedia-Seite der am häufigsten gesprochenen Sprachen entschieden.

Web scraping and analysing foreign languages data

Ich wollte Folgendes tun:

  • Rufen Sie den HTML-Code für die Seite ab und geben Sie ihn in einer TXT-Datei aus
  • Verwenden Sie „Beautiful Soup“, um die HTML-Datei zu analysieren und die Tabellendaten zu extrahieren
  • Schreiben Sie die Tabelle in eine CSV-Datei
  • Überlegen Sie sich 10 Fragen, die ich für diesen Datensatz mithilfe der Datenanalyse beantworten wollte
  • Beantworten Sie diese Fragen mit Pandas und einem Jupyter-Notizbuch

Ich habe beschlossen, das Projekt aus Gründen der Interessenstrennung in diese Schritte aufzuteilen, wollte aber auch vermeiden, mehrere unnötige Anfragen zum Abrufen des HTML-Codes von Wikipedia zu stellen, indem ich das Skript erneut ausführe. Wenn Sie die HTML-Datei speichern und dann in einem separaten Skript damit arbeiten, müssen Sie die Daten nicht ständig erneut anfordern, da Sie sie bereits haben.

Projektlink

Der Link zu meinem Github-Repo für dieses Projekt ist: https://github.com/gabrielrowan/Foreign-Languages-Analysis

Den HTML-Code abrufen

Zuerst habe ich den HTML-Code abgerufen und ausgegeben. Nachdem ich mit C# und C gearbeitet habe, ist es für mich immer wieder neu, wie kurz und prägnant Python-Code ist?

url = 'https://en.wikipedia.org/wiki/List_of_languages_by_number_of_native_speakers'

response = requests.get(url)
html = response.text

with open("languages_html.txt", "w", encoding="utf-8") as file:
    file.write(html)

Nach dem Login kopieren
Nach dem Login kopieren

Parsen des HTML

Um den HTML-Code mit Beautiful Soup zu analysieren und den Tisch auszuwählen, an dem ich interessiert war, habe ich Folgendes getan:

with open("languages_html.txt", "r", encoding="utf-8") as file:
    soup = BeautifulSoup(file, 'html.parser')

# get table
top_languages_table = soup.select_one('.wikitable.sortable.static-row-numbers')


Nach dem Login kopieren
Nach dem Login kopieren

Dann habe ich den Tabellenkopftext erhalten, um die Spaltennamen für meinen Pandas-Datenrahmen zu erhalten:

# get column names
columns = top_languages_table.find_all("th")
column_titles = [column.text.strip() for column in columns]

Nach dem Login kopieren
Nach dem Login kopieren

Danach habe ich den Datenrahmen erstellt, die Spaltennamen festgelegt, jede Tabellenzeile abgerufen und jede Zeile in den Datenrahmen geschrieben:

# get table rows
table_data = top_languages_table.find_all("tr")

# define dataframe
df = pd.DataFrame(columns=column_titles)

# get table data
for row in table_data[1:]:
    row_data = row.find_all('td')
    row_data_txt = [row.text.strip() for row in row_data]
    print(row_data_txt)
    df.loc[len(df)] = row_data_txt 


Nach dem Login kopieren
Nach dem Login kopieren

Hinweis: Ohne die Verwendung von strip() gab es n Zeichen im Text, die nicht benötigt wurden.

Zuletzt habe ich den Datenrahmen in eine CSV-Datei geschrieben.

Analyse der Daten

Im Vorfeld habe ich mir diese Fragen ausgedacht, die ich anhand der Daten beantworten wollte:

  1. Wie hoch ist die Gesamtzahl der Muttersprachler in allen Sprachen im Datensatz?
  2. Wie viele verschiedene Arten von Sprachfamilien gibt es?
  3. Wie hoch ist die Gesamtzahl der Muttersprachler pro Sprachfamilie?
  4. Welche sind die drei häufigsten Sprachfamilien?
  5. Erstellen Sie ein Kreisdiagramm mit den drei häufigsten Sprachfamilien
  6. Welches ist das am häufigsten vorkommende Sprachfamilie-Zweigpaar?
  7. Welche Sprachen sind Chinesisch-Tibetisch in der Tabelle?
  8. Zeigen Sie ein Balkendiagramm der Muttersprachler aller romanischen und germanischen Sprachen an
  9. Wie viel Prozent aller Muttersprachler entfallen auf die Top-5-Sprachen?
  10. In welcher Branche gibt es die meisten Muttersprachler und in welcher am wenigsten?

Die Ergebnisse

Während ich nicht auf den Code eingehen werde, um alle diese Fragen zu beantworten, werde ich auf die beiden Fragen eingehen, bei denen es um Diagramme ging.

Zeigen Sie ein Balkendiagramm der Muttersprachler aller romanischen und germanischen Sprachen an

Zuerst habe ich einen Datenrahmen erstellt, der nur Zeilen enthielt, deren Zweigname „Romance“ oder „Germanic“ war

url = 'https://en.wikipedia.org/wiki/List_of_languages_by_number_of_native_speakers'

response = requests.get(url)
html = response.text

with open("languages_html.txt", "w", encoding="utf-8") as file:
    file.write(html)

Nach dem Login kopieren
Nach dem Login kopieren

Dann habe ich die x-Achse, die y-Achse und die Farbe der Balken angegeben, die ich für das Diagramm haben wollte:

with open("languages_html.txt", "r", encoding="utf-8") as file:
    soup = BeautifulSoup(file, 'html.parser')

# get table
top_languages_table = soup.select_one('.wikitable.sortable.static-row-numbers')


Nach dem Login kopieren
Nach dem Login kopieren

Dies wurde erstellt:

Web scraping and analysing foreign languages data

Erstellen Sie ein Kreisdiagramm mit den drei häufigsten Sprachfamilien

Um das Kreisdiagramm zu erstellen, habe ich die drei häufigsten Sprachfamilien abgerufen und diese in einen Datenrahmen eingefügt.

Diese Codegruppe ermittelt die Gesamtsumme der Muttersprachler pro Sprachfamilie, sortiert sie in absteigender Reihenfolge und extrahiert die drei besten Einträge.

# get column names
columns = top_languages_table.find_all("th")
column_titles = [column.text.strip() for column in columns]

Nach dem Login kopieren
Nach dem Login kopieren

Dann trage ich die Daten in ein Kreisdiagramm ein und gebe dabei die Y-Achse von „Muttersprachlern“ und eine Legende an, die farbcodierte Beschriftungen für jede im Diagramm angezeigte Sprachfamilie erstellt.

# get table rows
table_data = top_languages_table.find_all("tr")

# define dataframe
df = pd.DataFrame(columns=column_titles)

# get table data
for row in table_data[1:]:
    row_data = row.find_all('td')
    row_data_txt = [row.text.strip() for row in row_data]
    print(row_data_txt)
    df.loc[len(df)] = row_data_txt 


Nach dem Login kopieren
Nach dem Login kopieren

Web scraping and analysing foreign languages data

Der Code und die Antworten für die restlichen Fragen finden Sie hier. Ich habe Markdown im Notizbuch verwendet, um die Fragen und ihre Antworten aufzuschreiben.

Nächstes Mal:

Für meine nächste Iteration eines Web-Scraping- und Datenanalyseprojekts möchte ich die Dinge komplizierter machen mit:

  • Web Scraping einer dynamischen Seite, auf der beim Klicken/Scrollen mehr Daten angezeigt werden
  • Analyse eines viel größeren Datensatzes, möglicherweise eines, der vor der Analyse einige Datenbereinigungsarbeiten erfordert

Web scraping and analysing foreign languages data

Letzte Gedanken

Auch wenn es schnell ging, hat es mir Spaß gemacht, dieses Projekt zu machen. Es hat mich daran erinnert, wie nützlich kurze, überschaubare Projekte sein können, um die Praxisvertreter einzubeziehen? Außerdem macht es Spaß, Daten aus dem Internet zu extrahieren und daraus Diagramme zu erstellen, selbst mit einem kleinen Datensatz?

Das obige ist der detaillierte Inhalt vonWeb Scraping und Analyse fremdsprachiger Daten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage