ホームページ バックエンド開発 Python チュートリアル データ分析の初心者プロジェクトを作成する方法

データ分析の初心者プロジェクトを作成する方法

Dec 23, 2024 pm 12:49 PM

Como criar um projeto iniciante em análise de dados

こんにちは、今日は、データ分野の初心者であるあなたがクールなポートフォリオの作成を開始できるように、作業に必要なツールをすべて備えた最初のプロジェクトを作成します。データ!

このプロジェクトは、たとえあなたが Python の初心者であっても、まだやり方がわからない、より複雑なタスクを最初から実行するためのライブラリをいつでも見つけることができることを示しています (一部のことは、最初から行う価値さえありません)どちらか) 。まず、ダッシュボードを作成するには、Python と SQL の初期知識と、Tableau の知識があることが重要です。専門家である必要はありませんが、これらのツールの基本を知っていると、プロジェクトをより簡単に理解できるようになります。ただし、記事全体を読んで再現してみることもできます。可能な限り最も簡単な方法で、最初のダッシュボードの作成を開始できます!

始めましょうか?

最初のステップは、マシン上に開発環境を構成することです。このプロジェクトの要件は次のとおりです:

  • Python 3
  • MySQL 9.1 (Web サイト上の最新バージョン)
  • Tableau パブリック

このプロジェクトは Windows 11 環境で開発しているため、OS または Windows のバージョンによっていくつかの点が異なる場合がありますが、ここで説明する内容から大きく逸脱するものはありません。

Python から始めましょう。 https://www.python.org/downloads/ に移動し、最新バージョンのインストーラーをダウンロードします。インストール後、PC を再起動してバグを回避し (私もそうでした、笑)、コマンド ラインで問題なく言語を使用できるようにします。

次に、MySQL を使用して、Web サイト https://dev.mysql.com/downloads/mysql/ にアクセスし、MySQL Community Server インストーラーをダウンロードします。標準のインストールに従うだけで、すべてが完璧に進みます。

Tableau Public を使用して、https://www.tableau.com/pt-br/products/public/download にアクセスし、アカウントを作成してダウンロードを開始します。アカウントの作成は、最初のダッシュボードを公開するためにも必要であり、ポートフォリオにとっても非常に重要です!

必須ではありませんが、あると非常に便利なもう 1 つのツールは、git と github アカウントです。私はすべてのコードをコミットとコメント付きで ここ に配置しています。コードのポートフォリオとして github を使用するのは素晴らしいことですが、git を知らなくても大丈夫です。プロジェクトは同じように機能します。

すべての設定が完了したら、アプリケーションを配置するディレクトリに移動し、さらにいくつかの設定を行います。プロジェクトで使用するには、いくつかの Python ライブラリが必要になります。それぞれの機能とインストール方法について説明します。

最初に使用するライブラリは BeautifulSoup です。このプロジェクトに必要なデータはインターネット上にあり、それを収集するには Web スクレイピングと呼ばれるプロセスを実行する必要があります。BeautifulSoup は、この収集を容易にするツールを提供してこのプロセスを支援します。
インストールするには、ターミナルに移動して
と入力するだけです。

pip install beautifulsoup4
ログイン後にコピー
ログイン後にコピー

そして...それだけです! Python での依存関係のインストールは非常に簡単です!

2 番目に使用するライブラリはリクエストです。 Web ページを操作する場合は、API を使用して CRUD アクションを実行できるものが必要なので、これを選択します。繰り返しますが、
を使用して端末にインストールするだけです。

pip install requests
ログイン後にコピー
ログイン後にコピー

また、グッド プラクティスを実装し、環境変数を使用する予定です (コード内のパスワード、ユーザー名、その他の機密情報が誰にも見つからないようにするため)。そのため、os と dotenv が必要になります。 Python では OS がデフォルトですでにインストールされている必要がありますが、dotenv はインストールされていないため、通常のプロセスです

pip install dotenv
ログイン後にコピー
ログイン後にコピー

そして最後に重要なことですが、MySQL データベースに接続するためのライブラリが必要なので、mysql.connector を使用しましょう

pip install mysql-connector-python
ログイン後にコピー
ログイン後にコピー

開発環境を設定したら、プロセスの最も楽しい部分であるプログラミングに進むだけです!!

Web スクレイピングとデータベース操作の 2 つの部分 (コードの観点から) に分かれるプロジェクトを作成するので、まず Web スクレイピング ファイルを作成します。これはメイン コードもここに作成されます。滞在してから、データベース操作関数を配置するファイルを作成します。これはコードの保守だけでなく再利用にも役立ちます。

アプリケーション ディレクトリに web_scrapper.py というファイルを作成します。
次に、前にインストールした依存関係をインポートします。

from bs4 import BeautifulSoup
import requests
import db_manager
import os
from dotenv import load_dotenv
ログイン後にコピー
ログイン後にコピー

dotenv からは、load_dotenv 関数のみが必要になるため、それをインポートするだけです。

まず、コードの構造を考えて、それぞれの処理をより体系化したものにするために、ステップごとに実行したいことを書いてみましょう。コードで次のアクションを実行する必要があります:

  1. Web スクレイパーを作成し、データを変数に保存します
  2. 取得したデータをデータベースに入力します
  3. データベースからデータを取得し、CSV ファイルに保存して、Tableau Public で分析できるようにします

いくつかの部分に分けて説明していきます。作成してテストしたい最初の部分は Web スクレイパーの作成です。そのため、そこから始めるのが最良の方法です。
このタイプの Web サイト https://www.scrapethissite.com/ を使用します。そこには、Web スクレイピングを練習するためのいくつかのタイプのページがあります。特に初心者モデルに興味があるので、そのページをリクエストしてみましょう:

pip install beautifulsoup4
ログイン後にコピー
ログイン後にコピー

ここでは、CRUD の読み取りと同等の request get メソッドを使用します。Web ページが返され、作成した変数 page_countries_area_population にその全体が保存されます。
次に、必要な情報を見つけられるように、BeautifulSoup でページの HTML を解析する必要があります。これを行うには、soup という変数を作成し、BeaultifulSoup を呼び出し、作成した変数のテキストをそれに渡します

pip install requests
ログイン後にコピー
ログイン後にコピー

これにより、作成した変数内でリンクされた parse メソッドと BeautifulSoup メソッドを含むページが返されるため、作業が容易になります。
次に、ページから削除する情報を特定する必要があります。そのためには、Web ページを検査し、HTML ドキュメント内の要素とそのパターンを特定する必要があります。この場合、国名が h3 タグ内にあり、country-name クラスを使用していることがわかります。そのため、これを使用して国名を取得しましょう

pip install dotenv
ログイン後にコピー
ログイン後にコピー

ここでは、前に作成したスープを呼び出し、国名のすべてのインスタンスを取得する findAll 関数を呼び出します。最初のパラメータは探している HTML 要素で、2 番目のパラメータはその属性になります。選択したくない他の h3 タグが含まれている可能性があるためです。この場合、要素を識別するために国名クラスを渡します。私たちは欲しいです。
各国の住民数と面積ごとにこのプロセスを繰り返します

pip install mysql-connector-python
ログイン後にコピー
ログイン後にコピー

このデータをデータベースに渡す前に、データをクリーンアップし、不要なものが一緒に入らないような形式のままにします。これを行うには、プロセスを容易にするため、データをデータベースに渡す前にデータを保存するタプルのリストを作成します。ただし、追加する前に、国名からも空白を削除する必要があります。

from bs4 import BeautifulSoup
import requests
import db_manager
import os
from dotenv import load_dotenv
ログイン後にコピー
ログイン後にコピー

これで、必要なデータはすでに入手できました。最初のタスクはリストから外しましょう!

この記事のパート 2 では、Python を使用してデータベースを操作し、プロジェクトを完了する方法を説明します。

以上がデータ分析の初心者プロジェクトを作成する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Python vs. C:曲線と使いやすさの学習 Python vs. C:曲線と使いやすさの学習 Apr 19, 2025 am 12:20 AM

Pythonは学習と使用が簡単ですが、Cはより強力ですが複雑です。 1。Python構文は簡潔で初心者に適しています。動的なタイピングと自動メモリ管理により、使いやすくなりますが、ランタイムエラーを引き起こす可能性があります。 2.Cは、高性能アプリケーションに適した低レベルの制御と高度な機能を提供しますが、学習しきい値が高く、手動メモリとタイプの安全管理が必要です。

Pythonの学習:2時間の毎日の研究で十分ですか? Pythonの学習:2時間の毎日の研究で十分ですか? Apr 18, 2025 am 12:22 AM

Pythonを1日2時間学ぶだけで十分ですか?それはあなたの目標と学習方法に依存します。 1)明確な学習計画を策定し、2)適切な学習リソースと方法を選択します。3)実践的な実践とレビューとレビューと統合を練習および統合し、統合すると、この期間中にPythonの基本的な知識と高度な機能を徐々に習得できます。

Python vs. C:パフォーマンスと効率の探索 Python vs. C:パフォーマンスと効率の探索 Apr 18, 2025 am 12:20 AM

Pythonは開発効率でCよりも優れていますが、Cは実行パフォーマンスが高くなっています。 1。Pythonの簡潔な構文とリッチライブラリは、開発効率を向上させます。 2.Cのコンピレーションタイプの特性とハードウェア制御により、実行パフォーマンスが向上します。選択を行うときは、プロジェクトのニーズに基づいて開発速度と実行効率を比較検討する必要があります。

Python vs. C:重要な違​​いを理解します Python vs. C:重要な違​​いを理解します Apr 21, 2025 am 12:18 AM

PythonとCにはそれぞれ独自の利点があり、選択はプロジェクトの要件に基づいている必要があります。 1)Pythonは、簡潔な構文と動的タイピングのため、迅速な開発とデータ処理に適しています。 2)Cは、静的なタイピングと手動メモリ管理により、高性能およびシステムプログラミングに適しています。

Python Standard Libraryの一部はどれですか:リストまたは配列はどれですか? Python Standard Libraryの一部はどれですか:リストまたは配列はどれですか? Apr 27, 2025 am 12:03 AM

PythonListSarePartOfThestAndardarenot.liestareBuilting-in、versatile、forStoringCollectionsのpythonlistarepart。

Python:自動化、スクリプト、およびタスク管理 Python:自動化、スクリプト、およびタスク管理 Apr 16, 2025 am 12:14 AM

Pythonは、自動化、スクリプト、およびタスク管理に優れています。 1)自動化:OSやShutilなどの標準ライブラリを介してファイルバックアップが実現されます。 2)スクリプトの書き込み:Psutilライブラリを使用してシステムリソースを監視します。 3)タスク管理:スケジュールライブラリを使用してタスクをスケジュールします。 Pythonの使いやすさと豊富なライブラリサポートにより、これらの分野で優先ツールになります。

科学コンピューティングのためのPython:詳細な外観 科学コンピューティングのためのPython:詳細な外観 Apr 19, 2025 am 12:15 AM

科学コンピューティングにおけるPythonのアプリケーションには、データ分析、機械学習、数値シミュレーション、視覚化が含まれます。 1.numpyは、効率的な多次元配列と数学的関数を提供します。 2。ScipyはNumpy機能を拡張し、最適化と線形代数ツールを提供します。 3. Pandasは、データ処理と分析に使用されます。 4.matplotlibは、さまざまなグラフと視覚的な結果を生成するために使用されます。

Web開発用のPython:主要なアプリケーション Web開発用のPython:主要なアプリケーション Apr 18, 2025 am 12:20 AM

Web開発におけるPythonの主要なアプリケーションには、DjangoおよびFlaskフレームワークの使用、API開発、データ分析と視覚化、機械学習とAI、およびパフォーマンスの最適化が含まれます。 1。DjangoandFlask Framework:Djangoは、複雑な用途の迅速な発展に適しており、Flaskは小規模または高度にカスタマイズされたプロジェクトに適しています。 2。API開発:フラスコまたはdjangorestFrameworkを使用して、Restfulapiを構築します。 3。データ分析と視覚化:Pythonを使用してデータを処理し、Webインターフェイスを介して表示します。 4。機械学習とAI:Pythonは、インテリジェントWebアプリケーションを構築するために使用されます。 5。パフォーマンスの最適化:非同期プログラミング、キャッシュ、コードを通じて最適化

See all articles