Maison > développement back-end > Tutoriel Python > Maison_Price_Prediction

Maison_Price_Prediction

Patricia Arquette
Libérer: 2024-11-03 12:28:29
original
249 Les gens l'ont consulté

Dans le monde de l'immobilier, la détermination des prix de l'immobilier implique de nombreux facteurs, de l'emplacement et de la taille aux commodités et aux tendances du marché. La régression linéaire simple, une technique fondamentale de l'apprentissage automatique, offre un moyen pratique de prédire les prix des logements en fonction de caractéristiques clés telles que le nombre de pièces ou la superficie en pieds carrés.

Dans cet article, j'aborde le processus d'application d'une régression linéaire simple à un ensemble de données sur le logement, du prétraitement des données et de la sélection des caractéristiques à la création d'un modèle pouvant offrir des informations précieuses sur les prix. Que vous soyez nouveau dans la science des données ou que vous cherchiez à approfondir vos connaissances, ce projet constitue une exploration pratique de la manière dont les prédictions basées sur les données peuvent façonner des décisions immobilières plus intelligentes.

Tout d'abord, vous commencez par importer vos bibliothèques :

import pandas as pd
import seaborn as sns
import numpy as np
import matplotlib.pyplot as plt
Copier après la connexion
Copier après la connexion
#Read from the directory where you stored the data

data  = pd.read_csv('/kaggle/input/california-housing-prices/housing.csv')
Copier après la connexion
Copier après la connexion
data
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

Maison_Price_Prediction

#Test to see if there arent any null values
data.info()
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

#Trying to draw the same number of null values
data.dropna(inplace = True)
Copier après la connexion
Copier après la connexion
data.info()
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

#From our data, we are going to train and test our data

from sklearn.model_selection import train_test_split

X = data.drop(['median_house_value'], axis = 1)
y = data['median_house_value']
Copier après la connexion
Copier après la connexion
y
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
Copier après la connexion
Copier après la connexion
#Examining correlation between x and y training data
train_data = X_train.join(y_train)
Copier après la connexion
Copier après la connexion
train_data
Copier après la connexion
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

Maison_Price_Prediction

#Visualizing the above
train_data.hist(figsize=(15, 8))
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

#Encoding non-numeric columns to see if they are useful and categorical for analysis

train_data_encoded = pd.get_dummies(train_data, drop_first=True)
correlation_matrix = train_data_encoded.corr()
print(correlation_matrix)
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

Maison_Price_Prediction

Maison_Price_Prediction

train_data_encoded.corr()
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

Maison_Price_Prediction

Maison_Price_Prediction

plt.figure(figsize=(15,8))
sns.heatmap(train_data_encoded.corr(), annot=True, cmap = "inferno")
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

import pandas as pd
import seaborn as sns
import numpy as np
import matplotlib.pyplot as plt
Copier après la connexion
Copier après la connexion
#Read from the directory where you stored the data

data  = pd.read_csv('/kaggle/input/california-housing-prices/housing.csv')
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

data
Copier après la connexion
Copier après la connexion

proximité_océan
INTÉRIEUR 5183
PROCHE OCÉAN 2108
PRÈS DE LA BAIE 1783
ÎLE 5
Nom : count, type : int64

#Test to see if there arent any null values
data.info()
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

#Trying to draw the same number of null values
data.dropna(inplace = True)
Copier après la connexion
Copier après la connexion
data.info()
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

Maison_Price_Prediction

#From our data, we are going to train and test our data

from sklearn.model_selection import train_test_split

X = data.drop(['median_house_value'], axis = 1)
y = data['median_house_value']
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

y
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)
Copier après la connexion
Copier après la connexion
#Examining correlation between x and y training data
train_data = X_train.join(y_train)
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

train_data
Copier après la connexion
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

#Visualizing the above
train_data.hist(figsize=(15, 8))
Copier après la connexion
Copier après la connexion
#Encoding non-numeric columns to see if they are useful and categorical for analysis

train_data_encoded = pd.get_dummies(train_data, drop_first=True)
correlation_matrix = train_data_encoded.corr()
print(correlation_matrix)
Copier après la connexion
Copier après la connexion
train_data_encoded.corr()
Copier après la connexion
Copier après la connexion
plt.figure(figsize=(15,8))
sns.heatmap(train_data_encoded.corr(), annot=True, cmap = "inferno")
Copier après la connexion
Copier après la connexion
train_data['total_rooms'] = np.log(train_data['total_rooms'] + 1)
train_data['total_bedrooms'] = np.log(train_data['total_bedrooms'] +1)
train_data['population'] = np.log(train_data['population'] + 1)
train_data['households'] = np.log(train_data['households'] + 1)
Copier après la connexion
train_data.hist(figsize=(15, 8))
Copier après la connexion

0.5092972905670141

#convert ocean_proximity factors into binary's using one_hot_encoding
train_data.ocean_proximity.value_counts()
Copier après la connexion

Maison_Price_Prediction

#For each feature of the above we will then create its binary(0 or 1)
pd.get_dummies(train_data.ocean_proximity)
Copier après la connexion

0.4447616558596853

#Dropping afterwards the proximity
train_data = train_data.join(pd.get_dummies(train_data.ocean_proximity)).drop(['ocean_proximity'], axis=1)
Copier après la connexion

Maison_Price_Prediction

train_data
Copier après la connexion
Copier après la connexion
Copier après la connexion

Maison_Price_Prediction

#recheck for correlation
plt.figure(figsize=(18, 8))
sns.heatmap(train_data.corr(), annot=True, cmap ='twilight')
Copier après la connexion

0.5384474921332503

Je dirais vraiment que l'entraînement d'une machine n'est pas le processus le plus simple, mais pour continuer à améliorer les résultats ci-dessus, vous pouvez ajouter plus de fonctionnalités sous la param_grid telles que min_feature et de cette façon, votre meilleur score d'estimateur peut continuer à s'améliorer.

Si vous êtes arrivé jusqu'ici, veuillez aimer et partager votre commentaire ci-dessous, votre opinion compte vraiment. Merci !??❤️

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:dev.to
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Derniers articles par auteur
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal