Table des matières
101 livres
Nos Créations
Nous sommes sur Medium
Maison développement back-end Tutoriel Python Maîtriser l'optimisation de la mémoire Python : techniques de science des données et d'apprentissage automatique

Maîtriser l'optimisation de la mémoire Python : techniques de science des données et d'apprentissage automatique

Jan 20, 2025 am 06:14 AM

Mastering Python Memory Optimization: Techniques for Data Science and Machine Learning

En tant qu'auteur prolifique, je vous invite à explorer ma collection de livres Amazon. N'oubliez pas de me suivre sur Medium pour les mises à jour et montrez votre soutien ! Vos encouragements sont grandement appréciés !

L'importance croissante de Python dans la science des données et l'apprentissage automatique nécessite une gestion efficace de la mémoire pour les projets à grande échelle. La taille croissante des ensembles de données et les demandes de calcul croissantes rendent cruciale l’optimisation de l’utilisation de la mémoire. Mon expérience avec les applications Python gourmandes en mémoire a donné naissance à plusieurs stratégies d'optimisation efficaces, que je partagerai ici.

Nous commencerons par NumPy, une bibliothèque fondamentale pour le calcul numérique. Les tableaux NumPy offrent des avantages substantiels en matière de mémoire par rapport aux listes Python, en particulier pour les ensembles de données étendus. Leur allocation de mémoire contiguë et leur typage statique minimisent les frais généraux.

Considérez cette comparaison :

import numpy as np
import sys

# Creating a list and a NumPy array with 1 million integers
py_list = list(range(1000000))
np_array = np.arange(1000000)

# Comparing memory usage
print(f"Python list size: {sys.getsizeof(py_list) / 1e6:.2f} MB")
print(f"NumPy array size: {np_array.nbytes / 1e6:.2f} MB")
Copier après la connexion
Copier après la connexion

La plus petite empreinte mémoire de la baie NumPy sera évidente. Cette disparité devient plus prononcée avec des ensembles de données plus volumineux.

NumPy fournit également des opérations économes en mémoire. Au lieu de générer de nouveaux tableaux pour chaque opération, il modifie souvent les tableaux sur place :

# In-place operations
np_array += 1  # Modifies the original array directly
Copier après la connexion
Copier après la connexion

En ce qui concerne Pandas, les types de données catégorielles sont la clé de l'optimisation de la mémoire. Pour les colonnes de chaîne avec des valeurs uniques limitées, la conversion en type catégoriel réduit considérablement la consommation de mémoire :

import pandas as pd

# DataFrame with repeated string values
df = pd.DataFrame({'category': ['A', 'B', 'C'] * 1000000})

# Memory usage check
print(f"Original memory usage: {df.memory_usage(deep=True).sum() / 1e6:.2f} MB")

# Conversion to categorical
df['category'] = pd.Categorical(df['category'])

# Post-conversion memory usage
print(f"Memory usage after conversion: {df.memory_usage(deep=True).sum() / 1e6:.2f} MB")
Copier après la connexion
Copier après la connexion

Les économies de mémoire peuvent être substantielles, en particulier avec de grands ensembles de données contenant des chaînes répétitives.

Pour les ensembles de données clairsemés, Pandas propose des structures de données clairsemées, stockant uniquement des valeurs non nulles, ce qui entraîne des économies de mémoire significatives pour les ensembles de données contenant de nombreuses valeurs nulles ou nulles :

# Creating a sparse series
sparse_series = pd.Series([0, 0, 1, 0, 2, 0, 0, 3], dtype="Sparse[int]")

print(f"Memory usage: {sparse_series.memory_usage(deep=True) / 1e3:.2f} KB")
Copier après la connexion
Copier après la connexion

Lorsque les ensembles de données dépassent la RAM disponible, les fichiers mappés en mémoire sont transformateurs. Ils permettent de travailler avec des fichiers volumineux comme s'ils étaient en mémoire, sans charger l'intégralité du fichier :

import mmap
import os

# Creating a large file
with open('large_file.bin', 'wb') as f:
    f.write(b'0' * 1000000000)  # 1 GB file

# Memory-mapping the file
with open('large_file.bin', 'r+b') as f:
    mmapped_file = mmap.mmap(f.fileno(), 0)

# Reading from the memory-mapped file
print(mmapped_file[1000000:1000010])

# Cleaning up
mmapped_file.close()
os.remove('large_file.bin')
Copier après la connexion
Copier après la connexion

Ceci est particulièrement utile pour un accès aléatoire sur des fichiers volumineux sans les charger complètement en mémoire.

Les expressions génératrices et itertools sont puissantes pour un traitement de données économe en mémoire. Ils permettent de traiter de grands ensembles de données sans tout charger simultanément en mémoire :

import itertools

# Generator expression
sum_squares = sum(x*x for x in range(1000000))

# Using itertools for memory-efficient operations
evens = itertools.islice(itertools.count(0, 2), 1000000)
sum_evens = sum(evens)

print(f"Sum of squares: {sum_squares}")
print(f"Sum of even numbers: {sum_evens}")
Copier après la connexion
Copier après la connexion

Ces techniques minimisent la surcharge de mémoire lors du traitement de grands ensembles de données.

Pour les sections de code critiques en termes de performances, Cython offre un potentiel d'optimisation important. La compilation du code Python en C entraîne des améliorations substantielles de la vitesse et une réduction potentielle de la mémoire :

def sum_squares_cython(int n):
    cdef int i
    cdef long long result = 0
    for i in range(n):
        result += i * i
    return result

# Usage
result = sum_squares_cython(1000000)
print(f"Sum of squares: {result}")
Copier après la connexion

Cette fonction Cython surpassera son homologue Python pur, en particulier pour les grandes n valeurs.

PyPy, un compilateur Just-In-Time, propose des optimisations automatiques de la mémoire. C'est particulièrement bénéfique pour les programmes de longue durée, réduisant souvent considérablement l'utilisation de la mémoire :

import numpy as np
import sys

# Creating a list and a NumPy array with 1 million integers
py_list = list(range(1000000))
np_array = np.arange(1000000)

# Comparing memory usage
print(f"Python list size: {sys.getsizeof(py_list) / 1e6:.2f} MB")
print(f"NumPy array size: {np_array.nbytes / 1e6:.2f} MB")
Copier après la connexion
Copier après la connexion

PyPy peut conduire à une amélioration de l'efficacité et de la vitesse de la mémoire par rapport au CPython standard.

Le profilage de la mémoire est essentiel pour identifier les opportunités d'optimisation. La memory_profiler bibliothèque est un outil précieux :

# In-place operations
np_array += 1  # Modifies the original array directly
Copier après la connexion
Copier après la connexion

Utilisez mprof run script.py et mprof plot pour visualiser l'utilisation de la mémoire.

Résoudre les fuites de mémoire est crucial. Le module tracemalloc (Python 3.4 ) permet d'identifier les sources d'allocation de mémoire :

import pandas as pd

# DataFrame with repeated string values
df = pd.DataFrame({'category': ['A', 'B', 'C'] * 1000000})

# Memory usage check
print(f"Original memory usage: {df.memory_usage(deep=True).sum() / 1e6:.2f} MB")

# Conversion to categorical
df['category'] = pd.Categorical(df['category'])

# Post-conversion memory usage
print(f"Memory usage after conversion: {df.memory_usage(deep=True).sum() / 1e6:.2f} MB")
Copier après la connexion
Copier après la connexion

Cela identifie les sections de code gourmandes en mémoire.

Pour les applications extrêmement gourmandes en mémoire, une gestion personnalisée de la mémoire peut être nécessaire. Cela pourrait impliquer des pools d'objets pour la réutilisation d'objets ou une mise en cache personnalisée :

# Creating a sparse series
sparse_series = pd.Series([0, 0, 1, 0, 2, 0, 0, 3], dtype="Sparse[int]")

print(f"Memory usage: {sparse_series.memory_usage(deep=True) / 1e3:.2f} KB")
Copier après la connexion
Copier après la connexion

Cela minimise les frais de création/destruction d'objets.

Pour des ensembles de données exceptionnellement volumineux, envisagez des bibliothèques de calcul hors cœur comme Dask :

import mmap
import os

# Creating a large file
with open('large_file.bin', 'wb') as f:
    f.write(b'0' * 1000000000)  # 1 GB file

# Memory-mapping the file
with open('large_file.bin', 'r+b') as f:
    mmapped_file = mmap.mmap(f.fileno(), 0)

# Reading from the memory-mapped file
print(mmapped_file[1000000:1000010])

# Cleaning up
mmapped_file.close()
os.remove('large_file.bin')
Copier après la connexion
Copier après la connexion

Dask gère des ensembles de données plus grands que la RAM disponible en divisant les calculs en morceaux plus petits.

L'optimisation des algorithmes est également vitale. Choisir des algorithmes efficaces peut réduire considérablement l'utilisation de la mémoire :

import itertools

# Generator expression
sum_squares = sum(x*x for x in range(1000000))

# Using itertools for memory-efficient operations
evens = itertools.islice(itertools.count(0, 2), 1000000)
sum_evens = sum(evens)

print(f"Sum of squares: {sum_squares}")
print(f"Sum of even numbers: {sum_evens}")
Copier après la connexion
Copier après la connexion

Cette fonction de Fibonacci optimisée utilise une mémoire constante, contrairement à une implémentation récursive naïve.

En résumé, une optimisation efficace de la mémoire Python combine des structures de données efficaces, des bibliothèques spécialisées, un codage efficace en mémoire et des algorithmes appropriés. Ces techniques réduisent l'empreinte mémoire, permettant la gestion d'ensembles de données plus volumineux et des calculs plus complexes. N'oubliez pas de profiler votre code pour identifier les goulots d'étranglement et concentrer les efforts d'optimisation là où ils auront le plus grand impact.


101 livres

101 Books, une maison d'édition basée sur l'IA et cofondée par l'auteur Aarav Joshi, exploite l'IA pour minimiser les coûts de publication, rendant ainsi accessible des connaissances de qualité (certains livres coûtent aussi peu que 4 $ !).

Retrouvez notre livre Golang Clean Code sur Amazon.

Pour des mises à jour et plus de titres, recherchez Aarav Joshi sur Amazon. Des remises spéciales sont disponibles via [lien].

Nos Créations

Découvrez nos créations :

Centre des investisseurs | Centre des investisseurs espagnol | Investisseur central allemand | Vie intelligente | Époques & Échos | Mystères déroutants | Hindutva | Développeur Élite | Écoles JS


Nous sommes sur Medium

Tech Koala Insights | Epoques & Echos Monde | Support Central des Investisseurs | Mystères déroutants Medium | Sciences & Epoques Medium | Hindutva moderne

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

Video Face Swap

Video Face Swap

Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

<🎜>: Bubble Gum Simulator Infinity - Comment obtenir et utiliser les clés royales
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
<🎜>: Grow A Garden - Guide de mutation complet
3 Il y a quelques semaines By DDD
Nordhold: Système de fusion, expliqué
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Whispers of the Witch Tree - Comment déverrouiller le grappin
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Tutoriel Java
1673
14
Tutoriel PHP
1278
29
Tutoriel C#
1257
24
Python vs C: courbes d'apprentissage et facilité d'utilisation Python vs C: courbes d'apprentissage et facilité d'utilisation Apr 19, 2025 am 12:20 AM

Python est plus facile à apprendre et à utiliser, tandis que C est plus puissant mais complexe. 1. La syntaxe Python est concise et adaptée aux débutants. Le typage dynamique et la gestion automatique de la mémoire le rendent facile à utiliser, mais peuvent entraîner des erreurs d'exécution. 2.C fournit des fonctionnalités de contrôle de bas niveau et avancées, adaptées aux applications haute performance, mais a un seuil d'apprentissage élevé et nécessite une gestion manuelle de la mémoire et de la sécurité.

Apprendre Python: 2 heures d'étude quotidienne est-elle suffisante? Apprendre Python: 2 heures d'étude quotidienne est-elle suffisante? Apr 18, 2025 am 12:22 AM

Est-ce suffisant pour apprendre Python pendant deux heures par jour? Cela dépend de vos objectifs et de vos méthodes d'apprentissage. 1) Élaborer un plan d'apprentissage clair, 2) Sélectionnez les ressources et méthodes d'apprentissage appropriées, 3) la pratique et l'examen et la consolidation de la pratique pratique et de l'examen et de la consolidation, et vous pouvez progressivement maîtriser les connaissances de base et les fonctions avancées de Python au cours de cette période.

Python vs. C: Explorer les performances et l'efficacité Python vs. C: Explorer les performances et l'efficacité Apr 18, 2025 am 12:20 AM

Python est meilleur que C dans l'efficacité du développement, mais C est plus élevé dans les performances d'exécution. 1. La syntaxe concise de Python et les bibliothèques riches améliorent l'efficacité du développement. Les caractéristiques de type compilation et le contrôle du matériel de CC améliorent les performances d'exécution. Lorsque vous faites un choix, vous devez peser la vitesse de développement et l'efficacité de l'exécution en fonction des besoins du projet.

Python vs C: Comprendre les principales différences Python vs C: Comprendre les principales différences Apr 21, 2025 am 12:18 AM

Python et C ont chacun leurs propres avantages, et le choix doit être basé sur les exigences du projet. 1) Python convient au développement rapide et au traitement des données en raison de sa syntaxe concise et de son typage dynamique. 2) C convient à des performances élevées et à une programmation système en raison de son typage statique et de sa gestion de la mémoire manuelle.

Quelle partie fait partie de la bibliothèque standard Python: listes ou tableaux? Quelle partie fait partie de la bibliothèque standard Python: listes ou tableaux? Apr 27, 2025 am 12:03 AM

PythonlistSaReparmentofthestandardLibrary, tandis que les coloccules de colocède, tandis que les colocculations pour la base de la Parlementaire, des coloments de forage polyvalent, tandis que la fonctionnalité de la fonctionnalité nettement adressée.

Python: automatisation, script et gestion des tâches Python: automatisation, script et gestion des tâches Apr 16, 2025 am 12:14 AM

Python excelle dans l'automatisation, les scripts et la gestion des tâches. 1) Automatisation: La sauvegarde du fichier est réalisée via des bibliothèques standard telles que le système d'exploitation et la fermeture. 2) Écriture de script: utilisez la bibliothèque PSUTIL pour surveiller les ressources système. 3) Gestion des tâches: utilisez la bibliothèque de planification pour planifier les tâches. La facilité d'utilisation de Python et la prise en charge de la bibliothèque riche en font l'outil préféré dans ces domaines.

Python pour l'informatique scientifique: un look détaillé Python pour l'informatique scientifique: un look détaillé Apr 19, 2025 am 12:15 AM

Les applications de Python en informatique scientifique comprennent l'analyse des données, l'apprentissage automatique, la simulation numérique et la visualisation. 1.Numpy fournit des tableaux multidimensionnels et des fonctions mathématiques efficaces. 2. Scipy étend la fonctionnalité Numpy et fournit des outils d'optimisation et d'algèbre linéaire. 3. Pandas est utilisé pour le traitement et l'analyse des données. 4.Matplotlib est utilisé pour générer divers graphiques et résultats visuels.

Python pour le développement Web: applications clés Python pour le développement Web: applications clés Apr 18, 2025 am 12:20 AM

Les applications clés de Python dans le développement Web incluent l'utilisation des cadres Django et Flask, le développement de l'API, l'analyse et la visualisation des données, l'apprentissage automatique et l'IA et l'optimisation des performances. 1. Framework Django et Flask: Django convient au développement rapide d'applications complexes, et Flask convient aux projets petits ou hautement personnalisés. 2. Développement de l'API: Utilisez Flask ou DjangorestFramework pour construire RestulAPI. 3. Analyse et visualisation des données: utilisez Python pour traiter les données et les afficher via l'interface Web. 4. Apprentissage automatique et AI: Python est utilisé pour créer des applications Web intelligentes. 5. Optimisation des performances: optimisée par la programmation, la mise en cache et le code asynchrones

See all articles