


Comment diviser efficacement une colonne de dictionnaires Pandas DataFrame en colonnes distinctes ?
Diviser une colonne de dictionnaires en colonnes séparées avec des pandas
Introduction au problème
Lorsque vous travaillez avec Pandas DataFrames, il arrive souvent qu'une colonne contienne des dictionnaires comme valeurs. Cela peut poser des problèmes lors d'une analyse plus approfondie des données, car les dictionnaires doivent être divisés en colonnes distinctes pour une meilleure accessibilité et manipulation. Ce problème devient particulièrement pertinent lorsque les dictionnaires ont des longueurs variables et contiennent des clés partagées.
Approche originale et erreur
L'utilisateur dans le message du forum décrit un DataFrame où le ' La colonne Niveaux de polluants contient des dictionnaires. Initialement, ils ont tenté de diviser cette colonne à l'aide du code suivant :
objs = [df, pandas.DataFrame(df['Pollutant Levels'].tolist()).iloc[:, :3]] df2 = pandas.concat(objs, axis=1).drop('Pollutant Levels', axis=1)
Cependant, cette méthode a entraîné une IndexError en raison d'un découpage hors limites.
Problème Unicode
L'utilisateur soupçonne en outre que le format Unicode des dictionnaires dans la colonne « Niveaux de pollution » peut être à l'origine du problème. Ils se présentent sous la forme :
u{'a': '1', 'b': '2', 'c': '3'}
au lieu de :
{u'a': '1', u'b': '2', u'c': '3'}
Solution
Pour répondre à ces problématiques, l'approche suivante est recommandée :
import pandas as pd df['Pollutant Levels'] = df['Pollutant Levels'].apply(lambda x: dict(x)) df2 = pd.json_normalize(df['Pollutant Levels'])
Explication
Le la première ligne de code convertit les dictionnaires Unicode en dictionnaires standard. La deuxième ligne utilise la fonction json_normalize de Pandas, qui constitue un moyen pratique de convertir une colonne de dictionnaires en colonnes distinctes. Cette fonction évite le besoin de fonctions d'application coûteuses et produit le DataFrame souhaité :
Station ID a b c 8809 46 3 12 8810 36 5 8 8811 NaN 2 7 8812 NaN NaN 11 8813 82 NaN 15
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Sujets chauds

Comment éviter d'être détecté lors de l'utilisation de FiddlereVerywhere pour les lectures d'homme dans le milieu lorsque vous utilisez FiddlereVerywhere ...

Fastapi ...

Utilisation de Python dans Linux Terminal ...

Comment enseigner les bases de la programmation novice en informatique dans les 10 heures? Si vous n'avez que 10 heures pour enseigner à l'informatique novice des connaissances en programmation, que choisissez-vous d'enseigner ...

À propos de Pythonasyncio ...

Comprendre la stratégie anti-rampe d'investissement.com, Beaucoup de gens essaient souvent de ramper les données d'actualités sur Investing.com (https://cn.investing.com/news/latest-news) ...

Chargement du fichier de cornichon dans Python 3.6 Erreur d'environnement: modulenotFounonError: NomoduLenamed ...

Discussion sur les raisons pour lesquelles les fichiers de pipelines ne peuvent pas être écrits lors de l'utilisation de robots scapisnels lors de l'apprentissage et de l'utilisation de Crawlers scapides pour un stockage de données persistant, vous pouvez rencontrer des fichiers de pipeline ...
