백엔드 개발 파이썬 튜토리얼 ML 모델을 위한 데이터 전처리 기술

ML 모델을 위한 데이터 전처리 기술

Dec 03, 2024 am 10:39 AM

Data Preprocessing Techniques for ML Models

데이터 전처리는 데이터세트가 기계 학습이나 기타 작업에 사용되기 전에 데이터세트에 대해 특정 작업이나 단계를 수행하는 행위입니다. 데이터 전처리에는 품질을 향상하거나 주요 목적(이 경우 모델 교육)에 적합한지 확인하기 위해 데이터 정리, 형식 지정 또는 변환이 포함됩니다. 깨끗하고 고품질의 데이터세트는 머신러닝 모델의 성능을 향상시킵니다.

낮은 품질의 데이터와 관련된 일반적인 문제는 다음과 같습니다.

  • 누락된 값
  • 일관되지 않은 형식
  • 중복된 ​​값
  • 관련 없는 기능

이 기사에서는 학습 모델에 사용할 데이터 세트를 준비하는 몇 가지 일반적인 데이터 전처리 기술을 보여 드리겠습니다. Python에 대한 기본 지식과 Python 라이브러리 및 프레임워크를 사용하는 방법이 필요합니다.

요구사항:
이 가이드를 최대한 활용하려면 다음이 필요합니다

  • 파이썬 3.12
  • Jupyter Notebook 또는 좋아하는 노트북
  • 넘피
  • 판다
  • 사이피
  • Scikit 학습
  • 멜버른 주택 데이터세트

Github에서 Jupyter Notebook의 각 코드 출력을 확인할 수도 있습니다.

설정

아직 Python을 설치하지 않았다면 Python 웹사이트에서 다운로드하여 지침에 따라 설치할 수 있습니다.

Python이 설치되면 필수 라이브러리를 설치하세요

pip install numpy scipy pandas scikit-learn
로그인 후 복사
로그인 후 복사
로그인 후 복사

Jupyter 노트북을 설치하세요.

pip install notebook
로그인 후 복사
로그인 후 복사

설치 후 다음 명령으로 Jupyter Notebook을 시작하세요

jupyter notebook
로그인 후 복사
로그인 후 복사

기본 웹 브라우저에서 Jupyter Notebook이 실행됩니다. 그렇지 않은 경우 터미널에서 브라우저에 수동으로 붙여넣을 수 있는 링크를 확인하세요.

파일 메뉴에서 새 노트북을 열고 필요한 라이브러리를 가져온 후 셀을 실행하세요

import numpy as np
import pandas as pd
import scipy
import sklearn
로그인 후 복사
로그인 후 복사

멜버른 주택 데이터세트 사이트에 가서 데이터세트를 다운로드하세요. 다음 코드를 사용하여 데이터 세트를 노트북에 로드합니다. 컴퓨터의 파일 경로를 복사하여 read_csv 함수에 붙여 넣을 수 있습니다. csv 파일을 노트와 같은 폴더에 넣어서 아래와 같이 파일을 불러올 수도 있습니다.

data = pd.read_csv(r"melb_data.csv")

# View the first 5 columns of the dataset
data.head()
로그인 후 복사
로그인 후 복사

데이터를 훈련 세트와 검증 세트로 분할

from sklearn.model_selection import train_test_split

# Set the target
y = data['Price']

# Firstly drop categorical data types
melb_features = data.drop(['Price'], axis=1) #drop the target column

X = melb_features.select_dtypes(exclude=['object'])

# Divide data into training and validation sets
X_train, X_valid, y_train, y_valid = train_test_split(X, y, train_size=0.8, test_size=0.2, random_state=0)
로그인 후 복사
로그인 후 복사

데이터 유출을 방지하려면 데이터를 학습 세트와 검증 세트로 분할해야 합니다. 결과적으로 학습 기능 세트에서 수행하는 전처리 기술은 검증 기능 세트에서 수행하는 것과 동일합니다.

이제 데이터 세트를 처리할 준비가 되었습니다!

데이터 정리

결측값 처리
데이터 세트의 누락된 값은 드레스를 재봉하는 데 사용되는 천에 있는 구멍과 같습니다. 만들기도 전에 드레스를 망쳐 놓거든요.

데이터세트의 누락된 값을 처리하는 방법에는 3가지가 있습니다.

  1. 빈 셀이 있는 행이나 열을 삭제하세요.
pip install numpy scipy pandas scikit-learn
로그인 후 복사
로그인 후 복사
로그인 후 복사

이 방법의 문제는 모델을 훈련하는 데 사용할 귀중한 정보를 잃을 수 있다는 것입니다. 삭제된 행이나 열의 값 대부분이 누락되지 않는 한, 빈 셀이 있는 행이나 열을 삭제할 필요는 없습니다.

  1. 빈 셀에 값 대치 특정 열에 있는 데이터의 평균, 중앙값 또는 모드를 사용하여 빈 셀을 대치하거나 채울 수 있습니다. Scikit learn의 SimpleImputer는 빈 셀의 값을 대치하는 데 사용됩니다.
pip install notebook
로그인 후 복사
로그인 후 복사
  1. 귀속 및 통지 이것이 작동하는 방식은 빈 셀에 값을 대치하지만 셀이 처음에 비어 있었음을 나타내는 열도 생성한다는 것입니다.
jupyter notebook
로그인 후 복사
로그인 후 복사

중복제거
중복 셀은 반복되는 데이터를 의미하며 모델 정확도에 영향을 미칩니다. 그들을 처리하는 유일한 방법은 그들을 버리는 것입니다.

import numpy as np
import pandas as pd
import scipy
import sklearn
로그인 후 복사
로그인 후 복사

이상값 처리
이상값은 데이터 세트의 다른 값과 크게 다른 값입니다. 다른 데이터 값에 비해 비정상적으로 높거나 낮을 수 있습니다. 이는 입력 오류로 인해 발생할 수도 있고 실제로는 이상치일 수도 있습니다.

이상치를 처리하는 것이 중요합니다. 그렇지 않으면 부정확한 데이터 분석이나 모델로 이어질 수 있습니다. 이상값을 감지하는 한 가지 방법은 Z-점수를 계산하는 것입니다.

작동 방식은 z-score를 사용하여 데이터 포인트가 평균값에서 3포인트 이상 떨어져 있는지 확인하는 것입니다. 이 계산은 모든 데이터 포인트에 대해 수행됩니다. 데이터 포인트의 z-점수가 3 이상인 경우 해당 데이터 포인트는 이상치입니다.

data = pd.read_csv(r"melb_data.csv")

# View the first 5 columns of the dataset
data.head()
로그인 후 복사
로그인 후 복사

데이터 변환

정규화
정규 분포로 설명할 수 있도록 특성을 정규화합니다.

정규 분포(가우시안 분포라고도 함)는 평균 위와 아래에 대략 동일한 거리 또는 분포가 있는 통계 분포입니다. 정규 분포 데이터의 데이터 포인트 그래프는 종형 곡선을 형성합니다.

데이터 정규화의 요점은 사용하려는 머신러닝 알고리즘이 데이터가 정규 분포를 따른다고 가정하는 것입니다. 예를 들어 Gaussian Naive Bayes 모델이 있습니다.

from sklearn.model_selection import train_test_split

# Set the target
y = data['Price']

# Firstly drop categorical data types
melb_features = data.drop(['Price'], axis=1) #drop the target column

X = melb_features.select_dtypes(exclude=['object'])

# Divide data into training and validation sets
X_train, X_valid, y_train, y_valid = train_test_split(X, y, train_size=0.8, test_size=0.2, random_state=0)
로그인 후 복사
로그인 후 복사

표준화
표준화는 데이터 세트의 기능을 평균 0, 표준 편차 1로 변환합니다. 이 프로세스는 데이터 전체에서 유사한 범위를 갖도록 각 기능의 크기를 조정합니다. 이렇게 하면 각 기능이 모델 학습에 동일하게 기여할 수 있습니다.

다음과 같은 경우 표준화를 사용합니다.

  • 데이터의 특징은 다양한 척도나 단위로 되어 있습니다.
  • 사용하려는 기계 학습 모델은 거리 또는 경사 기반 최적화(예: 선형 회귀, 로지스틱 회귀, K-평균 클러스터링)를 기반으로 합니다.

sklearn 라이브러리의 StandardScaler()를 사용하여 기능을 표준화합니다.

pip install numpy scipy pandas scikit-learn
로그인 후 복사
로그인 후 복사
로그인 후 복사

결론

데이터 전처리는 단순한 예비 단계가 아닙니다. 이는 정확한 기계 학습 모델을 구축하는 프로세스의 일부입니다. 또한 작업 중인 데이터 세트의 요구 사항에 맞게 조정할 수도 있습니다.

대부분의 활동과 마찬가지로 연습을 하면 완벽해집니다. 계속해서 데이터를 전처리하면 모델뿐만 아니라 기술도 향상됩니다.

이것에 대한 귀하의 생각을 읽고 싶습니다 ?

위 내용은 ML 모델을 위한 데이터 전처리 기술의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

Python vs. C : 학습 곡선 및 사용 편의성 Python vs. C : 학습 곡선 및 사용 편의성 Apr 19, 2025 am 12:20 AM

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

Python 학습 : 2 시간의 일일 연구가 충분합니까? Python 학습 : 2 시간의 일일 연구가 충분합니까? Apr 18, 2025 am 12:22 AM

하루에 2 시간 동안 파이썬을 배우는 것으로 충분합니까? 목표와 학습 방법에 따라 다릅니다. 1) 명확한 학습 계획을 개발, 2) 적절한 학습 자원 및 방법을 선택하고 3) 실습 연습 및 검토 및 통합 연습 및 검토 및 통합,이 기간 동안 Python의 기본 지식과 고급 기능을 점차적으로 마스터 할 수 있습니다.

Python vs. C : 성능과 효율성 탐색 Python vs. C : 성능과 효율성 탐색 Apr 18, 2025 am 12:20 AM

Python은 개발 효율에서 C보다 낫지 만 C는 실행 성능이 높습니다. 1. Python의 간결한 구문 및 풍부한 라이브러리는 개발 효율성을 향상시킵니다. 2.C의 컴파일 유형 특성 및 하드웨어 제어는 실행 성능을 향상시킵니다. 선택할 때는 프로젝트 요구에 따라 개발 속도 및 실행 효율성을 평가해야합니다.

Python vs. C : 주요 차이점 이해 Python vs. C : 주요 차이점 이해 Apr 21, 2025 am 12:18 AM

Python과 C는 각각 고유 한 장점이 있으며 선택은 프로젝트 요구 사항을 기반으로해야합니다. 1) Python은 간결한 구문 및 동적 타이핑으로 인해 빠른 개발 및 데이터 처리에 적합합니다. 2) C는 정적 타이핑 및 수동 메모리 관리로 인해 고성능 및 시스템 프로그래밍에 적합합니다.

Python Standard Library의 일부는 무엇입니까? 목록 또는 배열은 무엇입니까? Python Standard Library의 일부는 무엇입니까? 목록 또는 배열은 무엇입니까? Apr 27, 2025 am 12:03 AM

Pythonlistsarepartoftsandardlardlibrary, whileraysarenot.listsarebuilt-in, 다재다능하고, 수집 할 수있는 반면, arraysarreprovidedByTearRaymoduledlesscommonlyusedDuetolimitedFunctionality.

파이썬 : 자동화, 스크립팅 및 작업 관리 파이썬 : 자동화, 스크립팅 및 작업 관리 Apr 16, 2025 am 12:14 AM

파이썬은 자동화, 스크립팅 및 작업 관리가 탁월합니다. 1) 자동화 : 파일 백업은 OS 및 Shutil과 같은 표준 라이브러리를 통해 실현됩니다. 2) 스크립트 쓰기 : PSUTIL 라이브러리를 사용하여 시스템 리소스를 모니터링합니다. 3) 작업 관리 : 일정 라이브러리를 사용하여 작업을 예약하십시오. Python의 사용 편의성과 풍부한 라이브러리 지원으로 인해 이러한 영역에서 선호하는 도구가됩니다.

과학 컴퓨팅을위한 파이썬 : 상세한 모양 과학 컴퓨팅을위한 파이썬 : 상세한 모양 Apr 19, 2025 am 12:15 AM

과학 컴퓨팅에서 Python의 응용 프로그램에는 데이터 분석, 머신 러닝, 수치 시뮬레이션 및 시각화가 포함됩니다. 1.numpy는 효율적인 다차원 배열 및 수학적 함수를 제공합니다. 2. Scipy는 Numpy 기능을 확장하고 최적화 및 선형 대수 도구를 제공합니다. 3. 팬더는 데이터 처리 및 분석에 사용됩니다. 4. matplotlib는 다양한 그래프와 시각적 결과를 생성하는 데 사용됩니다.

웹 개발을위한 파이썬 : 주요 응용 프로그램 웹 개발을위한 파이썬 : 주요 응용 프로그램 Apr 18, 2025 am 12:20 AM

웹 개발에서 Python의 주요 응용 프로그램에는 Django 및 Flask 프레임 워크 사용, API 개발, 데이터 분석 및 시각화, 머신 러닝 및 AI 및 성능 최적화가 포함됩니다. 1. Django 및 Flask 프레임 워크 : Django는 복잡한 응용 분야의 빠른 개발에 적합하며 플라스크는 소형 또는 고도로 맞춤형 프로젝트에 적합합니다. 2. API 개발 : Flask 또는 DjangorestFramework를 사용하여 RESTFULAPI를 구축하십시오. 3. 데이터 분석 및 시각화 : Python을 사용하여 데이터를 처리하고 웹 인터페이스를 통해 표시합니다. 4. 머신 러닝 및 AI : 파이썬은 지능형 웹 애플리케이션을 구축하는 데 사용됩니다. 5. 성능 최적화 : 비동기 프로그래밍, 캐싱 및 코드를 통해 최적화

See all articles