ML 모델을 위한 데이터 전처리 기술
데이터 전처리는 데이터세트가 기계 학습이나 기타 작업에 사용되기 전에 데이터세트에 대해 특정 작업이나 단계를 수행하는 행위입니다. 데이터 전처리에는 품질을 향상하거나 주요 목적(이 경우 모델 교육)에 적합한지 확인하기 위해 데이터 정리, 형식 지정 또는 변환이 포함됩니다. 깨끗하고 고품질의 데이터세트는 머신러닝 모델의 성능을 향상시킵니다.
낮은 품질의 데이터와 관련된 일반적인 문제는 다음과 같습니다.
- 누락된 값
- 일관되지 않은 형식
- 중복된 값
- 관련 없는 기능
이 기사에서는 학습 모델에 사용할 데이터 세트를 준비하는 몇 가지 일반적인 데이터 전처리 기술을 보여 드리겠습니다. Python에 대한 기본 지식과 Python 라이브러리 및 프레임워크를 사용하는 방법이 필요합니다.
요구사항:
이 가이드를 최대한 활용하려면 다음이 필요합니다
- 파이썬 3.12
- Jupyter Notebook 또는 좋아하는 노트북
- 넘피
- 판다
- 사이피
- Scikit 학습
- 멜버른 주택 데이터세트
Github에서 Jupyter Notebook의 각 코드 출력을 확인할 수도 있습니다.
설정
아직 Python을 설치하지 않았다면 Python 웹사이트에서 다운로드하여 지침에 따라 설치할 수 있습니다.
Python이 설치되면 필수 라이브러리를 설치하세요
pip install numpy scipy pandas scikit-learn
Jupyter 노트북을 설치하세요.
pip install notebook
설치 후 다음 명령으로 Jupyter Notebook을 시작하세요
jupyter notebook
기본 웹 브라우저에서 Jupyter Notebook이 실행됩니다. 그렇지 않은 경우 터미널에서 브라우저에 수동으로 붙여넣을 수 있는 링크를 확인하세요.
파일 메뉴에서 새 노트북을 열고 필요한 라이브러리를 가져온 후 셀을 실행하세요
import numpy as np import pandas as pd import scipy import sklearn
멜버른 주택 데이터세트 사이트에 가서 데이터세트를 다운로드하세요. 다음 코드를 사용하여 데이터 세트를 노트북에 로드합니다. 컴퓨터의 파일 경로를 복사하여 read_csv 함수에 붙여 넣을 수 있습니다. csv 파일을 노트와 같은 폴더에 넣어서 아래와 같이 파일을 불러올 수도 있습니다.
data = pd.read_csv(r"melb_data.csv") # View the first 5 columns of the dataset data.head()
데이터를 훈련 세트와 검증 세트로 분할
from sklearn.model_selection import train_test_split # Set the target y = data['Price'] # Firstly drop categorical data types melb_features = data.drop(['Price'], axis=1) #drop the target column X = melb_features.select_dtypes(exclude=['object']) # Divide data into training and validation sets X_train, X_valid, y_train, y_valid = train_test_split(X, y, train_size=0.8, test_size=0.2, random_state=0)
데이터 유출을 방지하려면 데이터를 학습 세트와 검증 세트로 분할해야 합니다. 결과적으로 학습 기능 세트에서 수행하는 전처리 기술은 검증 기능 세트에서 수행하는 것과 동일합니다.
이제 데이터 세트를 처리할 준비가 되었습니다!
데이터 정리
결측값 처리
데이터 세트의 누락된 값은 드레스를 재봉하는 데 사용되는 천에 있는 구멍과 같습니다. 만들기도 전에 드레스를 망쳐 놓거든요.
데이터세트의 누락된 값을 처리하는 방법에는 3가지가 있습니다.
- 빈 셀이 있는 행이나 열을 삭제하세요.
pip install numpy scipy pandas scikit-learn
이 방법의 문제는 모델을 훈련하는 데 사용할 귀중한 정보를 잃을 수 있다는 것입니다. 삭제된 행이나 열의 값 대부분이 누락되지 않는 한, 빈 셀이 있는 행이나 열을 삭제할 필요는 없습니다.
- 빈 셀에 값 대치 특정 열에 있는 데이터의 평균, 중앙값 또는 모드를 사용하여 빈 셀을 대치하거나 채울 수 있습니다. Scikit learn의 SimpleImputer는 빈 셀의 값을 대치하는 데 사용됩니다.
pip install notebook
- 귀속 및 통지 이것이 작동하는 방식은 빈 셀에 값을 대치하지만 셀이 처음에 비어 있었음을 나타내는 열도 생성한다는 것입니다.
jupyter notebook
중복제거
중복 셀은 반복되는 데이터를 의미하며 모델 정확도에 영향을 미칩니다. 그들을 처리하는 유일한 방법은 그들을 버리는 것입니다.
import numpy as np import pandas as pd import scipy import sklearn
이상값 처리
이상값은 데이터 세트의 다른 값과 크게 다른 값입니다. 다른 데이터 값에 비해 비정상적으로 높거나 낮을 수 있습니다. 이는 입력 오류로 인해 발생할 수도 있고 실제로는 이상치일 수도 있습니다.
이상치를 처리하는 것이 중요합니다. 그렇지 않으면 부정확한 데이터 분석이나 모델로 이어질 수 있습니다. 이상값을 감지하는 한 가지 방법은 Z-점수를 계산하는 것입니다.
작동 방식은 z-score를 사용하여 데이터 포인트가 평균값에서 3포인트 이상 떨어져 있는지 확인하는 것입니다. 이 계산은 모든 데이터 포인트에 대해 수행됩니다. 데이터 포인트의 z-점수가 3 이상인 경우 해당 데이터 포인트는 이상치입니다.
data = pd.read_csv(r"melb_data.csv") # View the first 5 columns of the dataset data.head()
데이터 변환
정규화
정규 분포로 설명할 수 있도록 특성을 정규화합니다.
정규 분포(가우시안 분포라고도 함)는 평균 위와 아래에 대략 동일한 거리 또는 분포가 있는 통계 분포입니다. 정규 분포 데이터의 데이터 포인트 그래프는 종형 곡선을 형성합니다.
데이터 정규화의 요점은 사용하려는 머신러닝 알고리즘이 데이터가 정규 분포를 따른다고 가정하는 것입니다. 예를 들어 Gaussian Naive Bayes 모델이 있습니다.
from sklearn.model_selection import train_test_split # Set the target y = data['Price'] # Firstly drop categorical data types melb_features = data.drop(['Price'], axis=1) #drop the target column X = melb_features.select_dtypes(exclude=['object']) # Divide data into training and validation sets X_train, X_valid, y_train, y_valid = train_test_split(X, y, train_size=0.8, test_size=0.2, random_state=0)
표준화
표준화는 데이터 세트의 기능을 평균 0, 표준 편차 1로 변환합니다. 이 프로세스는 데이터 전체에서 유사한 범위를 갖도록 각 기능의 크기를 조정합니다. 이렇게 하면 각 기능이 모델 학습에 동일하게 기여할 수 있습니다.
다음과 같은 경우 표준화를 사용합니다.
- 데이터의 특징은 다양한 척도나 단위로 되어 있습니다.
- 사용하려는 기계 학습 모델은 거리 또는 경사 기반 최적화(예: 선형 회귀, 로지스틱 회귀, K-평균 클러스터링)를 기반으로 합니다.
sklearn 라이브러리의 StandardScaler()를 사용하여 기능을 표준화합니다.
pip install numpy scipy pandas scikit-learn
결론
데이터 전처리는 단순한 예비 단계가 아닙니다. 이는 정확한 기계 학습 모델을 구축하는 프로세스의 일부입니다. 또한 작업 중인 데이터 세트의 요구 사항에 맞게 조정할 수도 있습니다.
대부분의 활동과 마찬가지로 연습을 하면 완벽해집니다. 계속해서 데이터를 전처리하면 모델뿐만 아니라 기술도 향상됩니다.
이것에 대한 귀하의 생각을 읽고 싶습니다 ?
위 내용은 ML 모델을 위한 데이터 전처리 기술의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

하루에 2 시간 동안 파이썬을 배우는 것으로 충분합니까? 목표와 학습 방법에 따라 다릅니다. 1) 명확한 학습 계획을 개발, 2) 적절한 학습 자원 및 방법을 선택하고 3) 실습 연습 및 검토 및 통합 연습 및 검토 및 통합,이 기간 동안 Python의 기본 지식과 고급 기능을 점차적으로 마스터 할 수 있습니다.

Python은 개발 효율에서 C보다 낫지 만 C는 실행 성능이 높습니다. 1. Python의 간결한 구문 및 풍부한 라이브러리는 개발 효율성을 향상시킵니다. 2.C의 컴파일 유형 특성 및 하드웨어 제어는 실행 성능을 향상시킵니다. 선택할 때는 프로젝트 요구에 따라 개발 속도 및 실행 효율성을 평가해야합니다.

Python과 C는 각각 고유 한 장점이 있으며 선택은 프로젝트 요구 사항을 기반으로해야합니다. 1) Python은 간결한 구문 및 동적 타이핑으로 인해 빠른 개발 및 데이터 처리에 적합합니다. 2) C는 정적 타이핑 및 수동 메모리 관리로 인해 고성능 및 시스템 프로그래밍에 적합합니다.

Pythonlistsarepartoftsandardlardlibrary, whileraysarenot.listsarebuilt-in, 다재다능하고, 수집 할 수있는 반면, arraysarreprovidedByTearRaymoduledlesscommonlyusedDuetolimitedFunctionality.

파이썬은 자동화, 스크립팅 및 작업 관리가 탁월합니다. 1) 자동화 : 파일 백업은 OS 및 Shutil과 같은 표준 라이브러리를 통해 실현됩니다. 2) 스크립트 쓰기 : PSUTIL 라이브러리를 사용하여 시스템 리소스를 모니터링합니다. 3) 작업 관리 : 일정 라이브러리를 사용하여 작업을 예약하십시오. Python의 사용 편의성과 풍부한 라이브러리 지원으로 인해 이러한 영역에서 선호하는 도구가됩니다.

과학 컴퓨팅에서 Python의 응용 프로그램에는 데이터 분석, 머신 러닝, 수치 시뮬레이션 및 시각화가 포함됩니다. 1.numpy는 효율적인 다차원 배열 및 수학적 함수를 제공합니다. 2. Scipy는 Numpy 기능을 확장하고 최적화 및 선형 대수 도구를 제공합니다. 3. 팬더는 데이터 처리 및 분석에 사용됩니다. 4. matplotlib는 다양한 그래프와 시각적 결과를 생성하는 데 사용됩니다.

웹 개발에서 Python의 주요 응용 프로그램에는 Django 및 Flask 프레임 워크 사용, API 개발, 데이터 분석 및 시각화, 머신 러닝 및 AI 및 성능 최적화가 포함됩니다. 1. Django 및 Flask 프레임 워크 : Django는 복잡한 응용 분야의 빠른 개발에 적합하며 플라스크는 소형 또는 고도로 맞춤형 프로젝트에 적합합니다. 2. API 개발 : Flask 또는 DjangorestFramework를 사용하여 RESTFULAPI를 구축하십시오. 3. 데이터 분석 및 시각화 : Python을 사용하여 데이터를 처리하고 웹 인터페이스를 통해 표시합니다. 4. 머신 러닝 및 AI : 파이썬은 지능형 웹 애플리케이션을 구축하는 데 사용됩니다. 5. 성능 최적화 : 비동기 프로그래밍, 캐싱 및 코드를 통해 최적화
