소프트웨어 엔지니어를 위한 머신러닝
귀중하다고 생각하시면 알려주시면 계속 진행하겠습니다!
1장 - 선형 모델
가장 단순하면서도 강력한 개념 중 하나는 선형 모델입니다.
ML의 주요 목표 중 하나는 데이터를 기반으로 예측하는 것입니다. 선형 모델은 기계 학습의 'Hello World'와 같습니다. 간단하지만 더 복잡한 모델을 이해하기 위한 기반을 형성합니다.
집값을 예측하는 모델을 만들어 보겠습니다. 이 예에서 출력은 예상되는 "주택 가격"이고 입력은 "sqft", "num_bedrooms" 등이 됩니다...
def prediction(sqft, num_bedrooms, num_baths): weight_1, weight_2, weight_3 = .0, .0, .0 home_price = weight_1*sqft, weight_2*num_bedrooms, weight_3*num_baths return home_price
각 입력에 대한 '가중치'가 표시됩니다. 이러한 가중치는 예측 뒤에 마법을 만들어내는 것입니다. 이 예제는 가중치가 0이므로 항상 0을 출력하므로 지루합니다.
이러한 가중치를 어떻게 찾을 수 있는지 알아봅시다.
가중치 찾기
가중치를 찾는 과정을 모델 '훈련'이라고 합니다.
- 먼저 알려진 특징(입력)과 가격(출력)이 있는 주택 데이터세트가 필요합니다. 예를 들어:
data = [ {"sqft": 1000, "bedrooms": 2, "baths": 1, "price": 200000}, {"sqft": 1500, "bedrooms": 3, "baths": 2, "price": 300000}, # ... more data points ... ]
- 가중치를 업데이트하는 방법을 만들기 전에 예측이 얼마나 벗어난지 알아야 합니다. 예측과 실제 값의 차이를 계산할 수 있습니다.
home_price = prediction(1000, 2, 1) # our weights are currently zero, so this is zero actual_value = 200000 error = home_price - actual_value # 0 - 200000 we are way off. # let's square this value so we aren't dealing with negatives error = home_price**2
이제 하나의 데이터 포인트에 대한 오차(오류)를 알 수 있는 방법이 있으므로 모든 데이터 포인트에 대한 평균 오류를 계산할 수 있습니다. 이를 일반적으로 평균 제곱 오차라고 합니다.
- 마지막으로 평균 제곱 오차를 줄이는 방식으로 가중치를 업데이트합니다.
물론 임의의 숫자를 선택하고 진행하면서 최상의 값을 계속 저장할 수 있지만 이는 비효율적입니다. 그럼 다른 방법인 경사하강법을 살펴보겠습니다.
경사하강법
경사하강법은 모델에 가장 적합한 가중치를 찾는 데 사용되는 최적화 알고리즘입니다.
그라디언트는 각 가중치에 작은 변화를 가할 때 오류가 어떻게 변하는지 알려주는 벡터입니다.
사이드바 직관
언덕이 많은 풍경 위에 서 있다고 상상해 보세요. 목표는 가장 낮은 지점(최소 오류)에 도달하는 것입니다. 그라데이션은 항상 가장 가파른 오르막을 가리키는 나침반과 같습니다. 그라데이션 방향을 반대로 하여 가장 낮은 지점을 향해 나아가고 있습니다.
작동 방식은 다음과 같습니다.
- 임의의 가중치(또는 0)로 시작하세요.
- 현재 가중치에 대한 오차를 계산합니다.
- 가중치별 오차의 기울기(기울기)를 계산합니다.
- 오류를 줄이는 방향으로 조금씩 이동하여 가중치를 업데이트하세요.
- 오류가 크게 감소하지 않을 때까지 2~4단계를 반복합니다.
각 오류에 대한 기울기는 어떻게 계산하나요?
경도를 계산하는 한 가지 방법은 가중치를 조금씩 이동하여 이것이 오류에 어떤 영향을 미치는지 확인하고 거기서부터 어디로 이동해야 하는지 확인하는 것입니다.
def calculate_gradient(weight, data, feature_index, step_size=1e-5): original_error = calculate_mean_squared_error(weight, data) # Slightly increase the weight weight[feature_index] += step_size new_error = calculate_mean_squared_error(weight, data) # Calculate the slope gradient = (new_error - original_error) / step_size # Reset the weight weight[feature_index] -= step_size return gradient
단계별 분석
-
입력 매개변수:
- 가중치: 모델의 현재 가중치 세트입니다.
- 데이터: 주택 특징 및 가격에 대한 데이터세트입니다.
- feature_index: 기울기를 계산하는 가중치(0은 평방피트, 1은 침실, 2는 욕실).
- step_size: 가중치를 약간 변경하는 데 사용하는 작은 값(기본값은 1e-5 또는 0.00001).
원래 오류 계산:
original_error = calculate_mean_squared_error(weight, data)
먼저 현재 가중치를 사용하여 평균 제곱 오차를 계산합니다. 이것이 우리의 출발점입니다.
- 무게를 약간 늘리세요:
weight[feature_index] += step_size
무게를 조금씩(step_size) 늘립니다. 이를 통해 가중치의 작은 변화가 오류에 어떤 영향을 미치는지 확인할 수 있습니다.
- 새 오류 계산:
new_error = calculate_mean_squared_error(weight, data)
가중치를 약간 증가시켜 평균 제곱 오차를 다시 계산합니다.
- 기울기(기울기) 계산:
gradient = (new_error - original_error) / step_size
이것이 핵심 단계입니다. 우리는 "무게를 약간 늘렸을 때 오류가 얼마나 변했습니까?"라고 묻고 있습니다.
- new_error > original_error, 기울기는 양수입니다. 즉, 이 가중치를 늘리면 오류도 증가합니다.
- new_error < Original_error, 기울기는 음수입니다. 즉, 이 가중치를 늘리면 오류가 줄어듭니다.
-
크기는 이 가중치의 변화에 대해 오류가 얼마나 민감한지 알려줍니다.
- 무게 재설정:
weight[feature_index] -= step_size
무게를 바꾸면 어떻게 되는지 테스트 중이었기 때문에 무게를 원래 값으로 되돌렸습니다.
- 그라디언트 반환:
return gradient
이 가중치에 대해 계산된 기울기를 반환합니다.
This is called "numerical gradient calculation" or "finite difference method". We're approximating the gradient instead of calculating it analytically.
Let's update the weights
Now that we have our gradients, we can push our weights in the opposite direction of the gradient by subtracting the gradient.
weights[i] -= gradients[i]
If our gradient is too large, we could easily overshoot our minimum by updating our weight too much. To fix this, we can multiply the gradient by some small number:
learning_rate = 0.00001 weights[i] -= learning_rate*gradients[i]
And so here is how we do it for all of the weights:
def gradient_descent(data, learning_rate=0.00001, num_iterations=1000): weights = [0, 0, 0] # Start with zero weights for _ in range(num_iterations): gradients = [ calculate_gradient(weights, data, 0), # sqft calculate_gradient(weights, data, 1), # bedrooms calculate_gradient(weights, data, 2) # bathrooms ] # Update each weight for i in range(3): weights[i] -= learning_rate * gradients[i] if _ % 100 == 0: error = calculate_mean_squared_error(weights, data) print(f"Iteration {_}, Error: {error}, Weights: {weights}") return weights
Finally, we have our weights!
Interpreting the Model
Once we have our trained weights, we can use them to interpret our model:
- The weight for 'sqft' represents the price increase per square foot.
- The weight for 'bedrooms' represents the price increase per additional bedroom.
- The weight for 'baths' represents the price increase per additional bathroom.
For example, if our trained weights are [100, 10000, 15000], it means:
- Each square foot adds $100 to the home price.
- Each bedroom adds $10,000 to the home price.
- Each bathroom adds $15,000 to the home price.
Linear models, despite their simplicity, are powerful tools in machine learning. They provide a foundation for understanding more complex algorithms and offer interpretable insights into real-world problems.
위 내용은 소프트웨어 엔지니어를 위한 머신러닝의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

Python은 배우고 사용하기 쉽고 C는 더 강력하지만 복잡합니다. 1. Python Syntax는 간결하며 초보자에게 적합합니다. 동적 타이핑 및 자동 메모리 관리를 사용하면 사용하기 쉽지만 런타임 오류가 발생할 수 있습니다. 2.C는 고성능 응용 프로그램에 적합한 저수준 제어 및 고급 기능을 제공하지만 학습 임계 값이 높고 수동 메모리 및 유형 안전 관리가 필요합니다.

하루에 2 시간 동안 파이썬을 배우는 것으로 충분합니까? 목표와 학습 방법에 따라 다릅니다. 1) 명확한 학습 계획을 개발, 2) 적절한 학습 자원 및 방법을 선택하고 3) 실습 연습 및 검토 및 통합 연습 및 검토 및 통합,이 기간 동안 Python의 기본 지식과 고급 기능을 점차적으로 마스터 할 수 있습니다.

Python은 개발 효율에서 C보다 낫지 만 C는 실행 성능이 높습니다. 1. Python의 간결한 구문 및 풍부한 라이브러리는 개발 효율성을 향상시킵니다. 2.C의 컴파일 유형 특성 및 하드웨어 제어는 실행 성능을 향상시킵니다. 선택할 때는 프로젝트 요구에 따라 개발 속도 및 실행 효율성을 평가해야합니다.

Python과 C는 각각 고유 한 장점이 있으며 선택은 프로젝트 요구 사항을 기반으로해야합니다. 1) Python은 간결한 구문 및 동적 타이핑으로 인해 빠른 개발 및 데이터 처리에 적합합니다. 2) C는 정적 타이핑 및 수동 메모리 관리로 인해 고성능 및 시스템 프로그래밍에 적합합니다.

Pythonlistsarepartoftsandardlardlibrary, whileraysarenot.listsarebuilt-in, 다재다능하고, 수집 할 수있는 반면, arraysarreprovidedByTearRaymoduledlesscommonlyusedDuetolimitedFunctionality.

파이썬은 자동화, 스크립팅 및 작업 관리가 탁월합니다. 1) 자동화 : 파일 백업은 OS 및 Shutil과 같은 표준 라이브러리를 통해 실현됩니다. 2) 스크립트 쓰기 : PSUTIL 라이브러리를 사용하여 시스템 리소스를 모니터링합니다. 3) 작업 관리 : 일정 라이브러리를 사용하여 작업을 예약하십시오. Python의 사용 편의성과 풍부한 라이브러리 지원으로 인해 이러한 영역에서 선호하는 도구가됩니다.

과학 컴퓨팅에서 Python의 응용 프로그램에는 데이터 분석, 머신 러닝, 수치 시뮬레이션 및 시각화가 포함됩니다. 1.numpy는 효율적인 다차원 배열 및 수학적 함수를 제공합니다. 2. Scipy는 Numpy 기능을 확장하고 최적화 및 선형 대수 도구를 제공합니다. 3. 팬더는 데이터 처리 및 분석에 사용됩니다. 4. matplotlib는 다양한 그래프와 시각적 결과를 생성하는 데 사용됩니다.

웹 개발에서 Python의 주요 응용 프로그램에는 Django 및 Flask 프레임 워크 사용, API 개발, 데이터 분석 및 시각화, 머신 러닝 및 AI 및 성능 최적화가 포함됩니다. 1. Django 및 Flask 프레임 워크 : Django는 복잡한 응용 분야의 빠른 개발에 적합하며 플라스크는 소형 또는 고도로 맞춤형 프로젝트에 적합합니다. 2. API 개발 : Flask 또는 DjangorestFramework를 사용하여 RESTFULAPI를 구축하십시오. 3. 데이터 분석 및 시각화 : Python을 사용하여 데이터를 처리하고 웹 인터페이스를 통해 표시합니다. 4. 머신 러닝 및 AI : 파이썬은 지능형 웹 애플리케이션을 구축하는 데 사용됩니다. 5. 성능 최적화 : 비동기 프로그래밍, 캐싱 및 코드를 통해 최적화
