지도 학습을 위한 일반적인 알고리즘은 무엇입니까? 어떻게 적용되나요?
지도 학습이란 무엇인가요?
지도 학습은 기계 학습의 하위 집합입니다. 지도 학습은 기계 학습 모델의 입력 데이터에 레이블을 지정하고 이를 실행합니다. 따라서 지도 모델은 모델의 출력을 최대한 예측할 수 있습니다.
지도 학습의 개념은 교사가 아이들을 가르치는 등 실생활에서도 찾아볼 수 있습니다. 교사가 아이들에게 고양이와 개 이미지를 인식하도록 가르치기를 원한다고 가정해 보겠습니다. 고양이나 개 이미지를 지속적으로 보여주면서 그 이미지가 개인지 고양이인지 알려주는 방식으로 아이를 지도하게 됩니다.
이미지를 표시하고 알리는 과정은 머신러닝 모델의 학습 과정에서 어떤 데이터가 어떤 카테고리에 속하는지 알려주는 데이터 라벨링이라고 할 수 있습니다.
지도 학습의 용도는 무엇인가요? 지도 학습은 회귀 문제와 분류 문제 모두에 사용될 수 있습니다. 분류 모델을 사용하면 알고리즘이 주어진 데이터가 어느 그룹에 속하는지 결정할 수 있습니다. 예에는 참/거짓, 개/고양이 등이 포함될 수 있습니다.
회귀 모델은 과거 데이터를 기반으로 미래 가치를 예측할 수 있기 때문에 직원 임금이나 부동산 매매 가격을 예측하는 데 사용할 수 있습니다.
이 기사에서는 지도 학습에 사용되는 몇 가지 일반적인 알고리즘과 이러한 알고리즘에 대한 실용적인 튜토리얼을 나열합니다.
선형 회귀
선형 회귀는 주어진 입력 값을 기반으로 출력 값을 예측하는 지도 학습 알고리즘입니다. 선형 회귀는 대상(출력) 변수가 연속 값을 반환할 때 사용됩니다.
선형 알고리즘에는 단순 선형 회귀와 다중 선형 회귀라는 두 가지 주요 유형이 있습니다.
단순 선형 회귀는 하나의 독립(입력) 변수만 사용합니다. 예를 들어 키를 기준으로 어린이의 나이를 예측하는 경우가 있습니다.
반면 다중 선형 회귀는 여러 독립 변수를 사용하여 최종 결과를 예측할 수 있습니다. 예를 들어 위치, 크기, 수요 등을 기반으로 특정 부동산의 가격을 예측하는 것입니다.
선형 회귀 공식은 다음과 같습니다.
Python 예제에서는 선형 회귀를 사용하여 주어진 x 값을 기준으로 y 값을 예측합니다.
우리가 제공한 데이터 세트에는 x와 y라는 두 개의 열만 포함되어 있습니다. y 결과는 연속 값을 반환합니다.
다음은 주어진 데이터세트의 스크린샷입니다.
Python을 사용한 선형 회귀 모델의 예
1. 필요한 라이브러리를 가져옵니다
import numpy as np <br>import pandas as pd <br>import matplotlib.pyplot as plt <br>import seaborn as sns from sklearn <br>import linear_model from sklearn.model_selection <br>import train_test_split import os
2. 데이터세트를 읽고 샘플링하세요
To 데이터 세트를 단순화하기 위해 50개 데이터 행의 샘플을 채취하고 데이터 값을 유효 숫자 2자리로 반올림했습니다.
이 단계를 완료하기 전에 주어진 데이터세트를 가져와야 한다는 점에 유의하세요.
df = pd.read_csv("../input/random-linear-regression/train.csv") <br>df=df.sample(50) df=round(df,2)
3. Null 및 무한 값 필터링
데이터 세트에 Null 및 무한 값이 포함되어 있으면 오류가 발생할 수 있습니다. 따라서 clean_dataset 함수를 사용하여 이러한 값의 데이터 세트를 정리합니다.
def clean_dataset(df): <br>assert isinstance(df, pd.DataFrame), "df needs to be a pd.DataFrame" <br>df.dropna(inplace=True) <br>indices_to_keep = ~df.isin([np.nan, np.inf, -np.inf]).any(1) <br>return df[indices_to_keep].astype(np.float64)<br>df=clean_dataset(df)
4. 종속 및 독립 값을 선택하세요.
데이터를 DataFrame 형식으로 변환합니다. dataframe 데이터 유형은 데이터를 행과 열로 정렬하는 2차원 구조입니다.
5. 데이터 세트 분할
데이터 세트를 훈련 부분과 테스트 부분으로 나눕니다. 테스트 데이터 세트 크기는 전체 데이터 세트의 20%로 선택되었습니다.
random_state=1로 설정하면 모델이 실행될 때마다 동일한 데이터 분할이 발생하여 정확히 동일한 교육 및 테스트 데이터 세트가 생성됩니다.
모델을 추가로 조정하려는 경우에 유용합니다.
x_train, x_test, y_train, y_test = train_test_split(X, Y, test_size=0.2, random_state=1)
6.建立线性回归模型
使用导入的线性回归模型,我们可以在模型中自由使用线性回归算法,绕过我们为给定模型获得的 x 和 y 训练变量。
lm=linear_model.LinearRegression() lm.fit(x_train,y_train)
7. 以分散的方式绘制我们的数据
df.plot(kind="scatter", x="x", y="y")
8. 绘制我们的线性回归线
plt.plot(X,lm.predict(X), color="red")
蓝点表示数据点,而红线是模型绘制的最佳拟合线性回归线。线性模型算法总是会尝试绘制最佳拟合线以尽可能准确地预测结果。
逻辑回归
与线性回归类似,逻辑回归根据输入变量预测输出值,两种算法的主要区别在于逻辑回归算法的输出是分类(离散)变量。
对于 Python的示例,会使用逻辑回归将“花”分成两个不同的类别/种类。在给定的数据集中会包括不同花的多个特征。
模型的目的是将给花识别为Iris-setosa、Iris-versicolor或 Iris-virginica 几个种类。
下面是给定数据集的截图:
使用 Python 的逻辑回归模型示例
1.导入必要的库
import numpy as np <br>import pandas as pd from sklearn.model_selection <br>import train_test_split import warnings warnings.filterwarnings('ignore')
2. 导入数据集
data = pd.read_csv('../input/iris-dataset-logistic-regression/iris.csv')
3. 选择我们依赖和独立的价值观
对于独立 value(x) ,将包括除类型列之外的所有可用列。至于我们的可靠值(y),将只包括类型列。
X = data[['x0','x1','x2','x3','x4']] <br>y = data[['type']]
4. 拆分数据集
将数据集分成两部分,80% 用于训练数据集,20% 用于测试数据集。
X_train,X_test,y_train,y_test = train_test_split(X,y, test_size=0.2, random_state=1)
5. 运行逻辑回归模型
从 linear_model 库中导入整个逻辑回归算法。然后我们可以将 X 和 y 训练数据拟合到逻辑模型中。
from sklearn.linear_model import LogisticRegression <br>model = LogisticRegression(random_state = 0) <br>model.fit(X_train, y_train)
6. 评估我们模型的性能
print(lm.score(x_test, y_test))
返回值为0.9845128775509371,这表明我们模型的高性能。
请注意,随着测试分数的增加,模型的性能也会增加。
7. 绘制图表
import matplotlib.pyplot as plt %matplotlib inline <br>plt.plot(range(len(X_test)), pred,'o',c='r')
输出图:
在逻辑图中,红点表示给定的数据点。这些点清楚地分为 3 类,Virginica、versicolor 和 setosa 花种。
使用这种技术,逻辑回归模型可以根据花在图表上的位置轻松对花类型进行分类。
支持向量机
支持向量机( SVM) 算法是另一个著名的监督机器学习模型,由 Vladimir Vapnik 创建,它能够解决分类和回归问题。实际上它更多地被用到解决分类问题。
SVM 算法能够将给定的数据点分成不同的组。算法在绘制出数据之后,可以绘制最合适的线将数据分成多个类别,从而分析数据之间的关系。
如下图所示,绘制的线将数据集完美地分成 2 个不同的组,蓝色和绿色。
SVM 模型可以根据图形的维度绘制直线或超平面。行只能用于二维数据集,这意味着只有 2 列的数据集。
如果是多个特征来预测数据集,就需要更高的维度。在数据集超过 2 维的情况下,支持向量机模型将绘制超平面。
在支持向量机 Python 的示例中,将对 3 种不同的花卉类型进行物种分类。我们的自变量包括花的所有特征,而因变量是花所属物种。
花卉品种包括Iris-setosa、 Iris-versicolor和Iris-virginica。
下面是数据集的截图:
使用 Python 的支持向量机模型示例
1.导入必要的库
import numpy as np <br>import pandas as pd from sklearn.model_selection <br>import train_test_split from sklearn.datasets <br>import load_iris
2. 读取给定的数据集
请注意,在执行此步骤之前,应该导入数据集。
data = pd.read_csv(‘../input/iris-flower-dataset/IRIS.csv’)
3. 将数据列拆分为因变量和自变量
将 X 值作为自变量,其中包含除物种列之外的所有列。
因变量y仅包含模型预测的物种列。
X = data.drop(‘species’, axis=1) y = data[‘species’]
4. 将数据集拆分为训练和测试数据集
将数据集分为两部分,其中我们将 80% 的数据放入训练数据集中,将 20% 放入测试数据集中。
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1)
5.导入SVM并运行模型
导入了支持向量机算法。然后,使用上面步骤中收到的 X 和 y 训练数据集运行它。
from sklearn.svm import SVC <br>model = SVC( ) <br>model.fit(X_train, y_train)
6. 测试模型的性能
model.score(X_test, y_test)
为了评估模型的性能,将使用 score 函数。在第四步中创建的 X 和 y 测试值输入到 score 方法中。
返回值为0.9666666666667,这表明模型的高性能。
请注意,随着测试分数的增加,模型的性能也会增加。
다른 인기 있는 지도 기계 학습 알고리즘
선형, 로지스틱 및 SVM 알고리즘은 매우 안정적이지만 will몇 가지 지도 기계 학습 알고리즘을 언급했습니다.
1. 결정tree
의사결정 트리 알고리즘은 유용한 A입니다. 의사결정을 위해 트리형 구조를 활용하는 지도 머신러닝 모델입니다. 결정 트리는 모델이 데이터 세트의 특정 항목이 어느 그룹에 속하는지 결정할 수 있는 분류 문제에 자주 사용됩니다.
사용된 트리 형식은 역트리 형식이므로 주의하시기 바랍니다.
2. Random Forest
은 더 복잡한 알고리즘으로 간주됩니다. 랜덤 포레스트 알고리즘 다수의 의사결정 트리를 구축하여 궁극적인 목표를 달성하세요.
은 여러 의사결정 트리를 동시에 구축하는 것을 의미합니다. 각 의사결정 트리는 자체 결과를 반환한 다음 더 나은 결과를 얻기 위해 결합됩니다.
분류 문제의 경우 랜덤 포레스트 모델은 여러 결정 트리를 생성하고 대부분의 트리에서 예측한 분류 그룹을 기반으로 특정 객체를 분류합니다.
모델은 단일 트리로 인한 과적합 문제 을 수정할 수 있습니다. 또한 Random Forest 알고리즘을 회귀에도 사용할 수 있지만 바람직하지 않은 결과가 발생할 수 있습니다.
3. kRecentneighbor (KNN) 알고리즘은 주어진 모든 데이터를 별도의 그룹으로 그룹화하는 지도형 기계 학습 방법입니다.
이 그룹화는 서로 다른 개인 간의 공통된 특성을 기반으로 합니다. KNN 알고리즘은 분류 문제와 회귀 문제 모두에 사용될 수 있습니다.KNN의 classic example 은
동물 이미지를 여러 그룹으로 분류하는 것입니다.
요약
이 기사 에서는 지도형 기계 학습과 이를 통해 해결할 수 있는 두 가지 유형의 문제인 , 및 을 소개했습니다. 분류 및 회귀 문제를 설명했습니다. 은 각 출력 데이터 유형의 몇 가지 예를 제공합니다.
선형 회귀가 무엇인지, 어떻게 작동하는지 자세히 설명하고, 독립 X 변수 Y 값을 기반으로 예측하는 Python의 구체적인 예를 제공합니다.
그런 다음 과 은 로지스틱 회귀 모델 을 도입했습니다. 특정 이미지 카테고리를 제공하는 분류 모델 예를 제공합니다. 특정 꽃 종류.
서포트 벡터 머신 알고리즘의 경우 을 사용하여 3가지 다른 꽃 종의 주어진 꽃 종을 예측할 수 있습니다. 마지막으로 목록 결정 트리, 랜덤 포레스트 및 K 최근접 이웃 알고리즘과 같은 다른 유명한 지도 기계 학습 알고리즘이 있습니다. 이 기사를 배우고
, 업무용이든 재미용이든 상관없이, 우리는알고리즘을 이해하는 것이 시작점이라고 생각합니다 Enter the machine 학습 분야의 시작. 머신러닝 분야에 관심이 있고 더 자세히 알고 싶다면 해당 알고리즘의 작동 방식과 이러한 모델을 조정하여 성능을 더욱 향상시키는 방법을
자세히 알아보는 것이 좋습니다. 성능. 번역자 소개
Cui Hao, 51CTO 커뮤니티 에디터, 수석 아키텍트는 18년의 소프트웨어 개발 및 아키텍처 경험, 10년의 분산 아키텍처 경험을 가지고 있습니다. 이전에는 HP의 기술 전문가였습니다. 그는 공유할 의지가 있으며 600,000회 이상 읽힌 많은 인기 기술 기사를 작성했습니다.
"분산 아키텍처의 원리와 실제"의 저자입니다. 원제:
기계 학습에 사용되는 기본 지도 학습 알고리즘
위 내용은 지도 학습을 위한 일반적인 알고리즘은 무엇입니까? 어떻게 적용되나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

이 사이트는 6월 27일에 Jianying이 ByteDance의 자회사인 FaceMeng Technology에서 개발한 비디오 편집 소프트웨어라고 보도했습니다. 이 소프트웨어는 Douyin 플랫폼을 기반으로 하며 기본적으로 플랫폼 사용자를 위한 짧은 비디오 콘텐츠를 제작합니다. Windows, MacOS 및 기타 운영 체제. Jianying은 멤버십 시스템 업그레이드를 공식 발표하고 지능형 번역, 지능형 하이라이트, 지능형 패키징, 디지털 인간 합성 등 다양한 AI 블랙 기술을 포함하는 새로운 SVIP를 출시했습니다. 가격면에서 SVIP 클리핑 월 요금은 79위안, 연간 요금은 599위안(본 사이트 참고: 월 49.9위안에 해당), 월간 연속 구독료는 월 59위안, 연간 연속 구독료는 59위안입니다. 연간 499위안(월 41.6위안)입니다. 또한, 컷 관계자는 "사용자 경험 향상을 위해 기존 VIP에 가입하신 분들도

검색 강화 생성 및 의미론적 메모리를 AI 코딩 도우미에 통합하여 개발자 생산성, 효율성 및 정확성을 향상시킵니다. EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG에서 번역됨, 저자 JanakiramMSV. 기본 AI 프로그래밍 도우미는 자연스럽게 도움이 되지만, 소프트웨어 언어에 대한 일반적인 이해와 소프트웨어 작성의 가장 일반적인 패턴에 의존하기 때문에 가장 관련성이 높고 정확한 코드 제안을 제공하지 못하는 경우가 많습니다. 이러한 코딩 도우미가 생성한 코드는 자신이 해결해야 할 문제를 해결하는 데 적합하지만 개별 팀의 코딩 표준, 규칙 및 스타일을 따르지 않는 경우가 많습니다. 이로 인해 코드가 애플리케이션에 승인되기 위해 수정되거나 개선되어야 하는 제안이 나타나는 경우가 많습니다.

AIGC에 대해 자세히 알아보려면 다음을 방문하세요. 51CTOAI.x 커뮤니티 https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou는 인터넷 어디에서나 볼 수 있는 전통적인 문제 은행과 다릅니다. 고정관념에서 벗어나 생각해야 합니다. LLM(대형 언어 모델)은 데이터 과학, 생성 인공 지능(GenAI) 및 인공 지능 분야에서 점점 더 중요해지고 있습니다. 이러한 복잡한 알고리즘은 인간의 기술을 향상시키고 많은 산업 분야에서 효율성과 혁신을 촉진하여 기업이 경쟁력을 유지하는 데 핵심이 됩니다. LLM은 자연어 처리, 텍스트 생성, 음성 인식 및 추천 시스템과 같은 분야에서 광범위하게 사용될 수 있습니다. LLM은 대량의 데이터로부터 학습하여 텍스트를 생성할 수 있습니다.

LLM(대형 언어 모델)은 대규모 텍스트 데이터베이스에서 훈련되어 대량의 실제 지식을 습득합니다. 이 지식은 매개변수에 내장되어 필요할 때 사용할 수 있습니다. 이러한 모델에 대한 지식은 훈련이 끝나면 "구체화"됩니다. 사전 훈련이 끝나면 모델은 실제로 학습을 중단합니다. 모델을 정렬하거나 미세 조정하여 이 지식을 활용하고 사용자 질문에 보다 자연스럽게 응답하는 방법을 알아보세요. 그러나 때로는 모델 지식만으로는 충분하지 않을 때도 있으며, 모델이 RAG를 통해 외부 콘텐츠에 접근할 수 있더라도 미세 조정을 통해 모델을 새로운 도메인에 적응시키는 것이 유익한 것으로 간주됩니다. 이러한 미세 조정은 인간 주석 작성자 또는 기타 LLM 생성자의 입력을 사용하여 수행됩니다. 여기서 모델은 추가적인 실제 지식을 접하고 이를 통합합니다.

머신 러닝은 명시적으로 프로그래밍하지 않고도 컴퓨터가 데이터로부터 학습하고 능력을 향상시킬 수 있는 능력을 제공하는 인공 지능의 중요한 분야입니다. 머신러닝은 이미지 인식, 자연어 처리, 추천 시스템, 사기 탐지 등 다양한 분야에서 폭넓게 활용되며 우리의 삶의 방식을 변화시키고 있습니다. 기계 학습 분야에는 다양한 방법과 이론이 있으며, 그 중 가장 영향력 있는 5가지 방법을 "기계 학습의 5개 학교"라고 합니다. 5개 주요 학파는 상징학파, 연결주의 학파, 진화학파, 베이지안 학파, 유추학파이다. 1. 상징주의라고도 알려진 상징주의는 논리적 추론과 지식 표현을 위해 상징을 사용하는 것을 강조합니다. 이 사고 학교는 학습이 기존을 통한 역연역 과정이라고 믿습니다.

편집자 |ScienceAI 질문 응답(QA) 데이터 세트는 자연어 처리(NLP) 연구를 촉진하는 데 중요한 역할을 합니다. 고품질 QA 데이터 세트는 모델을 미세 조정하는 데 사용될 수 있을 뿐만 아니라 LLM(대형 언어 모델)의 기능, 특히 과학적 지식을 이해하고 추론하는 능력을 효과적으로 평가하는 데에도 사용할 수 있습니다. 현재 의학, 화학, 생물학 및 기타 분야를 포괄하는 과학적인 QA 데이터 세트가 많이 있지만 이러한 데이터 세트에는 여전히 몇 가지 단점이 있습니다. 첫째, 데이터 형식이 비교적 단순하고 대부분이 객관식 질문이므로 평가하기 쉽지만 모델의 답변 선택 범위가 제한되고 모델의 과학적 질문 답변 능력을 완전히 테스트할 수 없습니다. 이에 비해 개방형 Q&A는

1일 본 사이트 소식에 따르면 SK하이닉스는 오늘(1일) 블로그 게시물을 통해 8월 6일부터 8일까지 미국 캘리포니아주 산타클라라에서 열리는 글로벌 반도체 메모리 서밋 FMS2024에 참가한다고 밝혔다. 많은 새로운 세대의 제품. 인공지능 기술에 대한 관심이 높아지고 있는 가운데, 이전에는 주로 NAND 공급업체를 대상으로 한 플래시 메모리 서밋(FlashMemorySummit)이었던 미래 메모리 및 스토리지 서밋(FutureMemoryandStorage) 소개를 올해는 미래 메모리 및 스토리지 서밋(FutureMemoryandStorage)으로 명칭을 변경했습니다. DRAM 및 스토리지 공급업체와 더 많은 플레이어를 초대하세요. SK하이닉스가 지난해 출시한 신제품

Editor | KX 약물 연구 및 개발 분야에서 단백질과 리간드의 결합 친화도를 정확하고 효과적으로 예측하는 것은 약물 스크리닝 및 최적화에 매우 중요합니다. 그러나 현재 연구에서는 단백질-리간드 상호작용에서 분자 표면 정보의 중요한 역할을 고려하지 않습니다. 이를 기반으로 Xiamen University의 연구자들은 처음으로 단백질 표면, 3D 구조 및 서열에 대한 정보를 결합하고 교차 주의 메커니즘을 사용하여 다양한 양식 특징을 비교하는 새로운 다중 모드 특징 추출(MFE) 프레임워크를 제안했습니다. 조정. 실험 결과는 이 방법이 단백질-리간드 결합 친화도를 예측하는 데 있어 최첨단 성능을 달성한다는 것을 보여줍니다. 또한 절제 연구는 이 프레임워크 내에서 단백질 표면 정보와 다중 모드 기능 정렬의 효율성과 필요성을 보여줍니다. 관련 연구는 "S"로 시작된다
