目次
給与データセット
指定されたデータセットの散布図
次の R コードは、単純な線形回帰を実装するために使用されます
トレーニング セットの結果を視覚化します
ホームページ テクノロジー周辺機器 AI R で単純な線形回帰法を実装し、その概念を説明する

R で単純な線形回帰法を実装し、その概念を説明する

Jan 22, 2024 pm 11:09 PM
線形回帰

単純線形回帰は、2 つの連続変数間の関係を調べるために使用される統計手法です。このうち、一方の変数を独立変数(x)、もう一方の変数を従属変数(y)と呼びます。これら 2 つの変数の間に線形関係があると仮定し、独立変数の特性に基づいて従属変数の応答値 (y) を正確に予測する一次関数を見つけようとします。直線を当てはめることで、予測結果を得ることができます。この予測モデルを使用すると、独立変数の変化に応じて従属変数がどのように変化するかを理解し、予測することができます。

この概念を理解するために、各独立変数 (経験年数) に対応する従属変数 (給与) の値を含む給与データ セットを使用できます。

給与データセット

年間給与と経験

1.1 39343.00

1.3 46205.00

1.5 37731.00

2.0 43525.00

2.2 39891.00

2.9 56642.00

3.0 60150.00

3.2 54445.00

3.2 64445.00

3.7 57189.00

一般的な目的のために、

x を特徴ベクトルとして定義します。つまり、x=[x_1,x_2,....,x_n]、

y を次のように定義します。応答ベクトル、つまり、n 個の観測値の y=[y_1,y_2,....,y_n]

(上記の例では、n=10)。

指定されたデータセットの散布図

简单线性回归概念 R代码实现简单线性回归

次に、上記の散布図に適合する線を見つける必要があります。任意の y 値または任意の x 値に対する応答を予測します。

最適な直線は回帰直線と呼ばれます。

次の R コードは、単純な線形回帰を実装するために使用されます

dataset=read.csv('salary.csv')
install.packages('caTools')
library(caTools)
split=sample.split(dataset$Salary,SplitRatio=0.7)
trainingset=subset(dataset,split==TRUE)
testset=subset(dataset,split==FALSE)
lm.r=lm(formula=Salary~YearsExperience,
data=trainingset)
coef(lm.r)
ypred=predict(lm.r,newdata=testset)
install.packages("ggplot2")
library(ggplot2)
ggplot()+geom_point(aes(x=trainingset$YearsExperience,
y=trainingset$Salary),colour='red')+
geom_line(aes(x=trainingset$YearsExperience,
y=predict(lm.r,newdata=trainingset)),colour='blue')+
ggtitle('Salary vs Experience(Training set)')+
xlab('Years of experience')+
ylab('Salary')
ggplot()+
geom_point(aes(x=testset$YearsExperience,y=testset$Salary),
colour='red')+
geom_line(aes(x=trainingset$YearsExperience,
y=predict(lm.r,newdata=trainingset)),
colour='blue')+
ggtitle('Salary vs Experience(Test set)')+
xlab('Years of experience')+
ylab('Salary')
ログイン後にコピー

トレーニング セットの結果を視覚化します

简单线性回归概念 R代码实现简单线性回归

以上がR で単純な線形回帰法を実装し、その概念を説明するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

多重線形回帰モデルの概念と応用の詳細な分析 多重線形回帰モデルの概念と応用の詳細な分析 Jan 22, 2024 pm 06:30 PM

多重線形回帰は線形回帰の最も一般的な形式であり、単一の応答変数 Y が複数の予測子変数とどのように線形関係を示すかを説明するために使用されます。重回帰を使用できるアプリケーションの例: 住宅の販売価格は、場所、寝室とバスルームの数、建設年、敷地サイズなどの要因によって影響を受ける可能性があります。 2. 子供の身長は、母親の身長、父親の身長、栄養および環境要因によって異なります。重線形回帰モデルのパラメーター k 個の独立した予測子変数 x1、x2...、xk と応答変数 y をもつ重線形回帰モデルを考えます。 k+1 個の変数に対して n 個の観測値があり、n 個の変数が k より大きいはずだとします。最小二乗回帰の基本的な目標は、超平面を (k+1) 次元空間に当てはめて残差の二乗和を最小化することです。モデル上で

Pythonの線形回帰モデルの詳しい解説 Pythonの線形回帰モデルの詳しい解説 Jun 10, 2023 pm 12:28 PM

Python の線形回帰モデルの詳細説明 線形回帰は、古典的な統計モデルおよび機械学習アルゴリズムです。株式市場予測、天気予測、住宅価格予測などの予測やモデリングの分野で広く使用されています。効率的なプログラミング言語として、Python は線形回帰モデルを含む豊富な機械学習ライブラリを提供します。この記事では、モデルの原理、アプリケーション シナリオ、コードの実装など、Python の線形回帰モデルを詳しく紹介します。線形回帰の原理 線形回帰モデルは、変数間の線形関係に基づいています。

チホノフ正則化 チホノフ正則化 Jan 23, 2024 am 09:33 AM

チホノフ正則化は、リッジ回帰または L2 正則化とも呼ばれ、線形回帰に使用される正則化方法です。 L2 ノルム ペナルティ項をモデルの目的関数に追加することで、モデルの複雑さと汎化能力を制御します。このペナルティ項は、過剰な重みを回避するために二乗和によってモデルの重みにペナルティを課し、それによって過剰適合の問題を軽減します。この方法では、損失関数に正則化項を導入し、正則化係数を調整してモデルのフィッティング能力と一般化能力のバランスをとります。チホノフ正則化は実際のアプリケーションに幅広く応用でき、モデルのパフォーマンスと安定性を効果的に向上させることができます。正則化する前、線形回帰の目的関数は次のように表すことができます: J(w)=\frac{1}{2m}\sum_{i=1}^{m}(h_

機械学習について知っておくべきアルゴリズムトップ10! 機械学習について知っておくべきアルゴリズムトップ10! Apr 12, 2023 am 09:34 AM

1. 線形回帰 線形回帰は、おそらく最も一般的な機械学習アルゴリズムです。線形回帰は、直線を見つけて、この直線を散布図のデータ ポイントにできるだけ近づけることです。このデータに直線方程式を当てはめることにより、独立変数 (x 値) と数値結果 (y 値) を表現しようとします。この線は、将来の値を予測するために使用できます。このアルゴリズムで最も一般的に使用される手法は最小二乗法です。この方法では、直線上の各データ ポイントからの垂直距離を最小化する最適な直線が計算されます。合計距離は、すべてのデータ ポイントの垂直距離 (緑色の線) の二乗の合計です。この二乗誤差または距離を最小限に抑えてモデルを適合させるという考え方です。例えば

ロジスティック回帰におけるOR値の定義・意味・計算方法を詳しく解説 ロジスティック回帰におけるOR値の定義・意味・計算方法を詳しく解説 Jan 23, 2024 pm 12:48 PM

ロジスティック回帰は分類問題に使用される線形モデルであり、主に二項分類問題の確率値を予測するために使用されます。シグモイド関数を使用して線形予測値を確率値に変換し、しきい値に基づいて分類の決定を行います。ロジスティック回帰では、OR 値は、モデル内のさまざまな変数が結果に与える影響を測定するために使用される重要な指標です。 OR 値は、独立変数の単位変化に対して発生する従属変数の確率の複数の変化を表します。 OR 値を計算することで、モデルに対する特定の変数の寄与を判断できます。 OR 値の計算方法は、指数関数 (exp) の自然対数 (ln) の係数を取ることです。つまり、OR=exp(β) です。ここで、β はロジスティック回帰の独立変数の係数です。モデル。道具

線形および非線形解析の多項式回帰のプロパティ 線形および非線形解析の多項式回帰のプロパティ Jan 22, 2024 pm 03:03 PM

多項式回帰は、非線形データ関係に適した回帰分析手法です。直線の関係のみを当てはめることができる単純な線形回帰モデルとは異なり、多項式回帰モデルは複雑な曲線の関係をより正確に当てはめることができます。多項式の特徴を導入し、変数の高次項をモデルに追加して、データの非線形変化にうまく適応します。このアプローチにより、モデルの柔軟性と適合性が向上し、より正確なデータの予測と解釈が可能になります。多項式回帰モデルの基本形式は次のとおりです: y=β0+β1x+β2x^2+…+βn*x^n+ε. このモデルでは、y は予測する従属変数、x は独立変数です。 。 β0~βnはモデルの係数で、独立変数が従属変数に与える影響の度合いを決定します。 ε はモデルの誤差項を表します。これは、次のことができないことによって決定されます。

一般化線形モデルと通常の線形モデルの違い 一般化線形モデルと通常の線形モデルの違い Jan 23, 2024 pm 01:45 PM

一般化線形モデルと一般線形モデルは、統計学でよく使用される回帰分析手法です。 2 つの用語は似ていますが、いくつかの点で異なります。一般化線形モデルでは、リンク関数を通じて予測子変数を従属変数にリンクすることで、従属変数が非正規分布に従うことが可能になります。一般的な線形モデルは、従属変数が正規分布に従うことを前提とし、モデリングに線形関係を使用します。したがって、一般化線形モデルはより柔軟性があり、適用範囲が広くなります。 1. 定義と範囲 一般線形モデルは、従属変数と独立変数の間に線形関係がある場合に適した回帰分析手法です。従属変数は正規分布に従うと仮定します。一般化線形モデルは、必ずしも正規分布に従わない従属変数に適した回帰分析手法です。リンク関数と分布族を導入することで従属変数を記述することができます

一般化線形モデルの定義を理解する 一般化線形モデルの定義を理解する Jan 23, 2024 pm 05:21 PM

一般化線形モデル (GLM) は、従属変数と独立変数の間の関係を記述および分析するために使用される統計学習方法です。従来の線形回帰モデルは連続数値変数のみを処理できますが、GLM は二値変数、多変量変数、カウント変数、カテゴリ変数など、より多くの種類の変数を処理できるように拡張できます。 GLM の中心的なアイデアは、適切な誤差分布を使用して従属変数の変動性を記述しながら、適切なリンク関数を通じて従属変数の期待値を独立変数の線形結合に関連付けることです。このようにして、GLM はさまざまなタイプのデータに適応でき、モデルの柔軟性と予測力がさらに向上します。適切なリンク関数とエラー分布を選択することで、GLM を次の条件に適応させることができます。

See all articles