Les équations normales sont une méthode simple et intuitive de régression linéaire. La droite la mieux ajustée est calculée directement à l’aide de formules mathématiques sans utiliser d’algorithmes itératifs. Cette méthode est particulièrement adaptée aux petits ensembles de données.
Tout d’abord, passons en revue les principes de base de la régression linéaire. La régression linéaire est une méthode utilisée pour prédire la relation entre une variable dépendante Y et une ou plusieurs variables indépendantes X. Il n'y a qu'une seule variable indépendante X dans la régression linéaire simple, tandis que deux ou plusieurs variables indépendantes sont incluses dans la régression linéaire multiple.
En régression linéaire, nous utilisons la méthode des moindres carrés pour ajuster une ligne droite afin de minimiser la somme des distances entre les points de données et la ligne droite. L'équation de la droite est :
Y=β0+β1X1+β2X2+…+βnXn
Le but de l'équation est de trouver l'ordonnée à l'origine et le coefficient de régression optimaux afin qu'ils correspondent le mieux aux données.
Voyons maintenant comment utiliser l'équation normale pour calculer le β0 optimal à βn. L'idée de base des équations normales est que nous pouvons obtenir les coefficients de régression optimaux en résolvant un système d'équations linéaires.
La forme de ce système d'équations linéaires est la suivante :
(XT , β est le vecteur des coefficients de régression. Dans ce système d’équations, nous devons résoudre β.
Ensuite, nous devons convertir ce système d'équations en une forme qui peut être résolue. Nous pouvons accomplir cette étape en multipliant les deux côtés du système d’équations par la matrice inverse de (XT). De cette façon, le système d'équations devient normal. L'idée principale de l'équation est d'obtenir le coefficient de régression optimal en résolvant un système d'équations linéaires. La forme de ce système d'équations est (XT X)β=XT Y, où X est la matrice des variables indépendantes, Y est le vecteur des variables dépendantes, XT est la transposée de Nous pouvons résoudre β en multipliant les deux côtés du système d’équations par la matrice inverse de (XT). Cette méthode est très simple et facile à comprendre et fonctionne bien pour les petits ensembles de données. Cependant, il convient de noter que la complexité de calcul de l'équation normale est O(n^3), cette méthode peut donc ne pas convenir lorsqu'il s'agit de grands ensembles de données.
L'avantage de l'équation normale est qu'elle peut calculer directement le coefficient de régression optimal sans utiliser d'algorithme itératif. De plus, la solution de cette méthode est unique, il n’y a donc pas de problème de solutions optimales locales multiples.
Cependant, les équations normales présentent également certains inconvénients. Premièrement, cela nécessite de calculer la matrice inverse de (XT Si la matrice (XT De plus, les équations normales avec une complexité de calcul de O(n^3) peuvent devenir très lentes lorsqu'il s'agit de grands ensembles de données, de sorte que les algorithmes itératifs peuvent être plus adaptés à ce cas.
Lors de l'utilisation d'équations normales pour la régression linéaire, les conditions suivantes doivent être remplies :
1 Relation linéaire
Les équations normales ne s'appliquent qu'aux données ayant des relations linéaires, c'est-à-dire la relation entre les variable dépendante et variable indépendante La relation doit être linéaire. Si les données ne satisfont pas à une relation linéaire, l’équation normale ne peut pas obtenir un bon modèle d’ajustement.
2. Pas de multicolinéarité
La multicolinéarité fait référence à la situation où il existe un degré élevé de corrélation entre des variables indépendantes. Si la multicolinéarité est présente, l'équation normale peut ne pas aboutir à un modèle d'ajustement précis. Dans des applications pratiques, la multicolinéarité peut être vérifiée en calculant les coefficients de corrélation entre variables indépendantes.
3. Indépendance des données
L'équation normale exige que les données soient indépendantes, c'est-à-dire qu'il n'y a pas de corrélation entre les données entre chaque échantillon. Si les données ne sont pas indépendantes, l’équation normale peut donner lieu à un ajustement biaisé du modèle.
4. Homogénéité des variances
L'homogénéité des variances signifie que la variance de la variable dépendante doit rester égale sous différentes valeurs des variables indépendantes. Si les variances ne sont pas homogènes, l’équation normale peut donner lieu à un modèle mal ajusté. Dans les applications pratiques, l'homogénéité des variances peut être vérifiée en traçant les résidus.
5. L'erreur obéit à la distribution normale
L'équation normale exige que l'erreur obéisse à la distribution normale, c'est-à-dire que le résidu doit être aléatoire et conforme aux caractéristiques de la distribution normale. Si les erreurs ne sont pas distribuées normalement, l’équation normale peut donner lieu à un modèle mal ajusté.
Il convient de noter que les conditions ci-dessus ne sont pas indépendantes les unes des autres et qu'elles peuvent s'influencer mutuellement. Dans les applications pratiques, nous devons prendre en compte ces conditions de manière globale et sélectionner un modèle de régression approprié en fonction des caractéristiques des données. Si les données ne remplissent pas les conditions d'une équation normale, vous pouvez envisager d'utiliser d'autres méthodes de régression, telles que la régression par crête, la régression par lasso, etc.
En résumé, l'équation normale est une méthode de régression linéaire simple et facile à comprendre adaptée aux petits ensembles de données. Mais lorsque vous traitez de grands ensembles de données, vous devez prêter attention à la question de la complexité informatique et envisager d’utiliser d’autres méthodes.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!