Aller au contenu

« Facteur d'inflation de la variance » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Huguespotter (discuter | contributions)
Créé en traduisant la page « Variance inflation factor »
 
Huguespotter (discuter | contributions)
les liens sont pas apropriés Annulation de la modification de Tims technic (d)
 
(6 versions intermédiaires par 5 utilisateurs non affichées)
Ligne 1 : Ligne 1 :




En [[statistique]], le '''facteur d'inflation de la variance''' ('''FIV'''), en anglais '''variance inflation factor''' ('''VIF'''), est le r[[quotient]] de la variance de l'estimation de paramètre lors de l'ajustement d'un modèle complet qui inclut d'autres paramètres à la variance de l'estimation du paramètre si le modèle est ajusté uniquement avec ce paramètre seul<ref>{{Ouvrage|prénom1=Gareth|nom1=James|prénom2=Daniela|nom2=Witten|prénom3=Trevor|nom3=Hastie|prénom4=Robert|nom4=Tibshirani|titre=An Introduction to Statistical Learning|éditeur=Springer Science+Business Media New York|année=2017|isbn=978-1-4614-7138-7}}</ref>. Le VIF fournit un indice qui mesure dans quelle mesure la [[Variance (mathématiques)|variance]] (le carré de l'[[écart type]] de l'estimation) d'un coefficient de régression estimé est augmentée en raison de la colinéarité.
En [[statistique]], le '''facteur d'inflation de la variance''' ('''FIV'''), en anglais '''variance inflation factor''' ('''VIF'''), est le [[quotient]] de la variance de l'estimation de paramètre lors de l'ajustement d'un modèle complet qui inclut d'autres paramètres à la variance de l'estimation du paramètre si le modèle est ajusté uniquement avec ce paramètre seul<ref>{{Ouvrage|prénom1=Gareth|nom1=James|prénom2=Daniela|nom2=Witten|prénom3=Trevor|nom3=Hastie|prénom4=Robert|nom4=Tibshirani|titre=An Introduction to Statistical Learning|éditeur=Springer Science+Business Media New York|année=2017|isbn=978-1-4614-7138-7}}</ref>. Le VIF fournit un indice qui mesure dans quelle mesure la [[Variance (mathématiques)|variance]] (le carré de l'[[écart type]] de l'estimation) d'un coefficient de régression estimé est augmentée en raison de la colinéarité.


[[Cuthbert Daniel]] prétend avoir inventé le concept derrière le facteur d'inflation de la variance, mais ce n'est pas lui qui lui a donné son nom<ref>{{Article|langue=en|auteur1=Ron Snee|titre=Who Invented the Variance Inflation Factor?|périodique=Snee Associates|date=1981|lire en ligne=https://www.researchgate.net/publication/291808767_Who_Invented_the_Variance_Inflation_Factor}}</ref>.
[[Cuthbert Daniel]] prétend avoir inventé le concept derrière le facteur d'inflation de la variance, mais ce n'est pas lui qui lui a donné son nom<ref>{{Article|langue=en|auteur1=Ron Snee|titre=Who Invented the Variance Inflation Factor?|périodique=Snee Associates|date=1981|lire en ligne=https://www.researchgate.net/publication/291808767_Who_Invented_the_Variance_Inflation_Factor}}</ref>.
Ligne 8 : Ligne 8 :
Considérez le [[modèle linéaire]] suivant avec ''k'' variables indépendantes, notée ''X'' <sub>''k''</sub> :
Considérez le [[modèle linéaire]] suivant avec ''k'' variables indépendantes, notée ''X'' <sub>''k''</sub> :


: ''Y'' = ''β'' <sub>0</sub> + ''β'' <sub>1</sub> ''X'' <sub>1</sub> + ''β'' <sub>2</sub> ''X'' <sub>2</sub> + ... + ''β'' <sub>''k''</sub> ''X'' <sub>''k''</sub> + ''ε'' .
: ''Y'' = ''β'' <sub>0</sub> + ''β'' <sub>1</sub> ''X'' <sub>1</sub> + ''β'' <sub>2</sub> ''X'' <sub>2</sub> + ... + ''β'' <sub>''k''</sub> ''X'' <sub>''k''</sub> + ''ε''.


L'[[erreur type]] de l'estimation de ''β'' <sub>''j''</sub> est la racine carrée de ''j''+1 élément diagonal de ''s''<sup>2</sup>(''X'' &#x2032;''X'' ) <sup>&#x2212; 1</sup>, où ''s'' est la racine de l'[[Racine de l'erreur quadratique moyenne|erreur quadratique moyenne (RMSE)]] (notez que RMSE<sup>2</sup> est un estimateur convergent de la vraie variance du terme d'erreur, <math> \sigma^2 </math>); ''X'' est la matrice d'expérience de la régression &#x2014; une matrice telle que ''X'' <sub>''i'', ''j'' +1</sub> est la valeur de la ''j'' <sup>ème</sup> variable indépendante pour la ''i''<sup>ème</sup> observation, et telle que ''X''<sub>''i'',1</sub>, le vecteur prédicteur associé à l'intercept, est égal à 1 pour tout ''i''. Il s'avère que le carré de cette erreur standard, la variance estimée de l'estimation de ''β''<sub>''j''</sub>, peut être exprimé de manière équivalente comme suit<ref>{{Ouvrage|prénom1=John O.|nom1=Rawlings|prénom2=Sastry G.|nom2=Pantula|prénom3=David A.|nom3=Dickey|titre=Applied regression analysis : a research tool|lieu=New York|éditeur=Second|date=1998|pages totales=[https://archive.org/details/appliedregressio00rawl_492/page/n384 372], 373|isbn=0387227539|oclc=54851769|lire en ligne=https://archive.org/details/appliedregressio00rawl_492|accès url=limited}}</ref>{{,}}<ref>{{Ouvrage|prénom1=Julian J.|nom1=Faraway|titre=Practical Regression and Anova using R|année=2002|pages totales=117, 118|lire en ligne=https://cran.r-project.org/doc/contrib/Faraway-PRA.pdf}}</ref>:
L'[[erreur type]] de l'estimation de ''β'' <sub>''j''</sub> est la racine carrée de ''j''+1 élément diagonal de ''s''<sup>2</sup>(''X'' ''X'' ) <sup> 1</sup>, où ''s'' est la racine de l'[[Racine de l'erreur quadratique moyenne|erreur quadratique moyenne (RMSE)]] (notez que RMSE<sup>2</sup> est un estimateur convergent de la vraie variance du terme d'erreur, <math> \sigma^2 </math>); ''X'' est la matrice d'expérience de la régression une matrice telle que ''X'' <sub>''i'', ''j'' +1</sub> est la valeur de la ''j'' <sup>ème</sup> variable indépendante pour la ''i''<sup>ème</sup> observation, et telle que ''X''<sub>''i'',1</sub>, le vecteur prédicteur associé à l'intercept, est égal à 1 pour tout ''i''. Il s'avère que le carré de cette erreur standard, la variance estimée de l'estimation de ''β''<sub>''j''</sub>, peut être exprimé de manière équivalente comme suit<ref>{{Ouvrage|prénom1=John O.|nom1=Rawlings|prénom2=Sastry G.|nom2=Pantula|prénom3=David A.|nom3=Dickey|titre=Applied regression analysis : a research tool|lieu=New York|éditeur=Second|date=1998|pages totales=[https://archive.org/details/appliedregressio00rawl_492/page/n384 372], 373|isbn=0387227539|oclc=54851769|lire en ligne=https://archive.org/details/appliedregressio00rawl_492|accès url=}}</ref>{{,}}<ref>{{Ouvrage|prénom1=Julian J.|nom1=Faraway|titre=Practical Regression and Anova using R|année=2002|pages totales=117, 118|lire en ligne=https://cran.r-project.org/doc/contrib/Faraway-PRA.pdf}}</ref>:


: <math>
: <math>
Ligne 34 : Ligne 34 :
</math>
</math>


: <math> r_{j,j} = X_j^T X_j, r_{j,-j} = X_j^T X_{-j}, r_{-j,j} = X_{-j}^T X_j, r_{-j,-j} = X_{-j}^T X_{-j}</math> .
: <math> r_{j,j} = X_j^T X_j, r_{j,-j} = X_j^T X_{-j}, r_{-j,j} = X_{-j}^T X_j, r_{-j,-j} = X_{-j}^T X_{-j}</math>.


En utilisant [[Complément de Schur|le complément de Schur]], l'élément de la première ligne et de la première colonne de <math> r^{-1} </math> est :
En utilisant [[complément de Schur]], l'élément de la première ligne et de la première colonne de <math> r^{-1} </math> est :


: <math>r^{-1}_{1,1} = [r_{j,j} - r_{j,-j} r_{-j,-j}^{-1} r_{-j,j} ]^{-1} </math>
: <math>r^{-1}_{1,1} = [r_{j,j} - r_{j,-j} r_{-j,-j}^{-1} r_{-j,j} ]^{-1} </math>
Ligne 63 : Ligne 63 :
: <math>X_1=\alpha_0 + \alpha_2 X_2 + \alpha_3 X_3 + \cdots + \alpha_k X_k +\varepsilon</math>
: <math>X_1=\alpha_0 + \alpha_2 X_2 + \alpha_3 X_3 + \cdots + \alpha_k X_k +\varepsilon</math>


où <math>\alpha_0</math> est une constante et <math>\varepsilon</math> est le [[Résidu (statistiques)|résidu]] .
où <math>\alpha_0</math> est une constante et <math>\varepsilon</math> est le [[Résidu (statistiques)|résidu]].


=== Deuxième étape ===
=== Deuxième étape ===
Ligne 73 : Ligne 73 :


=== Troisième étape ===
=== Troisième étape ===
Analyser l'ampleur de la multicolinéarité en considérant la taille de la <math>\operatorname{VIF}(\hat \alpha_i)</math> . Deux règles empiriques sont couramment utilisées :
Analyser l'ampleur de la multicolinéarité en considérant la taille de la <math>\operatorname{VIF}(\hat \alpha_i)</math>. Deux règles empiriques sont couramment utilisées :


* si <math>\operatorname{VIF}(\hat \alpha_i) > 10</math> alors la multicolinéarité est élevée<ref>{{Ouvrage|prénom1=M. H.|nom1=Kutner|prénom2=C. J.|nom2=Nachtsheim|prénom3=J.|nom3=Neter|titre=Applied Linear Regression Models|éditeur=McGraw-Hill Irwin|année=2004}}</ref>;
* si <math>\operatorname{VIF}(\hat \alpha_i) > 10</math> alors la multicolinéarité est élevée<ref>{{Ouvrage|prénom1=M. H.|nom1=Kutner|prénom2=C. J.|nom2=Nachtsheim|prénom3=J.|nom3=Neter|titre=Applied Linear Regression Models|éditeur=McGraw-Hill Irwin|année=2004}}</ref>;
* D'autres auteurs préfèrent utiliser que si <math>\operatorname{VIF}(\hat \alpha_i) > 5</math> alors la multicolinéarité est élevée<ref name="Sheather 2009 p.">{{Ouvrage|prénom1=Simon|nom1=Sheather|titre=A modern approach to regression with R|éditeur=Springer|année=2009|isbn=978-0-387-09607-0}}</ref>.
* D'autres auteurs préfèrent utiliser que si <math>\operatorname{VIF}(\hat \alpha_i) > 5</math> alors la multicolinéarité est élevée<ref name="Sheather 2009 p.">{{Ouvrage|prénom1=Simon|nom1=Sheather|titre=A modern approach to regression with R|éditeur=Springer|année=2009|isbn=978-0-387-09607-0}}</ref>.


Ligne 85 : Ligne 85 :
La racine carrée du facteur d'inflation de la variance indique dans quelle mesure l'[[erreur type]] augmente par rapport à ce qui se passerait si cette variable avait une corrélation nulle avec d'autres variables prédictives du modèle.
La racine carrée du facteur d'inflation de la variance indique dans quelle mesure l'[[erreur type]] augmente par rapport à ce qui se passerait si cette variable avait une corrélation nulle avec d'autres variables prédictives du modèle.


'''Exemple'''
'''Exemple'''Si le facteur d'inflation de la variance d'une variable prédictive était de 5,27 (√5,27&nbsp;=&nbsp;2.3), cela signifie que l’[[erreur type]] pour le coefficient de cette variable prédictive est 2,3 fois plus grande que si cette variable prédictive avait une corrélation de 0 avec les autres variables prédictives.
Si le facteur d'inflation de la variance d'une variable prédictive était de 5,27 (√5,27=2.3), cela signifie que l’[[erreur type]] pour le coefficient de cette variable prédictive est 2,3 fois plus grande que si cette variable prédictive avait une corrélation de 0 avec les autres variables prédictives.


== Implémentation ==
== Implémentation ==
Ligne 98 : Ligne 99 :


== Références ==
== Références ==
{{Traduction/Référence|lang1=en|art1=Variance inflation factor}}
{{Traduction/Référence|lang1=en|art1=Variance inflation factor}}
{{Références}}
{{Références}}
{{Références}}


Ligne 106 : Ligne 106 :
* [[Régression linéaire]]
* [[Régression linéaire]]
{{Portail|Statistiques}}
{{Portail|Statistiques}}
[[de:Multikollinearität#Varianzinflationsfaktor]]
[[Catégorie:Régression]]
[[Catégorie:Régression]]
[[Catégorie:Pages avec des traductions non relues]]
[[Catégorie:Pages avec des traductions non relues]]
[[de:Multikollinearität#Varianzinflationsfaktor]]

Dernière version du 29 décembre 2024 à 00:30


En statistique, le facteur d'inflation de la variance (FIV), en anglais variance inflation factor (VIF), est le quotient de la variance de l'estimation de paramètre lors de l'ajustement d'un modèle complet qui inclut d'autres paramètres à la variance de l'estimation du paramètre si le modèle est ajusté uniquement avec ce paramètre seul[1]. Le VIF fournit un indice qui mesure dans quelle mesure la variance (le carré de l'écart type de l'estimation) d'un coefficient de régression estimé est augmentée en raison de la colinéarité.

Cuthbert Daniel prétend avoir inventé le concept derrière le facteur d'inflation de la variance, mais ce n'est pas lui qui lui a donné son nom[2].

Définition

[modifier | modifier le code]

Considérez le modèle linéaire suivant avec k variables indépendantes, notée X k :

Y = β 0 + β 1 X 1 + β 2 X 2 + ... + β k X k + ε.

L'erreur type de l'estimation de β j est la racine carrée de j+1 élément diagonal de s2(XX ) − 1, où s est la racine de l'erreur quadratique moyenne (RMSE) (notez que RMSE2 est un estimateur convergent de la vraie variance du terme d'erreur, ); X est la matrice d'expérience de la régression — une matrice telle que X i, j +1 est la valeur de la j ème variable indépendante pour la ième observation, et telle que Xi,1, le vecteur prédicteur associé à l'intercept, est égal à 1 pour tout i. Il s'avère que le carré de cette erreur standard, la variance estimée de l'estimation de βj, peut être exprimé de manière équivalente comme suit[3],[4]:

Rj 2 est le R2 -multiple pour la régression de Xj sur les autres covariables (une régression qui n'implique pas la variable de réponse Y ) et sont les estimateurs des coefficients, c'est à dire, des vrais . Cette identité sépare les influences de plusieurs facteurs distincts sur la variance de l'estimation du coefficient :

  • s 2 : une plus grande dispersion dans les données autour de la surface de régression conduit à une variance proportionnellement plus grande dans les estimations des coefficients.
  • n : une taille d'échantillon plus grande entraîne une variance proportionnellement plus faible dans les estimations des coefficients.
  • : une plus grande variabilité dans une covariable particulière conduit à une variance proportionnellement plus faible dans l'estimation du coefficient correspondant.

Le terme restant, 1/(1-Rj2) est le VIF. Il reflète tous les autres facteurs qui influencent l’incertitude dans les estimations des coefficients. Le VIF est égal à 1 lorsque le vecteur Xj est orthogonal à chaque colonne de la matrice de conception pour la régression de X j sur les autres covariables. En revanche, le VIF est supérieur à 1 lorsque le vecteur X j n’est pas orthogonal à toutes les colonnes de la matrice de conception pour la régression de X j sur les autres covariables. Enfin, notons que le VIF est invariant à la mise à l'échelle des variables (c'est-à-dire que nous pourrions mettre à l'échelle chaque variable X j par une constante c j sans changer le VIF).

Maintenant, posons , et sans perdre la généralité, nous réorganisons les colonnes de X pour définir la première colonne comme

.

En utilisant le complément de Schur, l'élément de la première ligne et de la première colonne de est :

Ensuite nous avons,

Ici, est le coefficient de régression de la variable dépendante sur la covariable . est la somme des carrés des résidus correspondante.

Calcul et analyse

[modifier | modifier le code]

Nous pouvons calculer k VIF différents (un pour chaque Xi ) en trois étapes :

Première étape

[modifier | modifier le code]

Nous exécutons d’abord une régression des moindres carrés ordinaires avec Xi comme fonction de toutes les autres variables explicatives dans la première équation.Si i=1, par exemple, l'équation serait

est une constante et est le résidu.

Deuxième étape

[modifier | modifier le code]

Ensuite, calculez le VIF pour via la formule suivante :

est le coefficient de détermination de l'équation de régression à l'étape 1, avec sur le côté gauche, et toutes les autres variables sur le côté droit.

Troisième étape

[modifier | modifier le code]

Analyser l'ampleur de la multicolinéarité en considérant la taille de la . Deux règles empiriques sont couramment utilisées :

  • si alors la multicolinéarité est élevée[5] ;
  • D'autres auteurs préfèrent utiliser que si alors la multicolinéarité est élevée[6].

Cependant, il n’existe aucune valeur de VIF supérieure à 1 dans laquelle la variance des pentes des prédicteurs ne soit pas gonflée. Par conséquent, l'inclusion de deux ou plusieurs variables dans une régression multiple qui ne sont pas orthogonales (c'est-à-dire qui ont une corrélation = 0) modifiera la pente, l'erreur standard de la pente et la valeur-p, car il existe une variance partagée entre les prédicteurs qui ne peut être attribuée de manière unique à l'un d'entre eux[7].

Certains logiciels calculent plutôt la tolérance qui est simplement l'inverse du VIF. Le choix de celui à utiliser est une question de préférence personnelle.

Interprétation

[modifier | modifier le code]

La racine carrée du facteur d'inflation de la variance indique dans quelle mesure l'erreur type augmente par rapport à ce qui se passerait si cette variable avait une corrélation nulle avec d'autres variables prédictives du modèle.

Exemple Si le facteur d'inflation de la variance d'une variable prédictive était de 5,27 (√5,27 = 2.3), cela signifie que l’erreur type pour le coefficient de cette variable prédictive est 2,3 fois plus grande que si cette variable prédictive avait une corrélation de 0 avec les autres variables prédictives.

Implémentation

[modifier | modifier le code]

Références

[modifier | modifier le code]
  1. Gareth James, Daniela Witten, Trevor Hastie et Robert Tibshirani, An Introduction to Statistical Learning, Springer Science+Business Media New York, (ISBN 978-1-4614-7138-7)
  2. (en) Ron Snee, « Who Invented the Variance Inflation Factor? », Snee Associates,‎ (lire en ligne)
  3. John O. Rawlings, Sastry G. Pantula et David A. Dickey, Applied regression analysis : a research tool, New York, Second, , 372, 373 (ISBN 0387227539, OCLC 54851769, lire en ligne Accès limité)
  4. Julian J. Faraway, Practical Regression and Anova using R, , 117, 118 (lire en ligne)
  5. M. H. Kutner, C. J. Nachtsheim et J. Neter, Applied Linear Regression Models, McGraw-Hill Irwin,
  6. Simon Sheather, A modern approach to regression with R, Springer, (ISBN 978-0-387-09607-0)
  7. Gareth James, Daniela Witten, Trevor Hastie et Robert Tibshirani, An introduction to statistical learning: with applications in R, New York, NY, Second, (ISBN 978-1-0716-1418-1, lire en ligne), p. 116