Quelle est la quantité d’informations ? Unités de mesure. Codage de l'information et mesure de sa mesure

Test de Durbin-Watson (ou statistique DW).

Il s’agit du test le plus connu pour détecter l’autocorrélation du premier ordre. Les statistiques Durbin - Watson sont données dans toutes les éditions spéciales programmes informatiques comme l'un des les caractéristiques les plus importantes qualité modèle de régression.

Premièrement, selon l’équation de régression empirique construite

les valeurs d'écart sont déterminées Calculé

statistiques

0 autocorrélation positive ;

dt zone d'incertitude ;

d u - d u - il n'y a pas d'autocorrélation ;

  • 4 - tu
  • 4 - d/ autocorrélation négative.

On peut montrer que la statistique (2,64) est étroitement liée au coefficient d'autocorrélation du premier ordre :

La relation s'exprime par la formule :

C'est de là que vient le sens analyse statistique autocorrélation. Puisque les valeurs G varier de -1 jusqu'à + 1, DW varie de 0 à 4. Lorsqu’il n’y a pas d’autocorrélation, le coefficient d’autocorrélation égal à zéro, et statistiques DW est égal à 2. Statistiques D.W.égal à 0, correspond à une autocorrélation positive lorsque l'expression entre parenthèses est égale à zéro (g= +1). Avec autocorrélation négative (g= - 1), DW= 4 et l’expression entre parenthèses est égale à deux.

Les limites du critère de Durbin-Watson sont les suivantes.

  • 1. Statistiques DW s'applique uniquement aux modèles qui contiennent un terme factice.
  • 2. On suppose que les écarts aléatoires sont déterminés à l'aide d'un schéma itératif
  • 3. Les données statistiques doivent avoir la même fréquence (il ne doit y avoir aucune lacune dans les observations).
  • 4. Le critère de Durbin-Watson n'est pas applicable aux modèles autorégressifs de la forme

Pour les modèles (2.66), les statistiques r de Durbin sont proposées :

où p est l’estimation du premier ordre de p (2,65) ;

D(c)- variance d'échantillon du coefficient pour une variable retardée oui, _b n- nombre d'observations.

Avec grand n et la validité de l'hypothèse nulle H0 : p = 0 ET- les statistiques ont une distribution standard h ~ N( 0, 1). Ainsi, à un niveau de signification donné, le point critique est déterminé à partir de la condition :

et les statistiques L sont comparées à oh.. Si ET > je/2 , alors l'hypothèse nulle d'absence d'autocorrélation doit être rejetée. Sinon, il n'est pas rejeté.

Généralement, la valeur p est calculée en première approximation à l'aide de la formule p&1-DIV/2, un D(c)égal au carré de l'erreur type c'est estimations des coefficients Avec. Il convient de noter que le calcul des statistiques /r est impossible lorsque nD(c) > 1.

L'autocorrélation est le plus souvent causée par une mauvaise spécification du modèle. Par conséquent, vous devriez essayer d'ajuster le modèle lui-même, en particulier, introduire un facteur non pris en compte ou modifier la forme du modèle, par exemple de linéaire à semi-logarithmique ou hyperbolique. Si toutes ces méthodes ne vous aident pas et que l'autocorrélation est provoquée par certaines propriétés internes de la série (e,), vous pouvez utiliser une transformation appelée schéma autorégressif du premier ordre AR( 1).

Regardons /Sh1) en utilisant la régression appariée comme exemple :

Alors, d’après (2.68), les observations voisines correspondent aux formules suivantes :

Si les écarts aléatoires sont déterminés par l'expression (2.65), où le coefficient p est connu, alors la transformation des formules (2.69) et (2.70) donne :

Faisons des changements de variables dans (2.71) : on obtient, compte tenu de l'expression (2.65) :

Puisque les écarts aléatoires y satisfont aux hypothèses MCO, les estimations UN Et b Les équations (2.73) auront les propriétés des meilleurs estimateurs linéaires sans biais. Sur la base des valeurs transformées de toutes les variables, les estimations des paramètres sont calculées à l'aide des moindres carrés ordinaires. UN Et b, qui peut ensuite être utilisé dans la régression (2.68).

Cependant, la manière dont les variables transformées sont calculées (2.72) entraîne la perte de la première observation s'il n'y a aucune information sur les observations précédentes. Cela réduit le nombre de degrés de liberté d'un, ce qui n'est pas très significatif pour les grands échantillons, mais pour les petits échantillons cela entraîne une perte d'efficacité. Ensuite la première observation est restituée à l’aide de la correction Price-Winsten :


Pour la transformation /Sh1), ainsi que lors de l'introduction des corrections (2.74), il est important d'estimer le coefficient d'autorégression p. Cela se fait de plusieurs manières. Le plus simple est d'estimer p à partir de statistiques

G est considéré comme une estimation de p.

La formule (2,75) fonctionne bien pour un grand nombre d'observations.

Il existe d'autres méthodes pour estimer p : la méthode Cochran-Orcutt et la méthode Hildreth-Lu. Examinons la méthode Cochran-Orcutt étape par étape :

  • 1. Tout d’abord, l’OLS habituel est appliqué aux données sources non transformées, pour lesquelles les résidus sont calculés.
  • 2. Ensuite, son estimation MCO en régression (2,65) est prise comme valeur approximative du coefficient d'autorégression p.
  • 3. Les variables d'origine sont transformées selon les formules (2.72) et la méthode des moindres carrés est appliquée aux données transformées pour déterminer de nouvelles estimations de paramètres UN Et b.
  • 4. La procédure est répétée à partir de l'étape 2.

Le processus se termine généralement lorsque l’approximation suivante p diffère peu de la précédente. Parfois, le nombre d’itérations est simplement fixe. Cette procédure est implémentée dans la plupart des programmes informatiques économétriques.

où Du, = ouais, - ouais 1, Dx, = x, - x,_ 1 - les soi-disant premières différences (en arrière).

À partir de l'équation (2.76), le coefficient est estimé à l'aide des moindres carrés. b. Paramètre UN n’est pas directement déterminé ici, mais on sait par les moindres carrés que une = y -bx.

Dans le cas p = -1, en additionnant (2.69) et (2.70) en tenant compte de (2.65), on obtient l'équation de régression.

Les vraies valeurs des écarts Et,t = 1,2, ..., T sont inconnues. Par conséquent, des conclusions sur leur indépendance sont tirées sur la base des estimations et,t = 1,2, ..., T, obtenues à partir de l'équation empirique
régression. Considérons méthodes possibles définitions de l’autocorrélation.
Habituellement, les écarts non corrélés et,t = 1, 2, ... , T sont vérifiés, ce qui est une condition nécessaire mais insuffisante pour l'indépendance. De plus, la décorrélation des valeurs voisines est vérifiée. Les voisins sont généralement considérés comme des valeurs de et adjacentes dans le temps (lorsque l'on considère des séries chronologiques) ou par ordre croissant de la variable explicative X (dans le cas d'un échantillon transversal). Pour eux, il est facile de calculer le coefficient de corrélation, appelé dans ce cas coefficient d'autocorrélation du premier ordre :

Dans ce cas, on prend en compte que l'espérance mathématique des restes M (et) = 0.
En pratique, pour analyser la corrélation des écarts, au lieu du coefficient de corrélation, ils utilisent le coefficient étroitement lié
Statistiques de Larbin-Watson (DW) calculées à l'aide de la formule1


Évidemment, pour les grands T


Il est facile de voir que si et=et-1, alors rete- 1=1 et DW=0 (autocorrélation positive). Si et=-et-1, alors re^t 1=-1 et DW=4 (autocorrélation négative). Dans tous les autres cas 0 lt ; D.W.lt; 4. Si les écarts se comportent de manière aléatoire, rete- 1=0 et DW=2. Donc
chemin, une condition nécessaire l'indépendance des écarts aléatoires est la proximité de deux des statistiques de Durbin-Watson. Ensuite, si DW ~ 2, nous considérons que les écarts par rapport à la régression sont aléatoires (même s’ils ne le sont pas nécessairement). Cela signifie que le construit régression linéaire, reflète probablement une relation réelle. Très probablement, il n’existe aucun facteur significatif non pris en compte qui influence la variable dépendante. Toute autre formule non linéaire ne dépasse pas caractéristiques statistiques proposé modèle linéaire. Dans ce cas, même lorsque R2 est petit, il est probable que la variance inexpliquée soit due à un effet sur la variable dépendante grand nombre divers facteurs qui, individuellement, ont peu d'influence sur la variable étudiée et peuvent être décrits comme une erreur normale aléatoire.
La question se pose, quelles valeurs DW peuvent être considérées comme statistiquement proches de 2 ? Pour répondre à cette question, des tableaux spéciaux des points critiques des statistiques de Durbin-Watson ont été élaborés, permettant numéro donné les observations T (ou dans la notation précédente n), le nombre de variables explicatives m et un niveau de significativité donné a déterminent les limites d'acceptabilité (points critiques) des statistiques observées DW. Pour étant donné a, T, m deux nombres sont indiqués dans le tableau : di - limite inférieure et du est la limite supérieure.
Régime général Le critère de Durbin-Watson est le suivant :
  1. D'après l'équation de régression empirique construite

les valeurs d'écart et = Y, - Y sont déterminées pour chaque observation t, t = 1,..., T.
  1. À l'aide de la formule (4.4), les statistiques DW sont calculées.
  2. À l'aide du tableau des points critiques de Durbin-Watson, deux nombres di et du sont déterminés et des conclusions sont tirées selon la règle :
(0 lt ; DW lt ; di) - il existe une autocorrélation positive,
(dі lt ; DW lt ; du) - la conclusion sur la présence d'autocorrélation n'est pas déterminée, (ku lt ; DW lt ; 4 - du) - il n'y a pas d'autocorrélation, (4 - du lt ; DW lt ; 4 - di ) - la conclusion sur la présence d'autocorrélation n'est pas définie
(4 - di lt ; DW lt ; 4) - il existe une autocorrélation négative.
Sans se référer au tableau des points critiques de Durbin-Watson, on peut utiliser la règle « grossière » et supposer qu'il n'y a pas d'autocorrélation des résidus si 1,5 l ; D.W.lt; 2.5. Pour une conclusion plus fiable, il convient de se référer à valeurs du tableau. En présence d'autocorrélation des résidus, l'équation de régression résultante est généralement considérée comme insatisfaisante.
Notez que lors de l'utilisation du critère de Durbin-Watson, les restrictions suivantes doivent être prises en compte :
  1. Le critère DW s'applique uniquement aux modèles qui contiennent un terme d'origine.
  2. On suppose que les écarts aléatoires Et sont déterminés par un schéma itératif : Et = PEt-1 + vt, appelé schéma autorégressif du premier ordre HR(1). Ici vt est un terme aléatoire pour lequel les conditions de Gauss-Markov sont satisfaites.
  3. Les données statistiques doivent avoir la même fréquence (il ne doit y avoir aucune lacune dans les observations).
  4. Le critère de Durbin-Watson n'est pas applicable pour les modèles de régression contenant une variable dépendante avec un décalage temporel d'une période dans le cadre des variables explicatives, c'est-à-dire pour les modèles dits autorégressifs de la forme :

Dans ce cas, il existe une relation systématique entre l'une des variables explicatives et l'une des composantes du terme aléatoire. L'un des principaux prémisses de l'OLS n'est pas respecté : les variables explicatives ne doivent pas être aléatoires (ne pas avoir de composante aléatoire). La valeur de toute variable explicative doit être exogène (spécifiée en dehors du modèle), entièrement déterminée. Autrement, les estimations seront biaisées même si gros volumes des échantillons.
Pour les modèles autorégressifs développés tests spéciaux détection d'autocorrélation, en particulier la statistique h de Durbin, qui est déterminée par la formule :
où p est l'estimation du coefficient p de l'autorégression du premier ordre ? t = PCt-1 + vt (vt est un terme aléatoire), D(g) est la variance d'échantillon du coefficient Y pour la variable retardée yt-1, n est le nombre d'observations.
Avec une grande taille d'échantillon, h est distribué comme φ (0,1), c'est-à-dire comme une variable normale avec une moyenne de 0 et une variance de 1 sous l'hypothèse nulle d'absence d'autocorrélation. Ainsi, l’hypothèse d’absence d’autocorrélation peut être rejetée au seuil de signification de 5 % si la valeur absolue de h est supérieure à 1,96, et au niveau de signification de 1 % si elle est supérieure à 2,58, en appliquant un test bilatéral et une grand échantillon. Sinon, il n'est pas rejeté.
Notez que la valeur p est généralement calculée à l'aide de la formule :
p = 1- 0,5DW, et D(g) est égal au carré de l'erreur type Sg
estime g du coefficient Y. Par conséquent, h est facilement calculé à partir des données de régression estimées.
Le principal problème lié à l’utilisation de ce test est qu’il est impossible de calculer h pour nD (g) gt ; 1.
Exemple 4.1. Soit les données conditionnelles suivantes (X est la variable explicative, Y est la variable dépendante, tableau 4.1).
Tableau 4.1
Données initiales (conditionnelles, unités monétaires)

t

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

X

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

Oui

3

8

6

12

11

17

15

20

16

24

22

28

26

34

31

Équation linéaire la régression a la forme : Y = 2,09 + 2,014X.
Calculons les statistiques de Durbin-Watson (tableau 4.2) :

Le test de Durbin-Watson (ou test DW) est un test statistique utilisé pour trouver l'autocorrélation des résidus de premier ordre d'un modèle de régression. Le critère porte le nom de James Durbin et Geoffrey Watson. Le critère de Durbin-Watson est calculé à l'aide de la formule suivante :

où ρ 1 est le coefficient d'autocorrélation du premier ordre.

En l'absence d'autocorrélation des erreurs d= 2, avec une autocorrélation positive d tend vers zéro, et avec une autocorrélation négative d tend vers 4 :

En pratique, l'application du critère de Durbin-Watson repose sur la comparaison de la valeur d avec des valeurs théoriques dL Et dU Pour numéro donné observations n, nombre d'indépendants variables du modèle k et le niveau de signification α.

Si d < dL, alors l'hypothèse sur l'indépendance des écarts aléatoires est rejetée (il existe donc une autocorrélation positive) ;

Si d > dU, alors l'hypothèse n'est pas rejetée ;

Si dL < d < dU, alors il n'y a pas de motifs suffisants pour prendre des décisions.

Quand valeur calculée d dépasse 2, alors avec dL Et dU Ce n'est pas le coefficient lui-même qui est comparé d, et l'expression (4 − d).

Aussi, grâce à ce critère, la présence d'une cointégration entre deux séries temporelles est détectée. Dans ce cas, on teste l’hypothèse selon laquelle la valeur réelle du critère est nulle. En utilisant la méthode de Monte Carlo, nous avons obtenu valeurs critiques pour des niveaux de signification donnés. Si la valeur réelle du critère de Durbin-Watson dépasse la valeur critique, alors l'hypothèse nulle d'absence de cointégration est rejetée.

Incapable de détecter l'autocorrélation du deuxième ordre et des ordres supérieurs.

Donne des résultats fiables uniquement pour de grands échantillons].

Critère h Durbin est utilisé pour identifier l'autocorrélation des résidus dans un modèle avec des décalages distribués :

n- nombre d'observations dans le modèle ;

V - erreur type variable de résultat décalée.

À mesure que la taille de l'échantillon augmente, la distribution h-les statistiques tendent vers la normale avec une espérance mathématique nulle et une variance égale à 1. Par conséquent, l'hypothèse de l'absence d'autocorrélation des résidus est rejetée si la valeur réelle h-les statistiques s'avèrent supérieures à la valeur critique de la distribution normale.

Test de Durbin-Watson pour les données de panel

Pour les données de panel, un test de Durbin-Watson légèrement modifié est utilisé :

Contrairement au test de Durbin-Watson pour les séries chronologiques, dans ce cas, la zone d'incertitude est très étroite, en particulier pour les panels avec un grand nombre individus.

  1. Méthodes d'élimination de l'autocorrélation (écarts par rapport à la tendance, différences séquentielles, y compris le facteur temps).

L'essence de toutes les méthodes de réduction des tendances est d'éliminer l'influence du facteur temps sur la formation des équations de séries chronologiques. Les principales méthodes sont divisées en 2 groupes :


Basé sur la transformation des niveaux de séries en nouvelles variables ne contenant pas de tendance. Nous utilisons davantage les variables obtenues pour analyser la relation entre les séries chronologiques étudiées. Ces méthodes consistent à éliminer la composante de tendance T de chaque niveau de la série chronologique. 1. Méthode de différence séquentielle. 2.Méthode d'écart par rapport aux tendances.

Modèles basés sur l'étude des relations entre les niveaux initiaux des séries temporelles, hors impact du facteur temps sur les variables dépendantes et indépendantes : inclusion du facteur temps dans le modèle de régression.

Test de Durbin-Watson utilisé pour détecter l'autocorrélation, qui obéit à un processus autorégressif de 1er ordre. On suppose que la valeur des résidus e t dans chaque la ième observation indépendant de ses valeurs dans toutes les autres observations. Si le coefficient d'autocorrélation ρ est positif, alors l'autocorrélation est positive, si ρ est négatif, alors l'autocorrélation est négative. Si ρ = ​​0, alors il n’y a pas d’autocorrélation (c’est-à-dire que la quatrième prémisse du modèle linéaire normal est satisfaite).
Le critère de Durbin-Watson revient à tester une hypothèse :
  • H 0 (hypothèse principale) : ρ = 0
  • H 1 (hypothèse alternative) : ρ > 0 ou ρ
    Pour tester l'hypothèse principale, les statistiques du test de Durbin-Watson - DW sont utilisées :

    Où e je = y - y(x)

    Cela se fait à l'aide de trois calculatrices :

    1. Équation de tendance (régression linéaire et non linéaire)

    Considérons la troisième option. L'équation de tendance linéaire est y = at + b
    1. Trouvez les paramètres de l'équation en utilisant la méthode des moindres carrés via service en ligneÉquation de tendance.
    Système d'équations

    Pour nos données, le système d’équations a la forme

    À partir de la première équation, nous exprimons un 0 et le substituons dans la deuxième équation
    On obtient un 0 = -12,78, un 1 = 26763,32
    Équation de tendance
    y = -12,78t + 26763,32
    Évaluons la qualité de l'équation de tendance en utilisant l'erreur d'approximation absolue.


    L'erreur étant supérieure à 15 %, il n'est pas conseillé d'utiliser cette équation comme tendance.
    Valeurs moyennes



    Dispersion


    Écart type

    Indice de détermination

    , c'est-à-dire dans 97,01% des cas, cela affecte les modifications des données. En d’autres termes, la précision de la sélection de l’équation de tendance est élevée.

    t oui t 2 et 2 t∙y yt) (a-y cp) 2 (a-a(t)) 2 (t-t p) 2 (o-y(t)) : oui
    1990 1319 3960100 1739761 2624810 1340.26 18117.16 451.99 148.84 28041.86
    1996 1288 3984016 1658944 2570848 1263.61 10732.96 594.99 38.44 31417.53
    2001 1213 4004001 1471369 2427213 1199.73 817.96 176.08 1.44 16095.92
    2002 1193 4008004 1423249 2388386 1186.96 73.96 36.54 0.04 7211.59
    2003 1174 4012009 1378276 2351522 1174.18 108.16 0.03 0.64 210.94
    2004 1159 4016016 1343281 2322636 1161.4 645.16 5.78 3.24 2786.55
    2005 1145 4020025 1311025 2295725 1148.63 1552.36 13.17 7.84 4155.05
    2006 1130 4024036 1276900 2266780 1135.85 2959.36 34.26 14.44 6614.41
    2007 1117 4028049 1247689 2241819 1123.08 4542.76 36.94 23.04 6789.19
    2008 1106 4032064 1223236 2220848 1110.3 6146.56 18.51 33.64 4758.73
    20022 11844 40088320 14073730 23710587 11844 45696.4 1368.3 271.6 108081.77

    Test de Durbin-Watson pour la présence d'autocorrélation des résidus pour une série chronologique.

    oui y(x) e je = y-y(x) e 2 (e je - e je-1) 2
    1319 1340.26 -21.26 451.99 0
    1288 1263.61 24.39 594.99 2084.14
    1213 1199.73 13.27 176.08 123.72
    1193 1186.96 6.04 36.54 52.19
    1174 1174.18 -0.18 0.03 38.75
    1159 1161.4 -2.4 5.78 4.95
    1145 1148.63 -3.63 13.17 1.5
    1130 1135.85 -5.85 34.26 4.95
    1117 1123.08 -6.08 36.94 0.05
    1106 1110.3 -4.3 18.51 3.15
    1368.3 2313.41


    Les valeurs critiques d 1 et d 2 sont déterminées sur la base de tableaux spéciaux pour le niveau de signification requis a, le nombre d'observations n et le nombre de variables explicatives m.
    Sans vous référer aux tableaux, vous pouvez utiliser une règle approximative et supposer qu'il n'y a pas d'autocorrélation des résidus si 1,5< DW < 2.5. Для более надежного вывода целесообразно обращаться к табличным значениям.
    j 1< DW и d 2 < DW < 4 - d 2 .

    Exemple. Sur la base de données de 24 mois, une équation de régression a été construite pour la dépendance du profit d'une organisation agricole à la productivité du travail (x1) : y = 300 + 5x.
    Les résultats intermédiaires suivants ont été obtenus :
    ∑ε 2 = 18 500
    ∑(εt - εt-1) 2 = 41500
    Calculez le critère de Durbin-Watson (avec n=24 et k=1 (nombre de facteurs), valeur inférieure d = 1,27, valeur supérieure d = 1,45. Tirez des conclusions.

    Solution.
    DW = 41 500/18 500 = 2,24
    d 2 = 4- 1,45 = 2,55
    Puisque DW > 2,55, il y a donc lieu de croire qu’il n’y a pas d’autocorrélation. C'est une des confirmations haute qualité l'équation de régression résultante est y = 300 + 5x.

Considérons une équation de régression de la forme :

où k est le nombre de variables indépendantes du modèle de régression.

Pour chaque instant t = 1 : n, la valeur est déterminée par la formule

En étudiant la séquence des résidus sous forme de série chronologique dans , il est possible de tracer leur dépendance au temps. Selon les hypothèses de la méthode des moindres carrés, les résidus doivent être aléatoires (a). Cependant, lors de la modélisation de séries chronologiques, il arrive parfois que les résidus contiennent une tendance (b et c) ou des fluctuations cycliques (d). Cela suggère que chaque valeur suivante les soldes dépendent des précédents. Dans ce cas, il y a autocorrélation des résidus.

Raisons de l’autocorrélation des résidus

L'autocorrélation des résidus peut se produire pour plusieurs raisons :

Premièrement, l’autocorrélation est parfois liée aux données d’origine et est provoquée par des erreurs de mesure dans les valeurs Y.

Deuxièmement, il faut parfois en rechercher la raison dans la formulation du modèle. Le modèle peut ne pas inclure un facteur ayant un impact significatif sur le résultat, mais dont l'influence se reflète dans les résidus, de sorte que ces derniers peuvent s'avérer être autocorrélé. Ce facteur est souvent le facteur temps t.

Parfois, des facteurs importants peuvent être valeurs décalées des variables inclus dans le modèle. Soit le modèle ne prend pas en compte plusieurs facteurs mineurs dont l'influence conjointe sur le résultat est significative en raison de la coïncidence de leurs tendances ou de fluctuations cycliques.

Méthodes de détermination de l'autocorrélation des résidus

La première méthode consiste à tracer la dépendance des résidus au temps et à déterminer visuellement la présence d'autocorrélation des résidus.

Deuxième méthode - calcul du critère de Durbin-Watson

Ceux. Le critère de Durbin-Watson est défini comme le rapport de la somme des carrés des différences valeurs consécutives résiduels à la somme des carrés des résidus. Dans presque tous les problèmes d'économétrie, la valeur du critère de Durbin-Watson est indiquée ainsi que le coefficient de corrélation, les valeurs des tests de Fisher et Student

Le coefficient d'autocorrélation du premier ordre est déterminé par la formule

La relation entre le critère de Durbin-Watson et le coefficient d'autocorrélation de premier ordre des résidus (r1) est déterminée par la relation

Ceux. s'il y a une autocorrélation positive complète dans les résidus r1 = 1 et d = 0, S'il y a une autocorrélation négative complète dans les résidus, alors r1 = - 1, d = 4. S'il n'y a pas d'autocorrélation des résidus, alors r1 = 0, d = 2. Par conséquent,

Algorithme d'identification de l'autocorrélation des résidus à l'aide du critère de Durbin-Watson

Se retire hypothèse sur l'absence d'autocorrélation des résidus . Hypothèses alternatives sur la présence d'autocorrélation positive ou négative dans les résidus. Ensuite, les tableaux déterminent valeurs critiques du critère Durbin - Watson dL et du pour un nombre donné d'observations et le nombre de variables indépendantes dans le modèle à un niveau de signification a (généralement 0,95). Sur la base de ces valeurs, l'intervalle est divisé en cinq segments.

Si la valeur calculée du critère de Durbin-Watson tombe dans la zone d'incertitude, alors l'existence d'une autocorrélation des résidus est confirmée et l'hypothèse est rejetée



Des questions ?

Signaler une faute de frappe

Texte qui sera envoyé à nos rédacteurs :