2,99 €
Dans ce livre, des exercices sont réalisés sur les sujets mathématiques suivants :
théorie de l'estimation
test et vérification d'hypothèses
régression linéaire
Des premières indications théoriques sont également présentées pour faire comprendre l'exécution des exercices.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2023
"Exercices d'inférence statistique"
INTRODUCTION
APERÇU THEORIQUE
DES EXERCICES
SIMONE MALACRIDA
Dans ce livre, des exercices sont réalisés sur les sujets mathématiques suivants :
théorie de l'estimation
test et vérification d'hypothèses
régression linéaire
Des premières indications théoriques sont également présentées pour faire comprendre l'exécution des exercices.
Simone Malacrida (1977)
Ingénieur et écrivain, il a travaillé sur la recherche, la finance, la politique énergétique et les installations industrielles.
INDEX ANALYTIQUE
––––––––
INTRODUCTION
––––––––
I – APERÇU THEORIQUE
Introduction
Théorie de l'estimation
Tests d'hypothèses
Régression
Inférence bayésienne
––––––––
II – EXERCICES
Exercice 1
Exercice 2
Exercice 3
Exercice 4
Exercice 5
Exercice 6
Exercice 7
Exercice 8
Exercice 9
Exercice 10
Exercice 11
Exercice 12
Exercice 13
Exercice 14
Exercice 15
Exercice 16
Exercice 17
Exercice 18
Exercice 19
Exercice 20
Exercice 21
Exercice 22
Exercice 23
Exercice 24
Exercice 25
Exercice 26
Exercer27
Dans ce cahier d'exercices, quelques exemples de calculs liés à l'inférence statistique sont réalisés.
En outre, les principaux théorèmes utilisés à la fois dans la théorie de l'estimation et dans les tests d'hypothèses sont présentés.
L'étude des statistiques, en fait, ne s'arrête pas aux propriétés des distributions de probabilités continues et discrètes, mais s'étend aux secteurs d'inférence, en appliquant les concepts statistiques d'estimation, de moyenne, de variance, de régression et de test d'hypothèse en présence de tests particuliers.
Afin de comprendre plus en détail ce qui est présenté dans la résolution des exercices, le contexte théorique de référence est rappelé dans le premier chapitre.
Ce qui est présenté dans ce manuel est généralement abordé dans les cours de statistiques avancées au niveau universitaire.
I
––––––––
L'inférence statistique relève de deux grands domaines d'intérêt : la théorie de l'estimation et les tests d'hypothèses.
A la base des deux domaines se trouve l'échantillonnage compris comme le choix de l'échantillon de la population statistique : il peut être aléatoire, probabiliste, raisonné ou commode.
Les méthodes d'échantillonnage dépendent de la distribution de probabilité et des variables aléatoires qui viennent d'être décrites.
––––––––
––––––––
La théorie de l'estimation permet d'estimer des paramètres à partir de données mesurées à travers une fonction déterministe appelée estimateur.
Il existe diverses propriétés qui caractérisent la qualité d'un estimateur, notamment l'exactitude, la cohérence, l'efficacité, la suffisance et l'exhaustivité.
Un estimateur correct est une fonction qui a une valeur attendue égale à la quantité à estimer, inversement elle est dite biaisée.
La différence entre la valeur attendue de l'estimateur et celle de l'échantillon est appelée biais , si cette différence est nulle lorsque l'échantillon tend vers l'infini alors l'estimateur est dit asymptotiquement correct.
Étant donné une variable aléatoire X de paramètre inconnu Y, un estimateur T(X) est suffisant pour Y si la distribution de probabilité conditionnelle de X donnée par T(X) ne dépend pas de Y.
Un estimateur du paramètre Y est dit faiblement cohérent si, lorsque la taille de l'échantillon tend vers l'infini, il converge en probabilité vers la valeur de Y.
Si, en revanche, il converge presque certainement, alors on dit qu'il est cohérent au sens fort.
Une condition suffisante de consistance faible est que l'estimateur soit asymptotiquement correct et qu'on ait en même temps :
––––––––
Nous définissons l'information de Fisher comme la variance de la dérivée logarithmique associée à une fonction de vraisemblance donnée (nous définirons bientôt le concept de vraisemblance).
Cette quantité est additive pour les variables aléatoires indépendantes.
L'information de Fisher d'une statistique suffisante est la même que celle contenue dans l'ensemble de l'échantillon.
Dans le cas des distributions multivariées, nous avons :
L'inégalité de Cramer-Rao stipule que la variance d'un estimateur sans biais est donc liée à l'information de Fisher :
Dans le cas multivarié, cela devient :
L'efficacité d'un estimateur sans biais est définie comme suit :
Il découle de l'inégalité de Cramer-Rao que l'efficacité d'un estimateur sans biais est inférieure ou égale à 1.
Un estimateur est dit efficace si sa variance atteint la limite inférieure de l'inégalité de Cramer-Rao et il est asymptotiquement efficace si cette valeur est atteinte comme limite.