Exercices d'inférence statistique - Simone Malacrida - E-Book

Exercices d'inférence statistique E-Book

Simone Malacrida

0,0
2,99 €

oder
-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Dans ce livre, des exercices sont réalisés sur les sujets mathématiques suivants :
théorie de l'estimation
test et vérification d'hypothèses
régression linéaire
Des premières indications théoriques sont également présentées pour faire comprendre l'exécution des exercices.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB

Veröffentlichungsjahr: 2023

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Table des Matières

"Exercices d'inférence statistique"

INTRODUCTION

APERÇU THEORIQUE

DES EXERCICES

"Exercices d'inférence statistique"

SIMONE MALACRIDA

Dans ce livre, des exercices sont réalisés sur les sujets mathématiques suivants :

théorie de l'estimation

test et vérification d'hypothèses

régression linéaire

Des premières indications théoriques sont également présentées pour faire comprendre l'exécution des exercices.

Simone Malacrida (1977)

Ingénieur et écrivain, il a travaillé sur la recherche, la finance, la politique énergétique et les installations industrielles.

INDEX ANALYTIQUE

––––––––

INTRODUCTION

––––––––

I – APERÇU THEORIQUE

Introduction

Théorie de l'estimation

Tests d'hypothèses

Régression

Inférence bayésienne

––––––––

II – EXERCICES

Exercice 1

Exercice 2

Exercice 3

Exercice 4

Exercice 5

Exercice 6

Exercice 7

Exercice 8

Exercice 9

Exercice 10

Exercice 11

Exercice 12

Exercice 13

Exercice 14

Exercice 15

Exercice 16

Exercice 17

Exercice 18

Exercice 19

Exercice 20

Exercice 21

Exercice 22

Exercice 23

Exercice 24

Exercice 25

Exercice 26

Exercer27

INTRODUCTION

Dans ce cahier d'exercices, quelques exemples de calculs liés à l'inférence statistique sont réalisés.

En outre, les principaux théorèmes utilisés à la fois dans la théorie de l'estimation et dans les tests d'hypothèses sont présentés.

L'étude des statistiques, en fait, ne s'arrête pas aux propriétés des distributions de probabilités continues et discrètes, mais s'étend aux secteurs d'inférence, en appliquant les concepts statistiques d'estimation, de moyenne, de variance, de régression et de test d'hypothèse en présence de tests particuliers.

Afin de comprendre plus en détail ce qui est présenté dans la résolution des exercices, le contexte théorique de référence est rappelé dans le premier chapitre.

Ce qui est présenté dans ce manuel est généralement abordé dans les cours de statistiques avancées au niveau universitaire.

I

APERÇU THEORIQUE

Introduction

––––––––

L'inférence statistique relève de deux grands domaines d'intérêt : la théorie de l'estimation et les tests d'hypothèses.

A la base des deux domaines se trouve l'échantillonnage compris comme le choix de l'échantillon de la population statistique : il peut être aléatoire, probabiliste, raisonné ou commode.

Les méthodes d'échantillonnage dépendent de la distribution de probabilité et des variables aléatoires qui viennent d'être décrites.

––––––––

Théorie de l'estimation

––––––––

La théorie de l'estimation permet d'estimer des paramètres à partir de données mesurées à travers une fonction déterministe appelée estimateur.

Il existe diverses propriétés qui caractérisent la qualité d'un estimateur, notamment l'exactitude, la cohérence, l'efficacité, la suffisance et l'exhaustivité.

Un estimateur correct est une fonction qui a une valeur attendue égale à la quantité à estimer, inversement elle est dite biaisée.

La différence entre la valeur attendue de l'estimateur et celle de l'échantillon est appelée biais , si cette différence est nulle lorsque l'échantillon tend vers l'infini alors l'estimateur est dit asymptotiquement correct.

Étant donné une variable aléatoire X de paramètre inconnu Y, un estimateur T(X) est suffisant pour Y si la distribution de probabilité conditionnelle de X donnée par T(X) ne dépend pas de Y.

Un estimateur du paramètre Y est dit faiblement cohérent si, lorsque la taille de l'échantillon tend vers l'infini, il converge en probabilité vers la valeur de Y.

Si, en revanche, il converge presque certainement, alors on dit qu'il est cohérent au sens fort.

Une condition suffisante de consistance faible est que l'estimateur soit asymptotiquement correct et qu'on ait en même temps :

––––––––

Nous définissons l'information de Fisher comme la variance de la dérivée logarithmique associée à une fonction de vraisemblance donnée (nous définirons bientôt le concept de vraisemblance).

Cette quantité est additive pour les variables aléatoires indépendantes.

L'information de Fisher d'une statistique suffisante est la même que celle contenue dans l'ensemble de l'échantillon.

Dans le cas des distributions multivariées, nous avons :

L'inégalité de Cramer-Rao stipule que la variance d'un estimateur sans biais est donc liée à l'information de Fisher :

Dans le cas multivarié, cela devient :

L'efficacité d'un estimateur sans biais est définie comme suit :

Il découle de l'inégalité de Cramer-Rao que l'efficacité d'un estimateur sans biais est inférieure ou égale à 1.

Un estimateur est dit efficace si sa variance atteint la limite inférieure de l'inégalité de Cramer-Rao et il est asymptotiquement efficace si cette valeur est atteinte comme limite.