Statistique La théorie et ses applications - Plus de 150 exercices corrigés
Cet ouvrage expose les fondements théoriques des méthodes classiques de la statistique (estimation et tests) ainsi que des approches introduites plus récemment.Les premiers chapitres sont consacrés aux notions de la théorie des probabilités, nécessaires à la statistique. Puis sont développés les tests et méthodes d'estimation dans les [...] [lire le résumé du livre]
Cet ouvrage expose les fondements théoriques des méthodes classiques de la statistique (estimation et tests) ainsi que des approches introduites plus récemment.
Les premiers chapitres sont consacrés aux notions de la théorie des probabilités, nécessaires à la statistique. Puis sont développés les tests et méthodes d'estimation dans les situations paramétriques et non paramétriques. Les modèles de base de la régression sont traités en fin d'ouvrage.
Chaque chapitre est accompagné d'exemples concrets, mais aussi d'exercices - plus de 150 au total - dont les corrigés ont été intégrés dans cette deuxième édition.
La présentation témoigne d'un réel souci pédagogique de l'auteur qui bénéficie d'une vaste expérience d'enseignement auprès de publics très variés. Les résultats exposés sont, autant que possible, replacés dans la perspective de leur utilité pratique.
Le niveau mathématique requis rend ce livre accessible aux étudiants de premier cycle universitaire et aux chercheurs dans les divers domaines des sciences appliquées.
Il sera donc utile aux étudiants devant aborder les aspects théoriques de la statistique ou aux utilisateurs, pour les assurer du choix judicieux des méthodes qu'ils emploient.
Auteurs :
Michel Lejeune est diplômé de l'Ecole Centrale Paris et PhD in Statistics de l'Oregon State University. Il a été successivement professeur titulaire aux universités de Neuchâtel et Lausanne en Suisse, professeur à l'Ecole Nationale de la Statistique et de l'Analyse de l'Information (ENSAI), professeur associé au CNAM et professeur des Universités à Grenoble. Il est l'auteur de nombreuses publications et ouvrages dans le domaine de la statistique. Il est membre élu de l'Institut International de Statistique.
Sommaire et contenu du livre "Statistique - La théorie et ses applications - Plus de 150 exercices corrigés"
Table des matières
1 Variables aléatoires 1
1.1
Notion de variable aléatoire ..... 1
1.2
Fonction de répartition . . . . . 4
1.3
Cas des variables aléatoires discrètes 6
1.4
Cas des variables aléatoires continues . 6
1.5
Notion essentielle de quantile .. 9
1.6
Fonction d'une variable aléatoire 11
1.7
Exercices . 12
2 Espérance mathématique et moments 15
2.1
Introductionetdéfinition . . . . . . . . . . . . . 15
2.2
Espérance d'une fonction d'une variable aléatoire 16
2.3
Linéarité de l'opérateur E(.), moments, variance 18
2.4
Tirage aléatoire dans une population finie: distribution empiriqueetdistributionprobabiliste ............... .. 21
2.5
Fonction génératrice des moments 21
2.6
Formules d'approximation de l'espérance et de la variance d'une
fonction d'une v.a. 24
2.7
Exercices ..... 25
3 Couples et n-uplets de variables aléatoires 27
3.1
Introduction................. 27
3.2
Couplesdev.a. ................ 28
3.3
Indépendance de deux variables aléatoires . 31
3.4
Espérance mathématique, covariance, corrélation 32
3.5
Sommededeuxv.a. . . . . . . 36
3.6
Les n-uplets de v.a.; somme de n v.a. 37
3.7
Sondage aléatoire dans une population et v.a. i.i.d. 38
3.8
Notation matricielle des vecteurs aléatoires 39
3.9
Loi de Gauss multivariée 40
3.10
Exercices A')
4 Les lois de probabilités usuelles 45
4.1
Lesloisdiscrètes ........ 45
4.1.1
La loi uniforme discrète 45
4.1.2
Loi de Bernoulli B(p) 46
4.1.3
Le processus de Bernoulli et la loi binomiale B(n, p) 47
4.1.4
Les lois géométrique Q(p) et binomiale négative BN(r,p) 49
4.1.5
La loi hypergéométrique 7t(N, M, n) . 50
4.1.6
La loi multinomiale 51
4.1.7
Le processus et la loi de Poisson P(À) 51
4.2
Leslois continues............ 54
4.2.1
La loi continue uniforme U[a, b] 54
4.2.2
La loi exponentielle E(À) 55
4.2.3
La loi gamma r(r, À) 56
4.2.4
La loi de Gauss ou loi normale N(p' (]'2) 57
4.2.5
La loi lognormale LN(p' (]'2) 60
4.2.6
La loi de Pareto ..... 61
4.2.7
La loi de Weibull W(À, a) 61
4.2.8
La loi de Gumbel 62
4.2.9
La loi bêta Beta(a, (3) .. 63
4.3
Génération de nombres issus d'une loi donnée 63
4.4
Exercices 64
5 Lois fondamentales de l'échantillonnage 67
5.1
Phénomènes et échantillons aléatoires . 67
5.2
Moyenne, variance, moments empiriques 69
5.3
Loi du Khi-deux .,. 72
5.4
Loi de Student .... 74
5.5
Loi de Fisher-Snedecor 76
5.6
Statistiques d'ordre 77
5.7
Fonction de répartition empirique 78
5.8
Convergence, approximations gaussiennes, grands échantillons. 79
5.8.1
Les modes de convergence aléatoires 79
5.8.2
Lois des grands nombres 81
5.8.3
Le théorème central limite 82
5.9
Exercices 86
6 Théorie de l'estimation paramétrique ponctuelle 91
6.1
Cadre général de l'estimation . . . . 91
6.2
Cadre de l'estimation paramétrique. . . . . . . . . 92
6.3
La classe exponentielle de lois 94
6.4
Une approche intuitive de l'estimation: la méthode des moments 96
6.5
Qualitésdes estimateurs.................... .. 98
6.5.1
Biais d'un estimateur 99
6.5.2
Variance et erreur quadratique moyenne d'un estimateur 100
6.5.3
Convergence d'un estimateur . . . . . . . . . . . . . .. 103
6.5.4
Exhaustivité d'un estimateur . . . . . . 105
6.6
Recherche des meilleurs estimateurs sans biais 110
6.6.1
Estimateurs UMVUE 110
6.6.2
Estimation d'une fonction de () et reparamétrisation 114
6.6.3
Borne de Cramer-Rao et estimateurs efficaces 114
6.6.4
Extension à un paramètre de dimension k > 1 118
6.7
L'estimation par la méthode du maximum de vraisemblance 121
6.7.1
Définitions 122
6.7.2
Exemplesetpropriétés. . . . . . . . . . . . . 123
6.7.3
Reparamétrisation et fonctions du paramètre 126
6.7.4
Comportement asymptotique de l'EMY 127
6.8
Les estimateurs bayésiens 128
6.9
Exercices 131
7 Estimation paramétrique par intervalle de confiance 135
7.1
Définitions........... 135
7.2
Méthode de la fonction pivot . 138
7.3
Méthode asymptotique 140
7.4
Construction des IC classiques 144
7.4.1
IC pour la moyenne d'une loi N(f.1, (72) 144
7.4.2
IC pour la variance (72 d'une loi de Gauss 146
7.4.3
IC sur la différence des moyennes de deux lois de Gauss 147
7.4.4
IC sur le rapport des variances de deux lois de Gauss 149
7.4.5
IC sur le paramètre p d'une loi de Bernoulli ..... 150
7.4.6
IC sur la différence des paramètres de deux lois de Bernoulli152
7.5
IC par la méthode des quantiles 153
7.6
Approchebayésienne ...................... 157
7.7
Notionsd'optimalitédesIC .................. 158
7.8
Région de confiance pour un paramètre de dimension k > 1 159
7.9
Intervalles de confiance et tests 163
7.10
Exercices 163
8 Estimation non paramétrique et estimation fonctionnelle 167
8.1
Introduction....................... 167
8.2
Estimation de la moyenne et de la variance de la loi 168
8.2.1
Estimation de la moyenne f.1 . 168
8.2.2
Estimation de la variance (72 169
8.3
Estimation d'un quantile ..... 170
8.4
Les méthodes de rééchantillonnage 172
8.4.1
Introduction 172
8.4.2
La méthode du jackknife 173
8.4.3
La méthode du bootstrap 177
8.5
Estimation fonctionnelle . . . . . 181
8.5.1
Introduction 181
8.5.2
L'estimation de la densité 182
8.5.3
L'estimation de la fonction de répartition 192
8.6
Exercices . 198
9 Tests d'hypothèses paramétriques 201
9.1
Introduction....................... 201
9.2
Test d'une hypothèse simple avec alternative simple 202
9.3
Test du rapport de vraisemblance simple 208
9.3.1
Propriété d'optimalité . . . . . . . . 208
9.3.2
Cas d'un paramètre de dimension 1 212
9.4
Tests d'hypothèses multiples 213
9.4.1
Risques, puissance et optimalité 213
9.4.2
Tests d'hypothèses multiples unilatérales 214
9.4.3
Tests d'hypothèses bilatérales 219
9.5
Test du rapport de vraisemblance généralisé 220
9.6
Remarquesdiverses.............. 226
9.7
Les tests paramétriques usuels. . . . . . . . 228
2
9.7.1 Tests sur la moyenne d'une loi N(f-l, 0-) 229
2
9.7.2 Test sur la variance 0-2 d'une loi N(f-l, 0-) 231
9.7.3
Tests de comparaison des moyennes de deux lois de Gauss 232
9.7.4
Tests de comparaison des variances de deux lois de Gauss 235
9.7.5
Tests sur le paramètre p d'une loi de Bernoulli (ou test
sur une proportion) 235
9.7.6
Tests de comparaison des paramètres de deux lois de
Bernoulli (comparaison de deux proportions) . 237
9.7.7
Test sur la corrélation dans un couple gaussien 240
9.8
Dualité entre tests et intervalles de confiance 242
9.9
Exercices 244
10 Tests pour variables catégorielles et tests non paramétriques 251
10.1
Test sur les paramètres d'une loi multinomiale 252
10.1.1
Test du rapport de vraisemblance généralisé 252
10.1.2
Test du khi-deux de Pearson 254
10.1.3
Équivalence asymptotique des deux tests 255
10.1.4
Cas particulier de la loi binomiale .... 256
10.2
Test de comparaison de plusieurs lois multinomiales 257
10.3
Test d'indépendance de deux variables catégorielles 259
10.3.1
Test du RVG et test du khi-deux 259
10.3.2
Test exact de Fisher (tableau 2 x 2) . . . . 262
10.4
Tests d'ajustement à un modèle de loi . . . . . . . 264
10.4.1
Ajustement à une loi parfaitement spécifiée 265
10.4.2
Ajustement dans une famille paramétrique donnée 267
10.5
Tests non paramétriques sur des caractéristiques de lois 272
10.5.1
Introduction 272
10.5.2
Les statistiques de rang . . . . . . . . . 272
10.5.3
Tests sur moyenne, médiane et quantiles 273
10.5.4
Tests de localisation de deux lois ... 274
10.5.5
Test pour la corrélation de Spearman 281
10.6
Exercices . 283
11 Régressions linéaire, logistique et non paramétrique 289
11.1
Introduction à la régression 289
11.2
La régression linéaire 292
11.2.1
Lemodèle . . . . . . 292
11.2.2
Les estimateurs du maximum de vraisemblance 293
11.2.3
Intervalles de confiance 296
11.2.4
Test Ho :(JI=0 . 297
11.2.5
Cas non gaussien . 299
11.2.6
Régression et corrélation linéaires 300
11.2.7
Extension à la régression multiple 303
Il.3
La régression logistique . 305
11.3.1
Lemodèle.............. 305
11.3.2
Estimation de la fonction p(x) ~ 306
11.3.3
Matrice des variances-covariances de {J 308
11.3.4
Test Ho : {JI = 0 .... 309
11.3.5
Intervalles de confiance 310
11.3.6
Remarques diverses 312
11.4
La régression non paramétrique 314
11.4.1
Introduction . 314
11.4.2
Définition des estimateurs à noyaux 314
11.4.3
Biais et variance . 315
11.4.4
La régression polynomiale locale 318
11.5
Exercices . 320
Corrigés des exercices 323
Tables 415
Bibliographie 421
Index 425
Avis clients
Avis clients sur Statistique - springer verlag - Statistique et probabilités appliquées
(Ils sont modérés par nos soins et rédigés par des clients ayant acheté l'ouvrage)
Nous utilisons des cookies pour assurer le bon fonctionnement du site et améliorer votre expérience-utilisateur.
Ce site respecte la loi RGPD du 25 mai 2018.
Vous pouvez modifier vos préférences à tout moment.
Consulter notre politique de confidentialité
Nécessaires
Les cookies nécessaires contribuent à rendre un site web utilisable en activant des fonctions de base comme la navigation de page et l'accès aux zones sécurisées du site web. Le site web ne peut pas fonctionner correctement sans ces cookies.
Statistiques
Les cookies statistiques aident les propriétaires du site web, par la collecte et la communication d'informations de manière anonyme, à comprendre comment les visiteurs interagissent avec les sites web.
Marketing
Les cookies marketing sont utilisés pour effectuer le suivi des visiteurs au travers des sites web. Le but est d'afficher des publicités qui sont pertinentes et intéressantes pour l'utilisateur individuel et donc plus précieuses pour les éditeurs et annonceurs tiers.