E-Book, Französisch, Englisch, 345 Seiten, eBook
Boreux / Bernier / Parent Pratique du calcul bayésien
2010
ISBN: 978-2-287-99667-2
Verlag: Springer Paris
Format: PDF
Kopierschutz: 1 - PDF Watermark
E-Book, Französisch, Englisch, 345 Seiten, eBook
Reihe: Statistique et probabilités appliquées
ISBN: 978-2-287-99667-2
Verlag: Springer Paris
Format: PDF
Kopierschutz: 1 - PDF Watermark
La première partie de cet ouvrage privilégie les modèles statistiques paramétriques calculables "à la main". Dès le premier chapitre, la représentation du modèle par un graphe acyclique orienté permet de distinguer clairement la phase où la créativité du chercheur s`exprime de celle où il calcule. À cette fin, le logiciel libre WinBUGS sera très utile à l`apprenti modélisateur. La seconde partie présente des applications réelles qui nécessitent d`introduire une couche de variables latentes entre les observables et les paramètres. Conduire une inférence bayésienne sur ces modèles hiérarchiques implique un recours intensif aux méthodes modernes de calcul et mobilise donc " la souris " de l`ordinateur. Les étudiants et chercheurs désireux de s`initier au calcul bayésien avec des visées opérationnelles trouveront de nombreux exemples illustrant les raisonnements sous-jacents. Le lecteur qui souhaiterait approfondir ses connaissances trouvera deux ouvrages de référence publiés dans la même collection.
Zielgruppe
Professional/practitioner
Autoren/Hrsg.
Weitere Infos & Material
1;Préface;8
2;Avant-propos;10
3;Sommaire;13
4;Table des illustrations;19
5;Liste des tableaux;22
6;Première partie De la plume...;24
6.1;Chapitre 1 La Statistique :son objet, ses outils;25
6.1.1;Prologue;25
6.1.2;1.1 Le travail du statisticien;25
6.1.3;1.2 Deux écoles pour l'inférence statistique;27
6.1.3.1;1.2.1 L'école classique;29
6.1.3.1.1;Le paradigme classique (résumé);31
6.1.3.2;1.2.2 L'école bayésienne;31
6.1.4;1.3 L'analyse statistique bayésienne;33
6.1.4.1;1.3.1 La règle de Bayes;34
6.1.4.2;1.3.2 La distribution prédictive a posteriori;34
6.1.4.3;1.3.3 Application numérique;37
6.1.4.4;1.3.4 Retour sur Ie prior;38
6.1.5;1.4 Le choix bayésian;38
6.1.5.1;1.4.1 Un procédé contestable?;39
6.1.5.2;1.4.2 Avantages;40
6.1.6;Epilogue;41
6.2;Chapitre 2 Décision en avenir incertain: I'avalanche de Montroc;43
6.2.1;Prologue;43
6.2.2;2.1 L'avalanche de Montroc;43
6.2.2.1;2.1.1 Les faits;43
6.2.2.2;2.1.2 Mise en situation;44
6.2.2.3;2.1.3 Un problème de décision;44
6.2.2.4;2.1.4 Quel(s) modèle(s) d'échantillonnage?;45
6.2.3;2.2 Imaginer un mécanisme générateur des observations;46
6.2.3.1;2.2.1 Le processus de Bernoulli;46
6.2.3.2;2.2.2 Le processus ponctuel de Poisson;47
6.2.4;2.3 Inférence bayésienne;49
6.2.4.1;2.3.1 Le modele beta-binomial;49
6.2.4.1.1;La vraisemblance;49
6.2.4.1.2;Choix du prior et application de la règie de Bayes;49
6.2.4.1.3;Comment déterminer les hyperpararnetres d 'un prior bêta?;50
6.2.4.1.4;La distribution prédictive a posteriori;51
6.2.4.1.5;Discussion;52
6.2.4.2;2.3. 2 Le modèle gamma-Poisson;52
6.2.4.2.1;La distribution a posteriori;52
6.2.4.2.2;La distribution prédictive a posteriori;53
6.2.5;Épilogue;54
6.3;Chapitre 3 Introduction à la modélisation graphique: Ie modèle de capture-recapture;55
6.3.1;Prologue;55
6.3.2;3.1 Introduction;55
6.3.2.1;3.1.1 Une courte digression;56
6.3.3;3.2 Principe de la modélisation graphique;58
6.3.3.1;3.2.1 L'indépendance conditionnelle;58
6.3.3.2;3.2.2 Du réseau bayésien à la loi conjointe;60
6.3.3.2.1;Deux propriétés markoviennes;61
6.3.3.3;3.2.3 DAG et variables latentes;62
6.3.4;3.3 Le modèle de capture-recapture;63
6.3.4.1;3.3.1 Mise en situation;63
6.3.4.2;3.3.2 La modélisation;63
6.3.4.2.1;Hypothèses;64
6.3.4.2.2;Un premier modèle d'échantdllonnage mime la collecte des données;64
6.3.4.2.3;Capture et recapture par un échantillonnage multinomial;66
6.3.4.3;3.3.3 Applications;67
6.3.4.3.1;Estimation de l'incidence de la tuberculose pédiatr'ique en Basse-Normandie;67
6.3.4.3.2;Évaluation de l'incidence du paludisme dans les armées françaises en 1994;68
6.3.5;Épilogue;69
6.4;Chapitre 4 Pratique du calcul des lois a posteriori;71
6.4.1;Prologue;71
6.4.2;4.1 Introduction;71
6.4.3;4.2 Quand Ia vraisemblance fait Ie posterior;74
6.4.3.1;4.2.1 Approximation asymptotique de la densité a posteriori;75
6.4.3.1.1;Le paramètre du modèle d'échantillonnage est unidimensionnel;75
6.4.3.1.2;Le paramètre du modèle d'échantillonnage est multidimensionnel;78
6.4.3.2;4.2.2 Fondements de ces approximations;79
6.4.3.3;4.2.3 Estimation asymptotique des paramètres d'une population gamma;81
6.4.3.4;4.2.4 Estimation asymptotique des paramètres d'une regression linéaire;83
6.4.3.5;4.2.5 On retiendra;87
6.4.4;4.3 Méthodes de Monte-Carlo par chaînes de Markov;88
6.4.4.1;4.3.1 Mise en contexte;88
6.4.4.2;4.3.2 Algorithme (général) de Metropolis-Hastings (MH);88
6.4.4.2.1;Recommandations pour la programmation d'un algorithme MH;90
6.4.4.3;4.3.3 Échantillonnage de Gibbs;91
6.4.4.3.1;Principe de I'échantdllonnagc de Gibbs;92
6.4.4.3.2;Utilisation d'une grille;93
6.4.5;4.4 Méthodes de Monte-Carlo;94
6.4.5.1;4.4.1 Simulation par la méthode d'acceptation-rejet;95
6.4.5.2;4.4.2 L'échantillonnage et Ie ré-éohantillonnage pondérés;98
6.4.5.2.1;Principe de I'échantillonnage pondéré;98
6.4.5.2.2;Recommandation pour I'Implémentation;101
6.4.5.3;4.4.3 Vers les méthodes particulaires;103
6.4.6;Épilogue;106
6.5;Chapitre 5 Le cardinal sort du rang: la cible est une variable latente;107
6.5.1;Prologue;107
6.5.2;5.1 Introduction;107
6.5.3;5.2 Modélisation hiérarchique;109
6.5.3.1;5.2.1 Le problèma du tramway;109
6.5.3.2;5.2.2 Le problème des rangs de naissance;110
6.5.3.2.1;Le modèle;110
6.5.3.2.2;Développernents théoriques;112
6.5.3.2.3;Inférence bayésienne sous WinBUGS;113
6.5.3.2.4;Le zero trick;114
6.5.3.2.5;Application du zero trick au problème des rangs de naissance;114
6.5.4;Épilogue;116
6.6;Chapitre 6 Initiation à la modélisation des valeurs extremes: les modèles GEV et POT;118
6.6.1;Prologue;118
6.6.2;6.1 Introduction;119
6.6.3;6.2 Le modèle GEV;121
6.6.3.1;6.2.1 La valeur de projet;124
6.6.3.2;6.2.2 Sensibilité du modèle GEV aux hypothèses;125
6.6.4;6.3 Le modèle POT;126
6.6.4.1;6.3.1 La distribution de Pareto généralisée;127
6.6.4.1.1;Le choix du seuil est capital;128
6.6.4.2;6.3.2 Le modèle POT;129
6.6.4.2.1;Fonction de répartition de I'Intensité maximale;129
6.6.5;6.4 Du modèle POT au modèle GEV;129
6.6.6;6.5 Inférence bayésienne sur les paramètresd 'un modèle GEV;131
6.6.6.1;6.5.1 La distribution conjointe a posteriori;131
6.6.6.2;6.5.2 Algorithme MH séquentiel appliqué au modèle GEV;132
6.6.6.2.1;L'algorithme;133
6.6.6.2.2;Réglage de la loi instrumentale normale unidimensionnelle;133
6.6.7;6.6 Inférence bayésienne sur les paramètres d'un modele POT;133
6.6.7.1;6.6.1 Distribution conjointe a posteriori et inference;134
6.6.7.2;6.6.2 Échantillonnage de Gibbs;136
6.6.8;6.7 Trois applications numériques réelles;136
6.6.8.1;6.7.1 Le niveau de la mer à Port Pirie (Australie);137
6.6.8.2;6.7.2 La vitesse du vent à Tunis (Tunisie);139
6.6.8.3;6.7.3 La lame d'eau à Uccle (Belgique);142
6.6.9;Épilogue;146
6.7;Chapitre 7 Construire le prior : de I'astuce mathématique au dialogue avec I'expert;148
6.7.1;Prologue;148
6.7.2;7.1 Introduction;148
6.7.2.1;7.1.1 Prior non informatif;149
6.7.2.1.1;Complément sur les distributions a priori non informatives;150
6.7.2.2;7.1.2 La conjugaison;151
6.7.2.3;7.1.3 L'analogie;152
6.7.2.4;7.1.4 La méthode par introspections successives;152
6.7.2.5;7.1.5 L'incertitude n'est pas l'ignorance et la subjectivité n'est pas I'absurdité;153
6.7.3;7.2 Définition constructive d'une probabilité subjective;153
6.7.4;7.3 Caler un prior bêta sur deux quantiles élicites du paramètre d'un modèle d'observable binomial;155
6.7.4.1;7.3.1 L'expert donne la valeur moyenne de Pi et une incertitude sur celle-ci;155
6.7.4.2;7.3.2 L'expert donne deux quantiles de Pi;156
6.7.5;7.4 Caler un prior conjugué sur deux quantiles élicités des paramètres d'un modèle d'observable normal;157
6.7.5.1;7.4.1 Dialogue avec l'expert;157
6.7.5.2;7.4.2 Le paramètre à éliciter est unidimensionnel;157
6.7.5.2.1;Calage d'un prior normal;158
6.7.5.2.2;Calage d'un prior gamma;159
6.7.5.3;7.4.3 Le paramètre à éliciter est bidimensionnel;160
6.7.5.3.1;Cas oft les deux parametres sont independants;161
6.7.5.3.2;Cas ou les deux parametres sont dependants;162
6.7.6;Épilogue;163
7;Deuxième partie... à la souris;165
7.1;Chapitre 8 Modèle de capture-recapture par assemblage de modules fonctionnels binomiaux : application au cas des saumons;166
7.1.1;Prologue;166
7.1.2;8.1 Introduction;166
7.1.3;8.2 Présentation du problème;167
7.1.3.1;8.2.1 Les trois dernières étapes du cycle de vie du saumon : remonter la rivière, échapper aux pêcheurs à la ligne et survivre jusqu'à la saison du frai;167
7.1.3.2;8.2.2 Variables observées;169
7.1.3.3;8.2.3 Expertise a priori sur Ie comportement du saumon;169
7.1.3.3.1;Des paramètres techniques, inconnus, mais supposés stationnaires;169
7.1.3.3.2;Encoder l'expertise a priori;170
7.1.3.3.3;Construction des lois a priori à dire d'expert;171
7.1.3.4;8.2.4 Les variables latentes décrivent le phénomène biologique;172
7.1.3.4.1;Le modèle statistique sous la forme d'un graphe acyclique orienté;173
7.1.4;8.3 Inférence bayésienne;174
7.1.4.1;8.3.1 L'échantillonnage de Gibbs divise le problème en plusieurs sous-problèmes simples;175
7.1.4.2;8.3.2 Dans Ie DAG, la conditionnelle complète d'un næud impliquent seulement ses næuds parents, ses næuds enfants et les næuds coparents de ses enfants;176
7.1.4.3;8.3.3 Actualisation bayésienne des éléments d'un DAG par I'échantillonnage de Gibbs;176
7.1.4.3.1;La marginalisation permet de ne pas tenir compte des variables latentes;177
7.1.4.3.2;Les propriétés conjuguées des lois binomiales et bêta rendent les mises à jour bayésiennes plus faciles;177
7.1.4.3.3;Conditionnelles complètes non explicites;179
7.1.5;8.4 Résultats numériques;180
7.1.5.1;8.4.1 Année 1995;180
7.1.5.1.1;Calcul MCMC;180
7.1.5.1.2;L'Inférence bayésienne;180
7.1.5.2;8.4.2 Cinq années de données;182
7.1.6;8.5 Discussion;183
7.1.6.1;8.5.1 Le rôle du prior;183
7.1.6.2;8.5.2 Le choix du modèle;184
7.1.6.3;8.5.3 Confusion des effets et importance du prior;184
7.1.7;Épilogue;185
7.2;Chapitre 9 Le modèle linéaire généralisé;187
7.2.1;Prologue;187
7.2.2;9.1 Introduction;187
7.2.3;9.2 Retour sur Ie modèle linéaire classique;188
7.2.4;9.3 Le modèle linéaire généralisé;190
7.2.4.1;9.3.1 Le modèle linéaire généralisé (GLM) répond à ces limitations;191
7.2.4.2;9.3.2 D'un point de vue pratique;193
7.2.5;9.4 La régression logistique;194
7.2.5.1;9.4.1 La transformation logit;194
7.2.5.2;9.4.2 La régression logistique;195
7.2.5.3;9.4.3 Les prothésistes dentaires seraient-ils particulièrement exposés aux pneumoconioses?;196
7.2.5.3.1;L'enquête;196
7.2.5.3.2;Contraintes et sélection des variables;196
7.2.5.3.3;Le modèle;197
7.2.5.4;9.4.4 Évaluation de l'action conjointe de deux produits;199
7.2.5.4.1;Application phytosanitaire;200
7.2.5.5;9.4.5 Régression logistique avec Ie modèle de Finney (1971);200
7.2.6;Épilogue;201
7.3;Chapitre 10 Assembler des modules fonctionnels pour évaluer la viscosité du lait concentré sucré;203
7.3.1;Prologue;203
7.3.2;10.1 Introduction;204
7.3.3;10.2 Construire un modèle comme on joue au Lego;206
7.3.3.1;10.2.1 Les moyens à mettre en œuvre;207
7.3.3.2;10.2.2 Les modèles, leur définition, leurs liens;207
7.3.3.3;Compléments;209
7.3.4;10.3 Régression Iinéaire avec priors indépendants partiellement conjugués (M1);209
7.3.4.1;10.3.1 Formulation du modèle M1;210
7.3.4.2;10.3.2 Les conditionnelles complètes;210
7.3.4.3;10.3.3 Compléments sur le prior;211
7.3.5;10.4 Représentor la dépendance temporelle par un processus AR1 (M2);211
7.3.5.1;10.4.1 Formulation du modèle M2;212
7.3.5.2;10.4.2 Les conditionnelles complètes;212
7.3.6;10.5 Modèle linéaire à résidus autocorrélés (M3);213
7.3.6.1;10.5.1 Formulation du modèle M3;213
7.3.6.2;10.5.2 Loi a priori des paramètres du modèle linéaire à résidus autorégressifs;214
7.3.6.3;10.5.3 Conditionnelles complètes des paramètres du modèle linéaire à résidus autorégressifs;214
7.3.6.4;10.5.4 Spécification des priors du modèle linéaire à résidus autorégressifs;215
7.3.6.5;10.5.5 Applications;216
7.3.7;10.6 Modèle linéaire à résidus autocorrélés avec erreur sur variables explicatives (M4);218
7.3.7.1;10.6.1 Formulation du modèle M4;218
7.3.7.2;10.6.2 Spécification du paramètre ¢;220
7.3.7.3;10.6.3 Influence de la prise en compte de l'erreur sur la température;220
7.3.8;10.7 Une brique de LEGO supplémentaire d'expression multinomiale;220
7.3.8.1;10.7.1 Formulation du modèle M5;221
7.3.8.2;10.7.2 Conditionnelles complètes du modèle catégoriel probit (M5);224
7.3.8.3;10.7.3 Application du modèle multinomial probit (M5);225
7.3.9;Épilogue;226
7.4;Chapitre 11 Quantifier les incertitudes en bruitant un modèle déterministe : évaluation de la pollution indoor;228
7.4.1;Prologue;228
7.4.2;11.1 Introduction;229
7.4.3;11.2 Expérimentation et approche classique;229
7.4.3.1;11.2.1 Modélisation du taux d''émission;230
7.4.3.2;11.2.2 Modélisation du changement de masse du polluant;230
7.4.3.3;11.2.3 Brève étude critique du travail publié;231
7.4.3.4;11.2.4 Discussion;232
7.4.4;11.3 Bruiter le modèle déterministe;233
7.4.4.1;11.3.1 Une stratégic de modélisation des incertitudes;233
7.4.4.2;11.3.2 Application de la règie de Bayes;234
7.4.4.3;11.3.3 Résultats;235
7.4.4.3.1;Commentaire;236
7.4.5;Épilogue;237
7.5;Chapitre 12 Les avantages de la modélisation hiérarchique : application à la capture-marquage-recapture des saumons;238
7.5.1;Prologue;238
7.5.2;12.1 Données;239
7.5.3;12.2 Modèle de capture-rnarquage-recapture;239
7.5.3.1;12.2.1 Modèle Bernoulli d'aléa pour la première phase;240
7.5.3.2;12.2.2 Modèle Bernoulli d'aléa pour la seconde phase;241
7.5.4;12.3 Modèle bayésian hiérarchique échangeable;242
7.5.5;12.4 Modèle bayésien annuel;245
7.5.6;12.5 Choix des distributions a priori et analyse de sensibilité;246
7.5.6.1;12.5.1 Priors du modèle avec indépendance annuelle;246
7.5.6.1.1;Efficacités bêta de la capture et de la recapture;246
7.5.6.1.2;Stock de poisson inconnu;247
7.5.6.2;12.5.2 Priors à deux étages du modèle hiérarchique;247
7.5.6.2.1;Efficacités de pêche et de recapture de type bêta;247
7.5.6.2.2;Stock de poisson binomial négatif;248
7.5.7;12.6 Résultats;248
7.5.8;Épilogue;252
7.6;Chapitre 13 Modèles de changements cachés;253
7.6.1;Prologue;253
7.6.2;13.1 Introduction ;254
7.6.2.1;13.1.1 Trois exemples hydrornétéorologiques;255
7.6.3;13.2 La modélisation des changements;256
7.6.3.1;13.2.1 Modèle M1 : 1 seule rupture;256
7.6.3.2;13.2.2 Modèle Mk : k ruptures;257
7.6.3.2.1;Discussion;257
7.6.3.3;13.2.3 Modèle Ma (autorégressif, k ruptures);259
7.6.4;13.3 Représentation des distributions a priori;259
7.6.4.1;13.3.1 Prior pour les dates;260
7.6.4.1.1;On postule un seul changement;260
7.6.4.1.2;On postule k changements;261
7.6.4.2;13.3.2 Prior pour les autres paramètres;262
7.6.5;13.4 Étude du modèle Mk;263
7.6.5.1;Lois a posteriori pour Ie cas normal;264
7.6.6;13.5 Méthode d'inférence;265
7.6.7;13.6 Choix de k : ou sélection bayésienne de modèles;266
7.6.7.1;13.6.1 Le facteur de Bayes;266
7.6.7.2;13.6.2 Facteur de Bayes et rapport de vraisemblance;266
7.6.7.3;13.6.3 Choix de modèle;267
7.6.7.4;13.6.4 Note sur le choix de modèle;267
7.6.7.5;13.6.5 Avantages et inconvénients des facteurs de Bayes;268
7.6.8;13.7 Applications;269
7.6.8.1;13.7.1 Application aux modules annuels du Sénégal;269
7.6.8.2;13.7.2 Application aux apports énergétiques annue ls du Saint-Laurent (1943-2000);270
7.6.8.2.1;Comparons maintenant M1 à M2;270
7.6.8.3;13.7.3 Application du modèle Ma au Saint-Laurent;272
7.6.8.3.1;Essai d'interprétation des résultats;274
7.6.8.4;13.7.4 Débit s maximaux annuels de la Dordogne à Cenac;274
7.6.9;13.8 Discussion;276
7.6.10;Épilogue;277
7.7;Chapitre 14 Conclusion;279
8;Annexes;281
8.1;Chapitre A Annexe du chapitre 1: Ie modèle normal;282
8.1.1;Loi normale unidimensionnelle;282
8.1.1.1;Loi du khi-deux;283
8.1.1.2;Loi de Student;283
8.1.2;Inférence bayésienne sur les paramètres d'une loi normale unidimensionnelle;284
8.1.2.1;De la plume à la souris selon Ie prior;284
8.1.2.2;Distribution conjointe a posteriori;284
8.1.2.3;Les distributions marginales a posteriori;285
8.1.3;La distribution prédictive a posteriori;286
8.1.3.1;Cas du modèle normal unidimensionnel;286
8.2;Chapitre B Annexe du chapitre 2 : les modèles discrets de base;288
8.2.1;Le processus de Bernoulli;288
8.2.2;La distribution gamma;289
8.2.3;La distribution bêta;290
8.2.3.1;Espérance d'une v. a. r. X distribuée selon une loi bêta sur [0,1];290
8.2.3.2;Variance d'une v. a. r. X distribuée selon une Ioi bêta sur[0,1];291
8.2.3.3;Mode d'une v. a. r. définie sur [0,1] et distribuée selon une loi bêta;291
8.2.4;La loi de Poisson comme limite de la loi binomiale;292
8.2.5;La distribution binorniale négative;292
8.2.5.1;La prédictive a posteriori d'un modèle gamma-Poisson;293
8.3;Chapitre C Annexe du chapitre 6 : le modèle des fuites et Ie modèle GEV sous WinBUGS;294
8.3.1;Du processus ponctuel de Poisson au modèle des fuites;294
8.3.1.1;Le processus ponctuel de Poisson;294
8.3.1.2;Le processus ponctuel de Poisson marqué;295
8.3.1.3;Le modèle de dépassement;296
8.3.1.4;Le modèles des fuites;296
8.3.2;Les valeurs extrêmes sous WinBUGS;297
8.3.2.1;Le modele GEV;297
8.3.2.2;Choix du prior;298
8.3.2.3;DAG associé au modèle GEV;299
8.4;Chapitre D Annexe du chapitre 9 : la distribution de Student et Ie processus de régression normal;301
8.4.1;Les distributions de Student centrées et décentrées;301
8.4.1.1;Extension du resultat;302
8.4.2;Le processus de régression normal;303
8.4.2.1;Définition;303
8.4.2.2;Vraisemblance;303
8.4.2.3;Prior;304
8.4.2.4;Posterior;305
8.4.2.5;Les conditionnelles complètes a posteriori;305
8.4.2.6;Complements;306
8.5;Chapitre E Annexe du chapitre 10 : formes quadratiques et tutti quanti;307
8.5.1;Les prérequis;307
8.5.1.1;La vraisemblance;308
8.5.1.2;Le prior;308
8.5.1.3;Les conditionnelles complètes a posteriori;309
8.5.2;Modèle autorégressif (M2);310
8.5.2.1;La vraisemblance;310
8.5.2.2;Le prior;310
8.5.2.3;Les conditionnelles complètes a posteriori;310
8.5.3;Modèle linéaire avec résidus autorégressifs (M3);312
8.5.3.1;La vraisemblance;313
8.5.3.2;Le prior;313
8.5.3.3;Les conditionnelles complètes a posteriori;313
8.5.4;Conditionnelles complètes du modèle catégoriel probit;315
8.5.5;Détermination des conditionnelles complètes;315
8.6;Chapitre F Annexe du chapitre 11 :code WinBUGS pour la pollution indoor;318
8.6.1;Chambre d'émission (Hayter et Dowling, 1993);318
8.7;Chapitre G Annexe du chapitre 12 : compléments sur les modèles hiérarchiques;320
8.7.1;Un code WinBUGS pour Ie modèle hiérarchique des castillons;323
8.8;Chapitre H Annexe du chapitre 13 : détection de ruptures, cas Gumbel;325
8.8.1;Loi de Gumbel ou loi double exponentielle;325
8.8.1.1;Définition et propriétés;325
8.8.1.2;La loi de Gumbel sous une forme prisée des hydrologues;326
8.8.2;Modélisation des changements pour Ie modèle de GumbeI;327
8.8.2.1;Modèle M1 (1 seule rupture);327
8.8.2.2;Modèle Mk (k ruptures);328
8.8.2.2.1;Représentation des distributions a priori;328
8.8.2.2.2;Étude du modèle Mk;328
8.8.2.2.3;Algorithme dinférence bayésienne;330
8.8.3;Loi norrnale : étude du modèle Mk;330
8.8.3.1;Vraisemblance;330
8.8.3.2;Distributions conditionnelles a posteriori des uj et de h à T connu;331
8.8.3.3;Distribution marginale a posteriori de T;332
8.8.4;Le modèle autorégressif de changement Ma;333
8.8.4.1;Vraisemblance et priors;333
8.8.4.2;Distributions a posteriori;334
9;Bibliographie;337
10;Index;343
Première partie De la plume….- La Statistique: son objet, ses outils.- Décision en avenir incertain: l’avalanche de Montroc.- à la modélisation graphique: le modèle de capture-recapture.- Pratique du calcul des lois a posteriori.- Le cardinal sort du rang: la cible est une variable latente.- Initiation à la modélisation des valeurs extrêmes: les modèles GEV et POT.- Construire le prior: de l’astuce mathématique au dialogue avec l’expert.- Deuxième partie … à la souris.- Modèle de capture-recapture par assemblage de modules fonctionnels binomiaux: application au cas des saumons.- Le modèle linéaire généralisé.- Assembler des modules fonctionnels pour évaluer la viscosité du lait concentré sucré.- Quantifier les incertitudes en bruitant un modèle déterministe: évaluation de la pollution indoor.- Les avantages de la modélisation hiérarchique: application à la capture-marquage-recapture des saumons.- Modèles de changements cachés.- Conclusion.