Bulletin Vert no 461
novembre — décembre 2005
STATISTIQUE AU LYCÉE Volume 1 : LES OUTILS DE LA STATISTIQUE Brochure n° 156
par la Commission InterIrem « Statistique et Probabilités »
16 articles de Louis-Marie Bonneval, Brigitte Chaput, Annette Corpart, Jean-Claude Girard, Michel Henry, Stéphan Manganelli, Bernard Parzysz, Jean-François Pichard, Hubert Raymondaud.
Coordination : Brigitte Chaput et Michel Henry.
314 pages en 17 × 24, d’excellente présentation, illustrées, dont les articles sont chacun pourvu d’une bibliographie ; 15 pages de trois Index, 2 du Sommaire du tome 2 (Simulation ; Sondages ; Traitement d’enquêtes), qui suivra d’ici quelques mois.
ISBN : 2-912846-32-3.
Prix : public : 13€ ; adhérent : 9 €.
Voici un « travail de fond [...], fruit de pratiques dans les classes et de recherches dans les Irem », le Tome I se voulant « une introduction, un débat et un élargissement autour des questions d’enseignement soulevées par les objectifs et la démarche adoptés par les programmes des lycées » ... non sans rappeler leur « difficulté didactique » qui « prive les élèves de Seconde du concept de probabilité pour [épauler] leurs observations expérimentales ».
La PRÉFACE de Jean-Pierre RAOULT insiste sur la richesse d’une brochure aux réflexions souvent interrogatives parties « du vécu des difficultés rencontrées » dans les classes. Il y retrouve de quoi nourrir sa conclusion, d’un autre texte, que je cite page 830.
En aussi peu de mots que possible, Brigitte Chaput et Michel Henry résument ainsi une présentation des articles :
« PREMIÈRE PARTIE : LES OUTILS DE LA DESCRIPTION STATISTIQUE (135 pages).
« Deux articles de Jean-Claude GIRARD abordent quelques grandes questions posées par cet enseignement de la statistique, accompagnées d’un plaidoyer pour que les concepts de base et le vocabulaire de la statistique descriptive soient bien installés à l’issue du collège.
Parmi ces concepts, ceux de médiane, quartiles et déciles, d’un usage de plus en plus répandu dans le domaine public, ne sont pas si simples à manipuler : le panorama des définitions en vogue présenté par Jean-Claude GIRARD sera une aide pour les enseignants.
La description de séries statistiques à un caractère exploite divers outils et résumés : graphiques, histogrammes, tige et feuilles, paramètres de position et de dispersion, boîtes à pattes (ou à moustaches). Hubert RAYMONDAUD montre l’avantage de leur diversité, à condition d’éviter certains pièges. Il donne les modes d’emploi pour une bonne utilisation.
L’étude de données statistiques à caractère bidimensionnel est un objectif majeur de la série ES et de certains BTS. Stéphan MANGANELLI propose dans ce cadre un article illustré de nombreux exemples sur les questions de corrélation et d’ajustements ... vers la régression, accompagné d’énoncés d’exercices et de devoirs.
On rencontre avec les séries chronologiques un aspect particulier de la description statistique. Brigitte CHAPUT en décrit quelques méthodes à partir de l’étude d’un exemple réel.
Enfin Brigitte CHAPUT et Jean-Claude GIRARD présentent le cadre géométrique dans lequel opèrent les outils de la statistique exploratoire, appelée aussi analyse des données, mettant massivement à contribution l’algèbre linéaire et les structures euclidiennes dans $\mathbb R^n$. »
« DEUXIÈME PARTIE : SIMULATION ET MODÈLES PROBABILISTES (129 pages).
« Les questions posées par la simulation informatique font l’objet de notre travail d’approfondissement. En premier lieu, nous abordons successivement avec Jean-Claude GIRARD, Michel HENRY et Jean-François PICHARD les dimensions didactiques, épistémologiques et historiques du statut de la simulation.
Le fonctionnement du générateur aléatoire d’un ordinateur, pour mystérieux qu’il soit, est massivement mis à contribution dans les activités de simulation. Il ne va pas de soi et nécessite la compréhension en profondeur de ce qu’est une suite pseudo-aléatoire équirépartie, objet de recherches contemporaines en cours, présentées par Bernard PARZYSZ.
L’introduction de lois discrètes et continues dans le nouveau programme de terminale S et leur simulation nous a amenés à proposer trois articles de Bernard PARZYSZ et Michel HENRY, présentant tour à tour les lois binomiale, exponentielle et normale.
Rappelant ensuite que toute courbe en cloche n’est pas nécessairement normale, Jean-François RICHARD étudie les liens historiques entre le théorème de Bernoulli, premier résultat en estimation, et l’aboutissement des travaux sur la théorie des erreurs, le Théorème-Limite Central, mettant en évidence la nature fondamentale des phénomènes gaussiens. Ce théorème confère à la loi normale un statut généraliste largement exploité en sciences sociales. Il est à la source des résultats de base dans les théories de l’estimation et des tests d’hypothèse. [...]
Les programmes de terminales introduisant le contrôle de l’adéquation de données statistiques expérimentales à une loi équirépartie, il nous a paru utile de présenter de manière très élémentaire une introduction aux tests d’hypothèses, suivie d’un article de Louis-Marie BONNEVAL et Michel HENRY donnant les éléments de théorie relatifs aux tests du Khi-deux pour en dégager quelques remarques de nature didactique à l’intention des professeurs de terminale. »
La concision de ces présentations ne permet cependant pas de voir à quel point les études sont à la fois étoffées et claires, profondes et accessibles, riches de situations-exemples. À titre paradigmatique, voici l’introduction, par Stéphan Manganelli, de son article : « DESCRIPTION D’UNE SÉRIE STATISTIQUE À DEUX VARIABLES QUALITATIVES : MODÉLISATION NON PROBABILISTE PAR LES MÉTHODES D’AJUSTEMENT ».
« L’objectif de cet article est de donner une certaine vue d’ensemble sur un thème présent dans les programmes de mathématiques de nos classes (filière ES, Baccalauréat Professionnel, Brevet de Technicien, Brevet de Technicien Supérieur, ...).
En sortant un peu des schémas stéréotypés classiques (le calcul du coefficient de corrélation r a priori pour donner le feu vert, une utilisation de la covariance un peu théorique, une confusion entre le modèle et la réalité, ...), j’essaie, imprégné de multiples débats et lectures diverses, de donner ma façon de voir et d’aborder cette partie du programme, si possible à travers une démarche pédagogique cohérente.
Avec des éclairages particuliers sur certains aspects pratiques, en mettant l’accent sur certains outils théoriques plutôt que d’autres et en proposant certaines ouvertures, j’espère que des collègues y trouveront un intérêt.
La plus grande partie des résultats théoriques n’est pas démontrée, mais peut se retrouver notamment dans les livres cités en bibliographie- Ce choix est volontaire, dans le sens où il ne me semble pas primordial dans un premier temps de décortiquer les outils théoriques niais au contraire de faire ressortir l’aspect pratique ; ce d’autant plus que l’utilisation des outils comme les calculatrices ou l’ordinateur apparaît incontournable et permet d’obtenir ces résultats (droite d’ajustement.) ou de les vérifier (équation d’analyse de variance).
Par contre la machine ne fait pas l’analyse critique de la situation et de ses résultats :
c’est aussi sur cette analyse exploratoire que j’ai voulu insister pour amener les élèves à réfléchir.
Enfin, j’ai essayé de donner la priorité à l’étude de problèmes réels , liés concrètement à des options (que je connais un peu) et, d’éviter le plus possible (et ce n’est pas évident !) les exercices d’école.
Tout cela en essayant modestement d’être dans l’esprit des programmes, qui nous orientent de plus en plus vers « un entraînement à la lecture active de l’information et à son traitement » ainsi que vers « une initiation à la pratique d’une démarche scientifique globale » avec comme objectif général afférent notamment à notre thème d’ « être capable de choisir et d’utiliser, dans une situation donnée, un modèle mathématique adapté au traitement de l’information présentée sous différent aspects ».
Ce thème a donc pour objet l’étude de la corrélation entre deux caractères quantitatifs observés sur une même population ; il fait le lien entre le côté exploratoire de la statistique descriptive et l’aspect décisionnel de la statistique inférentielle.
Une première approche peut en être faite avec l’ajustement affine par la méthode des points moyens (comme en BTA par exemple), puis approfondie en Terminale ES, puis en BTS, avec la méthode des moindres carrés, les changements de variables, etc. »
MA CONCLUSION
Longuement débattus, les textes de cette brochure sont à la fois des références et de merveilleux outils de réflexion et de travail.
Je ne saurais trop remercier les auteurs et leurs IREM pour cette superbe production.
Irremplaçable pour tout enseignant de mathématiques des lycées ou d’immédiat post-bac, elle devrait aussi être à portée de main pour tout enseignant de collège. À tous, elle permettra de faire vivre un enseignement de la statistique aussi auréolé que les autres branches des mathématiques ... et parfois plus fécond !