BARTEL FORMATION ISEG finance school introduction à l’économétrie Durée de la formation : 18h00 ou 20h00. Prérequis indispensables: Mathématiques (algèbre et analyse) et statistiques, probabilités niveau Bac+2 or 15 À qui s’adresse cette Sni* to View À l’origine, l’économé l’économie, les math croisement entre ques. Cependant, aujourd’hui, l’économ trie est de2venue une branche des statistiques à part entière mobilisée dans des disciplines comme la biologie, les études médicales, ou les études environnementales.
Ce module correspond à un enseignement de troisième année MASS, économétrie, économie). Il peut également intéresser les étudiants en master de gestion, sociologie, sciences politiques, médecine, biologie… ainsi que les professionnelles confrontés ? des problèmes d’estimation fonctionnelle. Thème des séances : 1) Lundi 19 janvier : introduction à l’économétrie : prérequis présentation du modèle linéaire simple terme « simplifiée » ne signifie pas nécessairement simpliste.
L’auteur ajoute que « la puissance d’un modèle découle de l’élimination des détails non pertinents, ce qui permet à l’économiste de se concentrer sur les aspects essentiels e la réalité économique qu’il essaie de comprendre Si la modélisation est un outil très utilisé en micro-économie, on la retrouve dans la plupart des disciplines scientifiques. une des difficultés consiste à déterminer les éléments essentiels, et ceux qui ne le sont pas. A.
Démarche de la modélisation Il s’agit ici à l’image d’un cas pratique de se demander comment à partir d’un problème concret, on construit un problème mathématique, puis comment sa résolution peut-elle déterminer un choix concret. Modéliser signifie rechercher dans un ensemble de phénomènes des régularités, des caractéristiques de lassement et d’analyse. Un modèle est une représentation formalisée des relations entre varlables. Il faut commencer par définir les différentes variables : • Variables exogènes données (ou autonomes) : C »est une variable qui s’impose au système. Exemple la météo) • Variables exogènes instrumentales (ou explicatives) : Cest celles que l’on peut contrôler directement (Exemple les dépenses publiques, le taux d’imposition d’un impôts, le taux directeur fixé par la Banque Centrale) • Variables endogènes ou dépendantes:Si on a un modèle très simple de type La variable y est dite endogène. Les variables peuvent également être définies continues (R) ou discrètes nominales ou réelles, qualitatives, ou quantitatives, dichotomiques (variables binaires) ou polytomiques (plus de 2 modalités).
Le prix Nobel Gunnar Myr ealement les variables ex- 15 Nobel Gunnar Myrdal distingue également les variables ex-ante (valeur anticipée ou valeur de prédiction) et variables ex-post (observées, mesurées). On définit également les constantes, les paramètres, on qualifie sous forme de lettres l’ensemble des objets qui entrent dans le modèle. Le modèle se présente sous a forme d’un système d’axiomes, d’équations, ou d’inéquations, de suites, ou de fonctions d’une ou de plusieurs variables.
Dans ce cas, la forme fonctionnelle : taux de croissance, croissance ou décroissance, concavité, convexité, domaine de définition, doivent être précisés. Les éléments déterminants ceci dépendent alors du type de discipline scientifique. La méthodologie générale d’une modélisation est la suivante • Dans l’introduction, on commence par définir le sujet de l’étude, lister les concepts et les définir mathématiquement comme variables, constantes, paramètres… On pose ensuite le problème que cherche à résoudre ce modèle c’est-à-dire la problématique du modèle.
La première partie de l’analyse consiste à proposer une modélisation abstraite du problème. Dans un premier temps, le problème de fait, concret est reformulé en termes abstraits, généraux et mathématiques. Il s’agit alors de présenter une axiomatique complète et cohérente effaçant les caractéristiques non essentielles. Afin de garantir la cohérence logique et la rigueur intellectuelle, cette première étape doit préciser explicitement les choix réalisés ainsi que les justifications héoriques.
Dans un second temps de cette première partie, nous ferons appel aux outils permettant de formaliser le modèle : il s’agit des outils mathématiques statistiques, économétriques, informatiques, probabilités, graphes… ainsi que les données mobilisées : enquête de terrain économétriques, informatiques, probabilités, graphes… ainsi que les données mobilisées : enquête de terrain, bases de données statistiques, expérimentation en laboratoire. La seconde partie de la modélisation consiste à confronter les outils théoriques des mathématiques aux données concrètes afin e produire une solution.
Une analyse critique du modèle doit également apparaitre en deuxième phase de cette seconde partie. Celle-ci consiste notamment à mettre en exergue les limites du modèle, c’est-à- dire les choix réalisés et contestables, les questions auxquelles le modèle ne peut pas répondre, ce qui peut limiter l’application concrète du modèle. Il ne s’agit pas de détruire le travail réalisé, mais de reconnaître ses limites, de présenter des pistes de travail qui restent ouvertes à l’issue de cette modélisation. B.
Intérêts et limites de la modélisation. La modélisation mathématique apporte de la rigueur au processus de décislon et peut apporter des éclairages nouveaux à un problème. Cependant, que faire si le modèle n’a pas de solution ou s’il en a plusieurs ? Comment s’assurer que les hypothèses, contraintes et instruments sont objectivement, rationnellement définis et surtout comment éviter qu’une idéologie notamment politique, morale, philosophique, introduise des hypothèses implicites qui généreraient une décision sous- optimale.
La démarche des mathématlques présente des intérêts évidents dans l’analyse rationnelle d’un problème. En effet, les outils statistiques, économétriques, informatiques permettent de traiter un grand nombre de données avec toute la rigueur nécessaire à la compréhension d’une uestion_ Grâce aux mathématiques, un problème peut être an on neutre et détachée PAGFd 5 problème peut être analysé d’une façon neutre et détachée permettant d’évacuer les passions, les prénotions, les idéologies.
Il faut toutefois veiller à ce que les hypothèses, contraintes, instruments, ne reflètent pas ces idéologies, ne constituent pas des hypothèses implicites qui reviendraient à introduire dans ne analyse rationnelle, objective, rigoureuse des prénotions discutables. Celles-ci pourraient alors aboutir à une solution sous optimale.
Le concept d’habitus élaboré par Pierre Bourdieu pour désigner un système de pensées et de valeurs ainsi que des comportements standardisés relatifs à un groupe socioculturel distinct, correspond précisément aux éléments qu’un modélisateur objectif doit connaître afin de déterminer dans son analyse ce qui pourrait relever de cette influence afin de l’écarter. En conclusion de ce paragraphe, revenons sur la question de l’élimination des caractéristiques non essentielles.
Le postulat philosophique ou épistémologique du rasoir d’Occam consiste ? privilégier l’explication la plus simple face à un phénomène. Cette approche s’oppose au paradigme de la complexité dans lequel, on postule que la réalité est complexe et ne peut être analysée de façon simpliste. On appelle : prophétie auto-réalisatrice une situation dans laquelle une prédiction, une anticipation, se réalise des suites de comportements individuellement rationnels.
Exemple, une grève des transports ou des raffineries de pétrole, empêchent l’approvisionnement en carburant, on annonce la possibilité ‘une penurie au bout de quelques jours, de tres nombreux consommateurs se précipitent pour faire le plein d’essence ce qui provoque une pénurie dès le premier jour, ce qui ne se serait pas produit si la prévision n’avalt pas été formulée. Ce PAGF s 5 dès le premier jour, ce qui ne se serait pas produit si la prévision n’avait pas été formulée.
Ce type de raisonnement s’applique souvent en économie, notamment aux marchés financiers. On anticipe un effondrement ou une hausse du cours d’un titre, chaque individu s’adapte à cette prévision en achetant ou en vendant ce titre dans la valeur varie effectivement dans le sens nticipé, même si aucune raison extérieure ne le justifie. On appelle prophétie contra-réalisatrice, le processus contraire dans lequel la formulation d’une prévision incite les individus ? modifier un comportement qui invalide la prévision.
Par exemple, Bison futé annonce des bouchons à Lyon entre 12h00 et 14h00, les individus qui doivent passer par Lyon vont choisir d’éviter ces bouchons en passant par Lyon plus tôt ou plus tard. Si le nombre dindividus qui s’adapte est important, l’horaire des bouchons va être modifié, il n’y aura pas de bouchon à l’heure prévue. Ces deux phénomènes sont courants en sciences sociales et doivent être pris en compte. En sciences Politiques, on considère qu’il existe un seuil dans les sondages en dessous duquel, vous n’êtes pas un candidat susceptible d’être élu, vous n’attirez dons pas les électeurs.
Au-delà de ce seuil, vous devenez un candidat important, ce qui attire des électeurs. D’un point de vue général, la prévision consiste toujours à prévoir l’avenir à partir d’une analyse statistique du passé. Ce type de technique s’appuie donc toujours sur le postulat selon lequel le futur va ressembler au passé. On parle d’analyse caeteris aribus (toute chose égale par ailleurs) lorsque l’on considère que toutes les autres variables du système restent inchangées.
Toute prévision à long terme a une forte probabillté de se révéler fauss 6 5 système restent inchangées. Toute prévision à long terme a une forte probabilité de se révéler fausse. Dans le cas d’une inférence statistique sur données empiriques, plusieurs difficultés peuvent se présenter : Le premier problème consiste à définir un dispositif de recueil de données suffisamment rigoureux pour garantir qu’une analyse mathématique rigoureuse de ces données ne renverra pas à une ausse théorie basée sur des donnees incomplètes, incohérentes.
Quelles données je dois utiliser ? Comment définir les variables pertinentes exogènes, endogènes… ? Quelle forme fonctionnelle donner à mon modèle ? Si le modèle a plusieurs solutions, laquelle choisir ? Que faire s’il n’y en a aucune ? Comment s’assurer d’axiomes ou d’hypothèses objectives et non idéologiques ? Que faire si la matrice idéologique du décideur refuse la seule solution du problème ? Comment être certain de la validité du modèle aujourd’hui? Qu’en est-il à long terme ? Comment faire face à l’incertitude sur les données ?
Il faut alors se demander comment on peut étudier une population dans son ensemble à partir d’un échantillon, et savoir sur quels critères baser la sélection de cet échantillon (sondage aléatoire ou représentation proportionnelle). Il faut également déterminer la possibilité de déduire les caractéristiques de la population totale à partir de l’échantillon. Le programme de statistiques de l’enseignement secondaire ainsi que celui de première année universitaire portent sur les statistiques descrptives.
Comme le nom l’indique, elles servent à décrire une réalité observée. Les statistiques inférentielles ue fon aborde généralement en seconde année universitaire consistent à analyser à l’aide de statistiques descriptives un échantillon, puis 7 5 universitaire consistent à analyser à l’aide de statistiques descriptives un échantillon, puis à l’aide de calculs de probabilités, on généralise le résultat à la population dans son ensemble. La démarche suivie en économétrie est abductive.
Nos perceptions étant limitées, une approche hypothético-inductive pure est impossible, puisqu’il subsiste toujours des prénotions méthodologiques et idéologiques qui doivent être objectivées. Les sciences physiques, naturelles, humaines et sociales présentent des différences fondamentales. Cependant le principe d’incertitude d’Heisenberg (1927) qui affirme qu’il n’est pas possible de connaître à la fois la position et la vitesse de déplacement d’un atome qui est influencé par les Instruments de mesure est applicable aux sciences sociales.
Les individus atomes étant en interrelation, l’analyse des comportements influence récisons à ce propos que si le principe d’incertitude en ceux-ci. P mécanique quantique probabilise une marge d’erreur, aucun instrument ne permet d’évaluer d’une façon aussi précise ce hénomène en sciences sociales. Hypothético déductive : C’est la démarche des maths pures, on émet des hypothèses pour donner des conclusions selon un raisonnement logique qui détermine la cohérence interne. Hypothético inductive : Cest la démarche des statistiques et des sciences empiriques.
Dans ce cas on réalise des observations et des mesures pour élaborer une analyse de ces données. Hypothético adductive :On commence par construire un modèle théorique pour le tester statistiquement ou alors on réalise une analyse statistique pour construire un modèle théorique de ces données. En construisant l’analyse inductive du monde perceptible, la démarche tente de factoriser des idéaux types de comp 5 inductive du mande perceptible, la démarche tente de factoriser des Idéaux types de comportements.
L’essentiel de la connaissance vient donc du terrain, mais pour s’appuyer encore une fois sur le Cours de philosophie positive d’Auguste Comte (1830-1842), la théorie est nécessaire à l’interprétation des faits. Si certains néo-classiques considèrent l’économie comme une science physico-mathématique, il en est une part non négligeable qui a omis la complexité, les systèmes chaotiques, la non- inéarité et la multi-dimensionnalité. Bien que Mandelbrot (1997) ait démontré depuis longtemps la structure fractales des cours boursiers et l’impossibilité de les modéliser de façon convaincante comme des mouvements browniens suivant une distribution gaussienne. Les analystes restent pour la plupart attachés ? leurs hypothèses simplificatrice efficaces à court terme, même si comme l’affirme Mandelbrot, « l’examen des faits montre le contraire ». 1 Un phénomène est qualifié de déterministe s’il n’est pas aléatoire.
Il) Rappels de statistiques Un individu est la plus petite unité élémentaire que le tatisticien analyse. Il ne s’agit pas nécessalrement d’êtres humains. La population est l’ensemble des individus sur lesquels porte l’étude. L’échantillon est l’ensemble des individus issus de la population qui sera étudié afin de découvrir une information sur la population totale. Plusieurs méthodes existent pour sélectionner l’échantillon. Tout dépend du dispositif d’enquête de terrain. Les variables peuvent être qualitatives ou quantitatives, discrètes ou continues. ne variable quantitative est un nombre, par exemple le poids, [‘âge… une variable qualitative n’est pas un ombre : par exemple une couleur, le genre. LJne variable dichotomique est b PAGF 15 qualitative n’est pas un nombre : par exemple une couleur, le genre… une variable dichotomique est binaire, par exemple le genre de l’individu homme ou femme, ou état allumé et éteint en électronique, circuit ouvert ou circuit fermé, réponse oui ou non… Cette variable se code en O ou 1 Une variable polytomique a plus de deux valeurs possibles. phénomène est qualifié de déterministe s’il n’est pas LI aléatoire. Le fondement du traitement de données, consiste à faire des tris, classer les données, Le statisticien réalise des calculs d’indicateurs de tendance centrale, de dispersion, de concentration, des indicateurs élémentaires ou synthétiques, unidimensionnels ou multidimensionnels L’étude d’indice élémentaire consiste à comparer le niveau d’une seule variable pour deux dates différentes ou pour deux individus différents.
Les indices synthétiques sont des agrégats dans lesquels les variables sont pondérées dans une seule dimension. un indice multidimensionnel consewe plusieurs chiffres afin de rendre compte des différents aspects du problème, des différentes dimensions, mathématiquement, il s’agit d’un vecteur u d’une matrice. Par exemple, les néoclassiques utilisent l’utilité comme indicateur synthétique de bien-être.
Cependant, si l’on considère qu’on ne peut pas additionner l’argent que l’on gagne en travaillant malhonnêtement avec la reconnaissance social d’avoir accompli une action positive pour autrul, il faut optimiser son choix avec deux dimensions. Il en est de même en contexte de risque et d’incertitude. une dimension représente le montant gain ou perte et l’autre dimension représente sa probabilité. Les indices synthétiques unidimensionnels ne permettent pas d’analyser le monde réel.