Parcours

Fermer Parcours lévinassien

Fermer Parcours axiologique

Fermer Parcours cartésien

Fermer Parcours hellénique

Fermer Parcours ricordien

Fermer Parcours spinoziste

Fermer Parcours habermassien

Fermer Parcours deleuzien

Fermer Parcours bergsonien

Fermer Parcours augustinien

Fermer Parcours braguien

Fermer Parcours boutangien

Fermer Glossématique

Fermer Synthèses

Fermer Ouvrages publiés

Fermer Suivi des progrès aux USA

Fermer Parcours psychophysique

Fermer L'art et la science

Fermer Parcours nietzschéen

Fermer Philosophies médiévales

Autres perspectives

Fermer Archéologie

Fermer Economie

Fermer Sciences politiques

Fermer Sociologie

Fermer Poésie

Fermer Théologie 1

Fermer Théologie 2

Fermer Théologie 3

Fermer Psychanalyse générale

Fermer Points d’histoire revisités

Fermer Edification morale par les fables

Fermer Histoire

Fermer La numérisation du monde

Fermer Phénoménologie

Fermer Philosophie et science

Mises à jour du site

01/10/2017 ajout :
Parcours ricordien
- L'image de Dieu et l'épopée humaine
- Ricoeur philosophe et théologien

24/09/2017 ajout :
La numérisation du monde
- La vie algorithmique

09/09//2017 ajout :
La numérisation du monde
- Philosophie de la donnée
- La siliconisation du monde

27/08/2017 ajout :
La numérisation du monde
- Les objets connectés du futur

29/07/2017 ajout :
La numérisation du monde
- Les évolutions suite à la numérisation dans l'usine

29/07/2017 Nouvelle prespective :
La numérisation du monde
- Liminaire
- Le numérique redistribue des pouvoirs aux gens

 

Liens Wikipédia
Visites

   visiteurs

   visiteurs en ligne

Economie - La recherche en économie à partir du modèle concurrentiel

Lire ce texte au format PDF

 

LA RECHERCHE EN ÉCONOMIE À PARTIR

DU MODÈLE CONCURRENTIEL

 

I / LES ÉCONOMISTES : RENARDS OU HÉRISSONS[1] ?

« Le philosophe anglais Isaia Berlin, commence son essai Le Hérisson et le Renard [2] par un fragment attribué au poète grec Archilochus : « Le renard connaît beaucoup de choses, mais le hérisson connaît une grande chose. » 

Appréhendés dans leur globalité, les économistes, il y a quarante ans, étaient des hérissons. Pour simplifier à l’extrême (en ce sens, le propos qui suit est injuste) ils connaissaient sur le bout des doigts le modèle des marchés concurrentiels, le paradigme le plus achevé dans leur discipline. Conscients bien sûr des limites de ce modèle, ils étudiaient d’autres pistes, mais sans toujours avoir le cadre intellectuel adéquat. Sorte de théorie des gaz parfaits de l’économie, le modèle concurrentiel était appliqué à toute une variété de situations : la volatilité des marchés, la finance, le commerce international, etc.

Le « modèle concurrentiel »    

Dans le paradigme du marché concurrentiel, les acheteurs et les entreprises sont supposés trop petits pour pouvoir affecter les prix des marchandises sur lesquels ils échangent, (en d’autres termes, faire monter les prix en restreignant leur offre, ou les faire baisser en diminuant leur demande ; leur comportement n’a qu’un effet négligeable sur le prix du marché). Ils ont une connaissance parfaite des prix en vigueur et de la qualité des produits, et ils se comportent de façon rationnelle et selon leur libre choix, les acheteurs maximisant leur surplus de l’échange et les entreprises leur profit. Sans nécessairement pouvoir prédire précisément l’avenir, ils ont des anticipations rationnelles sur ce qui va se passer pour tout évènement futur.

Ce modèle était appliqué pour expliquer comment l’offre et la demande s’équilibrent sur les différents marchés, ce qui permet d’étudier les phénomènes d’« équilibre général » : par exemple, un changement d’offre sur un marché affecte d’autres marchés

  • d’une part par les relations de complémentarité ou de substituabilité entre produits (si j’achète un smartphone fonctionnant sous Android, j’achèterai aussi un étui compatible et des applications pour smartphones Android)
  • et d’autre part, par des effets de revenu (le changement de prix induit sur ce marché affecte la consommation du produit et le revenu disponible sur ce produit et les autres produits, même si ces derniers n’ont aucune relation directe avec le marché affecté – si les jeunes paient un loyer plus élevé sur leur logement, ils consommeront moins de biens consommés d’habitude pour cette classe d’âge).

Ce fût là une étape importante du développement de la théorie économique, mais qui présente deux défauts intrinsèquement liés. Ses implications pour la politique économique n’étaient

  • d’une part pas évidentes : l’absence de friction (marchés concurrentiels, information symétrique, rationalité, etc.) fait que les marchés sont efficaces. Dès lors, la seule politique publique à considérer est la progressivité de l’impôt sur le revenu, ce qui rendrait aujourd’hui inutiles bien des ministères, des autorités indépendantes et des collectivités territorial !
  • d’autre part, ce modèle ne dépeint pratiquement aucune des situations abordées ans le livre de Jean Tirole.

Depuis, l’économie a beaucoup affiné ses connaissances :

  • comment étudier une concurrence imparfaite avec un petit nombre de vendeurs ou d’acheteurs et en déduire des préceptes pour le droit à la concurrence ;
  • comment incorporer les asymétries d’information sur les prix et la qualité des biens ou

même le manque de connaissances sur les partenaires avec qui nous pouvons échanger, pour prédire d’autres défaillances de marché et à y remédier ;

  • comment ajuster les prédictions tirées de l’hypothèse de comportement rationnel en incorporant les déviations observées par rapport à ce comportement ;
  • comment analyser les implications de la séparation dans l’entreprise entre droits de propriété (appartenant aux investisseurs) et contrôle réel (souvent aux mains des dirigeants dont les intérêts peuvent diverger de ceux des investisseurs, etc.

L’introduction de ces « frictions » par rapport à l’ancien modèle est un travail de longue haleine, mais qui porte ses fruits. Les modèles sont devenus moins parcimonieux (ils font intervenir plus de considérations) mais ils permettent d’étudier un certain nombre de questions nouvelles essentielles pour la politique publique et les stratégies d’entreprise.

Même dans le monde de renards qui prévaut aujourd’hui, certains sont « plutôt renards » et d’autres « plutôt hérissons ».

  • Les hérissons cherchant toute leur vie, guidés par une idée fixe, et souvent tentent de convaincre des disciples d’emprunter la même voie qu’eux. Ils prennent un risque louable pour défendre un paradigme qu’ils jugent important, voire englobant.
  • Les renards regardent plutôt avec suspicion les théories globalisantes, et bâtissent à partir de plusieurs approches, se remettent plus souvent en cause. Ils passent d’une recherche à une autre quand ils pensent avoir atteint des « rendements décroissants » dans la précédente.

Aucun des deux styles n’est supérieur à l’autre, et la science a besoin de renards et de hérissons ; de même que la recherche procède par allers-retours, entre théorie et expérience, elle fait des allers-retours entre renards et hérissons (chacun d’entre nous est même parfois renard et parfois hérisson). D’ailleurs, l’expérience nous montre que le monde de la recherche récompense les deux.

Vaut-il mieux être un économiste renard ou un économiste hérisson dans le débat publique ?

Nous savons peu de choses sur ce sujet, mais les travaux du psychologue Philipp Tetlock de l’Université de Pennsylvanie, sur les experts en science politique sont fascinants. Schématiquement , Tetlock apporte deux réponses à cette question.

  • La première porte sur la réception des idées des universitaires dans le débat public. Les hérissons n’irritent que ceux qui sont opposés à leurs vues. Les renards s’attirent les foudres de tout le monde, car en utilisant des savoirs divers, ils ne ménagent aucune sensibilité. . De plus, les renards prenant en compte plus de paramètres, mettent souvent des bémols sur leurs recommandations, émoussant ainsi la patience de leur auditoire qui désire des certitudes, et n’attirant pas l’intérêt des plateaux de télévision (de fait, le côté « renard » poussé à l’extrême peut conduire à une pléthore de recommandations ; les renards doivent parfois se faire violence et sélectionner une recommandation  qu’ils jugent plus raisonnable). Les médias préfèrent les hérissons.
  • La seconde porte sur les prédictions de 284 experts en science politique faites au cours d’une vingtaine d’années portant sur un total de 28000 prédictions : par exemple sur la chute de l’Union soviétique, la probabilité de scissions d’États-nations, la guerre en Irak ou le déclin de grands partis politiques puissants. Il divise ces experts entre renards et hérissons sur la base de quatorze critères[3]. Il classe aussi les experts en fonction de leurs opinions politiques. Cette dimension n’est pas tout à fait indépendante

du style cognitif de l’expert. De façon peu surprenante, les renards ont plus de chance que les hérissons de se trouver au centre qu’aux deux extrêmes de l’échiquier politique. Ces opinions politiques n’influent d’ailleurs que peu sur le taux d’erreur. Par exemple, dans les années 1980, les experts de gauche étaient aveuglés par leur basse opinion de l’intellect de Reagan, tandis que ceux de droite étaient complètement obsédés par la menace soviétique. En revanche, des enseignements plus riches peuvent être tirés concernent le style cognitif. Les renards produisent de bien meilleures prévisions. Ils ont davantage conscience de la probabilité (non négligeable) qu’ils se trompent. À l’inverse, Tetlock prend comme exemples de hérissons Marx et les libertaires[4], adeptes d’une vision simple du monde et dont les grandes prédictions ne se sont jamais matérialisées. Pas facile de tirer des conclusions définitives de cette étude innovante, même si elle porte sur un échantillon tout à fait considérable. D’autres études devraient être conduites dans d’autres domaines. »       

 

II/ LE RÔLE DES MATHÉMATIQUES

Parmi les sciences sociales et humaines, l’économie est celle qui fait le plus usage de l’outil mathématique ; plus qu’en sciences politiques qu’en droit (y compris en droit économique) ou même qu’en biologie évolutionniste ; et certainement beaucoup plus qu’en sociologie, en psychologie, en anthropologie et en histoire. A ce titre, l’économie est souvent l’objet de critiques : trop formalisée, trop abstraite.

La mathématisation de l’économie est relativement récente, même si au XIXe siècle, les ingénieurs-économistes français (Antoine-Augustin Cournot, Jules Dupuit, Joseph Bertrand), Léon Walras et Wilfredo Pareto à Lausanne, Johann Heinrich von Thünen en Allemagne, Francis Edgeworth à Oxford et William Stanley Jevons à University College London par exemple n’hésitaient pas à formaliser leur discipline. L’économie s’est progressivement mathématisée au XXe siècle, avec une accélération de la tendance dans les années 1940 et 1950. Les travaux de nombreux grands économistes de l’époque, comme Ken Arrow, Gérard Debreu et Paul Samuelson, furent à l’économie ce que les œuvres de Bourbaki[5] furent aux mathématiques. Ils organisèrent la pensée économique en la formalisant. Plus important encore, ils formalisèrent et vérifièrent (ou infirmèrent) la logique d’aperçus innovants mais flous dus aux grands économistes classiques, d’Adam Smith à Alfred Marshall. Ce fut un passage obligé, sur lequel les travaux suivants construisirent ; mais il fallait passer ensuite à autre chose.

Comme dans les sciences physiques ou de l’ingénieur, les mathématiques interviennent à deux niveaux :

  • la modélisation théorique
  • et la validation empirique.

Il ne peut y avoir de fortes controverses sur la nécessité d’utiliser l’économétrie (la statistique appliquée à l’économie) pour analyser les données. Car un prérequis pour la décision est l’identification des causalités. Une corrélation et une causalité sont deux objets distincts ; comme s’en amusait Coluche : « Quand on est malade, il ne faut surtout pas aller à l’hôpital : la probabilité de mourir dans un lit d’hôpital est dix fois plus grande que dans son lit à la maison », un non-sens complet même si l’on tient compte des maladies nosocomiales. On dit qu’il y a relation de corrélation, mais pas de causalité (sinon, il faudrait supprimer les hôpitaux). Et seule une stratégie empirique fondée sur l’économétrie permettra d’identifier un impact causal et donc de faire des recommandations de décision économique.

Plus controversée est l’utilisation de modèles s’attachant à capturer la substantifique moelle du problème. Comme l’a indiqué Jean Tirole, tout modèle est une représentation simplifiée, parfois de façon outrancière, de la réalité, même si des recherches ultérieures permettront d’approfondir et de gommer certaines lacunes. Ainsi que le dit Robert Solow dans les premières lignes de son célèbre article sur la croissance (qui lui valut le prix Nobel) :

Toute théorie repose sur des hypothèses qui ne sont pas tout à fait vraies. C’est ce qui en fait de la théorie. L’art d’une bonne théorisation est de faire des hypothèses simplificatrices de telle manière que les résultats définitifs n’y soient pas très sensibles. Une hypothèse « cruciale » est une hypothèse sur laquelle reposent les conclusions, et il est important que les hypothèses cruciales soient raisonnablement réalistes. Lorsque les résultats d’une théorie semblent découler spécifiquement d’une hypothèse cruciale, alors si l’hypothèse est douteuse, les résultats sont suspects[6].

Malgré ses défauts, ce modèle est, aux yeux de Jean Tirole, indispensable pour plusieurs raisons.

  •  Tout d’abord il guide le travail empirique ; sans modèle à tester, les données ne révèlent pas grand-chose d’utilisable pour la politique économique. Le modèle permet l’analyse de bien-être et par là la politique économique.
  • Ensuite, parce que l’écriture même du modèle crée une discipline de pensée. Elle force l’économiste à expliciter ses hypothèses, créant une certaine transparence dans le raisonnement (les autres pouvant alors juger sans confusion de leur tolérance pour l’hypothèse).
  • Cette écriture force également à vérifier la logique de l’argument, puisque parfois notre intuition est trompeuse.

Comme le dit fort bien l’économiste d’Harvard Dani Rodrik[7], les économistes utilisent les mathématiques non pas parce qu’ils sont intelligents, mais parce qu’ils ne le sont pas assez :

Nous avons besoin des mathématiques pour nous assurer que nous pensons logiquement – pour veiller à ce que nos conclusions découlent de nos prémisses et nous assurer que nous n’avons négligé aucun détail dans notre argument. En d’autres termes, nous utilisons les maths non pas parce que nous sommes intelligents, mais parce que nous ne sommes pas assez intelligents... Nous sommes juste assez intelligents pour reconnaître que nous ne sommes pas assez intelligents. Et cette acceptation, Jean Tirole le dit à ses étudiants, les différenciera de beaucoup de gens aux opinions très fortes sur ce qu’il faut faire quant à la pauvreté et au sous-développement.

Enfin, l’écriture et la résolution du modèle nous font réfléchir à d’autres idées (si les hypothèses mènent à des conclusions falsifiées, sont-elles inappropriées ou manque-t-il quelque chose à la modélisation ?)

Pour autant, la mathématisation ne va pas sans coûts.

  • Premièrement, elle est parfois difficile et les premiers essais pour étudier un sujet se font souvent « à la louche » ; d’où la nécessité d’être patient, alors que l’on demande à l’économiste des suggestions immédiates de politique économique. Il y a encore quarante ans, on ne savait pas ou peu modéliser les anticipations, l’interaction entre entreprises, l’information asymétrique ; des pans entiers de l’économie étaient donc difficiles à formaliser.
  • Deuxièmement, les économistes parfois ont ce biais de « regarder sous le lampadaire » (en référence au comportement consistant à chercher un objet sous le lampadaire parce que c’est là qu’il y a de la lumière, et non pas forcément là qu’on l’a perdu). La macroéconomie, par exemple, pendant longtemps s’est référée à un « agent représentatif » (en d’autres termes, elle supposait que tous les consommateurs étaient identiques) simplement parce que cela rendait le modèle plus aisé à analyser ; aujourd’hui, cette hypothèse est souvent abandonnée, car les consommateurs diffèrent dans de nombreuses dimensions (goûts, richesse, revenu, contraintes sur leurs emprunts, variables sociodémographiques, etc.), mais au prix d’une complexité accrue. Plus on introduit de raffinements dans les hypothèses et de complexité dans la description des agents, plus il est nécessaire de  recourir aux mathématiques afin de s’assurer du caractère complet du raisonnement.
  • Troisièmement, l’enseignement de l’économie est souvent trop abstrait, tendance accentuée parfois par l’usage des mathématiques. Ce ne sont pas les mathématiques qui sont en cause, car l’enseignant est libre de choisir son mode de présentation. L’enseignement doit être compatible avec le savoir issu de la recherche, mais il ne doit pas forcément emprunter les mêmes stratégies de communication. Les manuels anglo-saxons au niveau licence sont de fait la plupart du temps peu friands de mathématiques. Cependant, il est souvent plus facile pour l’enseignant de relater des recherches sous leurs formes existantes que de les retranscrire de façon plus accessible.
  • Enfin, on reproche parfois à la communauté des chercheurs en économie une quête d’esthétisme trop poussée. Les mathématiques ne seraient plus un instrument, mais deviendraient une finalité, car leur utilisation pour construire des modèles élégants et solvables serait assimilée à un signal de qualité scientifique. Ce travers existe sans nul doute, mais il faut aussi se souvenir que, comme dans les autres disciplines scientifiques, les articles ingénieux, mais superficiels dans leur contenu, sont vite oubliés à moins qu’ils ne constituent une avancée méthodologique qui facilitera l’émergence de contributions plus appliquées.

 

III/ LA THÉORIE DES JEUX ET LA THÉORIE DE L’INFORMATION

La théorie des jeux et la théorie de l’information ont révolutionné tous les domaines de l’économie, où elles ont été beaucoup utilisées, de même qu’en biologie évolutionniste, en science politique, en droit, et de façon plus occasionnelle en sociologie, en psychologie et en histoire.

La théorie des jeux

La microéconomie moderne est fondée sur la théorie des jeux

  • qui représente et prédit les stratégies d’acteurs pourvus d’objectifs propres et en situation d’interdépendance
  • et la théorie de l’information – qui rend compte de l’utilisation stratégique d’informations privilégiées par ces mêmes acteurs.

La théorie des jeux permet de conceptualiser les choix de stratégie par des acteurs dans des situations où leur intérêt diverge. À ce titre, la théorie des jeux a pour sujet non seulement l’économie, mais aussi les sciences sociales dans leur ensemble et s’applique aussi bien à la politique, au droit, à la sociologie et même (comme nous le verrons plus tard) à la psychologie. Elle fut initialement développée par des mathématiciens : le Français Emile Borel en 1921 et les Américains John von Neumann (dans un article publié en 1928, puis dans un livre écrit avec Oskar Morgenstern et publié en 1944) et John Nash[8] (dans un article paru en 1950). Les développements plus récents sont souvent motivés par les applications aux sciences sociales, et sont en grande majorité dus à des économistes (certains de ces développements sont aussi dus à des biologistes ou à des mathématiciens cependant).

–Du comportement individuel au comportement collectif

Une spécificité des sciences sociales et humaines est l’importance des anticipations, et en particulier de la compréhension de la façon dont l’environnement de l’agent va évoluer et réagir à ses décisions : pour savoir comment jouer, un acteur doit anticiper ce que feront les autres acteurs. Ces anticipations sont rationnelles si l’acteur comprend bien les incitations des autres et leur stratégie, au moins « en moyenne ». On dit que les stratégies sont alors en          « équilibre » (parfois appelé « équilibre de Nash », qui en 1950 développa la théorie générale de ces équilibres). Cette compréhension du comportement vraisemblable des autres peut résulter soit du raisonnement (l’acteur « se met dans la peau des autres » et réfléchit au comportement qu’il adopterait s’il était à leur place) ou, si le jeu est familier, de l’extrapolation des comportements passés.

Une personne qui ne laisse pas son porte-monnaie ou son vélo sans surveillance dans la rue, ou un piéton qui ne traverse pas au passage piéton dans un pays où les automobilistes ne respectent pas les droits des piétons résolvent des problèmes élémentaires de théorie des jeux, dans la mesure où ils anticipent correctement le comportement vraisemblable des autres. L’exemple du passage piéton illustre aussi la possibilité d’équilibres multiples : un automobiliste qui ne ralentit pas à proximité d’un passage piéton ne subit pas de coût (autre que psychique) à se comporter ainsi si les piétons ne traversent pas quand une voiture approche, et ces derniers, effectivement, n’ont pas intérêt à traverser...Inversement, l’automobiliste qui anticipe que le piéton traversera quand sa voiture approchera a intérêt à ralentir, et le piéton pourra traverser s’il s’attend à un comportement civilisé des automobilistes.

Tel M. Jourdain faisant de la prose, nous sommes sans le savoir tous des experts en théorie des jeux, car nous participons chaque jour à des centaines ou des milliers de « jeux » : nous sommes impliqués dans des situations dans lesquelles nous devons anticiper le comportement des autres, y compris leurs réactions à notre propre comportement. Bien sûr, nous sommes beaucoup plus experts dans certains jeux que nous jouons de façon répétée tout au long de notre vie (par exemple, ceux associés aux relations interpersonnelles et sociales), que dans d’autres qui ne se présentent que de façon occasionnelle : ainsi, peu de personnes conçoivent la première fois la bonne stratégie à adopter dans une enchère où chacun a de l’information privée sur la valeur de l’objet mis aux enchères (par exemple, un gisement minier ou les actions d’une entreprise faisant son introduction en bourse) ; la plupart des gens, contrairement aux professionnels, tendent à enchérir de façon trop optimiste car ils omettent de se « mettre dans la peau » des autres acquéreurs potentiels et de comprendre que ces derniers enchériront peu quand ils auront de mauvaises nouvelles (on appelle ce phénomène la « malédiction du gagnant », parce que l’on a tendance à gagner l’enchère précisément quand l’objet a peu de valeur).

Le choix d’un comportement dépend souvent de ce que font les autres. Si les autres automobilistes ou utilisateurs du métro partent au travail à 8 heures du matin, j’ai peut-être intérêt à partir à 6 heures, même si cela est trop tôt de mon point de vue. En « équilibre », les flux se stabilisent de telle manière que chacun fait le bon arbitrage entre son horaire idéal et l’encombrement qu’il subira sur la route ou dans le métro. Dans de tels choix de déplacement, les acteurs cherchent à différencier leur comportement de celui des autres. Dans d’autres occasions, les acteurs font face à un problème de coordination et souhaiteraient se comporter en conformité avec les autres acteurs. Par exemple, si aucun de mes concitoyens ne paie ses PV, il y aura (malheureusement) un soutien politique fort à une amnistie lors de la prochaine présidentielle, ce qui réduit mon incitation à payer mes PV.

« Prévoir en moyenne » peut refléter le fait qu’un équilibre est parfois en « stratégie mixte » : un bon goal au football ne doit pas avoir la réputation de plonger plutôt à gauche ou plutôt à droite ou de rester au milieu au moment du penalty ; et de même pour celui qui tire le penalty. De fait, les études menées sur les professionnels (les amateurs sont plus prévisibles...) montrent bien que leurs comportements sont imprévisibles : un bon gardien, par exemple, a la même probabilité d’éviter le but (environ 25 %) pour chacune de ses trois options1. Une autre raison pour laquelle il peut être impossible de prédire parfaitement les actions des autres est que l’on n’a pas toute l’information les concernant : au mieux peut-on alors prédire leur comportement de façon conditionnelle : « dans telle circonstance, je ferais ceci à leur place. » Par exemple, dans le problème d’enchère mentionné précédemment, on peut prédire une enchère élevée (respectivement, faible) si l’autre reçoit de bonnes (respectivement, mauvaises) nouvelles quant à la valeur de l’objet mis aux enchères.    

Pour illustrer la puissance et les limites de la théorie des jeux, considérons la situation dite du « dilemme du prisonnier », un cadre stratégique qui permet d’analyser et de représenter de nombreuses situations conflictuelles. Son nom provient de l’analyse de la situation suivante : on suspecte que deux prisonniers ont commis ensemble un délit (ce qui est effectivement le cas) et on demande à ces deux prisonniers placés dans deux cellules séparées, d’avouer. Celui qui avoue bénéficie d’un traitement plus clément. Les deux prisonniers collectivement préféreraient que personne n’avoue, mais individuellement ils ont intérêt à avouer. En équilibre les deux avouent.

Figure 1. Le dilemme du prisonnier

 

             Joueur 2

 

C

       D

 

 

Joueur 1

 

C

(15), (15)

(0), (20)

D

(20), (0)

(5), (5)

 

Nous avons ici une situation très simple, décrite en figure 1, qui met en scène deux joueurs : le joueur 1 (en gras) et le joueur 2. Chacun a le choix entre deux actions :

  • la première consiste à coopérer avec l’autre joueur,
  • la seconde consiste à adopter un comportement déviant ou opportuniste.

Un comportement coopératif vis-à-vis de l’autre joueur est noté C, un comportement dévié par D. Dans chaque cas de la matrice des gains, le premier gain (en gras) est celui du joueur 1 et le second celui du joueur 2. Par exemple, si le joueur 1 coopère et le joueur 2 dévie, le joueur 1 n’a rien et le joueur 2 reçoit 20. Comme le montre la figure 1, le comportement déviant rapporte un gain supplémentaire de 5 à l’individu et fait perdre 15 à l’autre quel que soit le choix de l’autre.

Chacun des joueurs connaît l’ensemble des informations contenues dans la figure, mais il doit prendre sa décision sans observer la décision prise par l’autre. Comme on le voit bien dans la matrice des gains,

  • collectivement les deux joueurs ont intérêt à coopérer (i.e. jouer tous les deux C), puisque les gains obtenus sont de 15 chacun, soit un total de 30 qui est plus grand que n’importe laquelle des trois autres issues possibles du jeu (20 si les choix divergent, 10 si tous les deux dévient).
  • individuellement, par contre, ils ont intérêt à adopter un comportement opportuniste et l’équilibre du jeu est que chacun dévie et ne gagne que 5. En effet, le joueur 2 gagne toujours plus en jouant D, quoi que fasse le joueur 1 :

– si 1 choisit C, 2 gagne 20 avec le choix D contre 15 avec le choix C ;

– si 1 choisit D, 2 gagne 5 avec le choix D contre 0 avec le choix C. Et il en va de même pour le joueur 1.

Ce jeu est donc simple à analyser car il est à « stratégies dominantes », c’est-à-dire que pour prendre sa décision, un joueur n’a pas besoin d’anticiper ce que veut faire l’autre : que son adversaire choisisse C ou D, chaque joueur a intérêt à choisir la stratégie D.             

On en déduit que, placé face à cette situation de choix, tout individu rationnel devrait choisir la stratégie opportuniste. Pourtant, en pratique, dans des conditions d’expérimentation en laboratoire[9], on constate que tous les joueurs ne dévient pas : 15 à 25 % des joueurs choisissent la coopération. Le chapitre 5 revient sur ce phénomène, qui nous poussera à remettre en cause non pas la théorie des jeux, mais le postulat selon lequel les agents économiques se comportent de façon égoïste même face à des personnes auxquelles ils ne sont pas liés.

Malgré sa simplicité, le jeu du dilemme du prisonnier permet de représenter des situations d’affrontement stratégique très importantes. Ainsi, avant que le cartel de l’OPEP ne se constitue, chaque pays exportateur de pétrole avait intérêt à augmenter sa production (stratégie D), avec l’effet indésirable pour les autres pays exportateurs de faire baisser le prix, plutôt que de diminuer sa production et de coopérer ainsi avec les autres (stratégie C). La mise en place de quotas et d’un système de punitions en cas de dépassement des quotas a permis à l’OPEP d’augmenter les revenus de ses membres en les forçant à jouer C. Dans une situation de ce type, on comprend donc l’intérêt pour les joueurs (individus, entreprises ou États) de réaliser une entente, cimentée par un accord et des menaces de représailles destinées à prévenir le comportement déviant d’un des participants.

Ce jeu a aussi inspiré les programmes de clémence mis en place par les autorités de la concurrence pour lutter contre la formation de cartels. Ce programme, déjà ancien aux Etats-Unis, a été récemment introduit en Europe où il porte ses fruits. Il consiste à assurer une quasi-immunité à toute entreprise qui dévoile aux autorités de la concurrence l’existence d’une entente dont elle est membre et à punir les autres. Le programme permet donc de déstabiliser l’entente en recréant un dilemme du prisonnier là où l’accord interne entre les membres du cartel visait à le neutraliser.

Un autre exemple d’application du dilemme du prisonnier est offert par la lutte contre le réchauffement climatique. Individuellement, chaque pays a intérêt à ne pas réduire ses émissions de gaz à effet de serre dans l’atmosphère, mais les conséquences collectives de cette attitude égoïste sont désastreuses. Cette « tragédie des biens communs » décrite par Garrett Hardin dans un article publié en 1968 dans la revue Science explique l’échec des conférences de Kyoto, Copenhague, etc. Pour éviter cette tragédie, il faudrait signer un accord contraignant tous les pays à opter pour la stratégie C, mais en pratique c’est la stratégie D qui est jouée par tous.

– La dynamique des interactions

La théorie des jeux dynamiques s’articule sur l’idée que les décisions courantes d’un acteur auront un impact sur celles des autres acteurs à l’avenir, et donc que celui-ci doit comprendre quelle influence sa décision aura sur les stratégies futures des autres. Par exemple, un Etat qui travaille à une nouvelle législation ou régulation doit s’attendre à ce que les comportements des consommateurs ou des entreprises changent en réaction au nouveau contexte institutionnel ; à cette fin, l’Etat doit « se mettre dans la peau » des autres acteurs économiques et anticiper leurs comportements à venir. Le concept d’équilibre est alors appelé en jargon économique (pas particulièrement heureux ici) 1’« équilibre parfait ». Dans un équilibre parfait, chaque acteur est lucide quant aux conséquences de ses actes sur les comportements futurs des autres acteurs.

Souvent le comportement d’un acteur révèle aux autres de l’information que lui seul détient. Par exemple, un investisseur qui achète des actions dans une entreprise révèle que son information ou sa connaissance du contexte le rendent optimiste quant à la valeur de l’entreprise ; cette information tend à faire monter le cours de l’action de l’entreprise et par là même à réduire les gains de l’acheteur. En conséquence, les gros acquéreurs d’actions essaient d’acheter de façon discrète, en fractionnant leurs ordres d’achat ou en utilisant des intermédiaires. Un autre exemple est celui d’un ami ou d’un fournisseur qui se comporte de façon opportuniste et trahit ainsi la confiance placée en lui ; cet acte révèle de l’information sur la vraie personnalité de l’individu en question, qui en conséquence réfléchira à deux fois avant de mettre en danger sa réputation. De telles situations sont étudiées grâce au concept d’équilibre bayésien parfait, qui combine l’équilibre parfait avec un traitement rationnel de l’information, au sens de la loi de Bayes.

Le théorème de Bayes

Ce théorème est utilisé dans l’inférence statistique pour mettre à jour ou actualiser les estimations d’une probabilité ou d’un paramètre quelconque, à partir des observations et des lois de probabilité de ces observations. Il y a une version discrète et une version continue du théorème :

  • l’école bayésienne utilise les probabilités comme moyen de traduire numériquement un degré de connaissance (la théorie mathématique des probabilités n’oblige en effet nullement à associer celles-ci à des fréquences, qui n’en représentent qu’une application particulière résultant de la loi des grands nombres). Dans cette optique, le théorème de Bayes peut s’appliquer à toute proposition, quelle que soit la nature des variables et indépendamment de toute considération ontologique.
  • l’école fréquentiste utilise les propriétés de long terme de la loi des observations et ne considère pas de loi sur les paramètres, inconnus mais fixés.

LaRechercheEnEcoFig1.png

Le théorème de Bayes comme une superposition des deux arbres de décision

En théorie des probabilités, le théorème de Bayes énonce des probabilités conditionnelles : étant donné deux événements A et B, le théorème de Bayes permet de déterminer la probabilité de A sachant B, si l’on connaît les probabilités :

de A ;

de B ;

de B sachant A.

Pour aboutir au théorème de Bayes, on part d’une des définitions de la probabilité conditionnelle :

P(A│B) P(B) = P(A∩B = P(B│A) P(A)

{displaystyle P(Avert B)P(B)=P(Acap B)=P(Bvert A)P(A)}

en notant   P(A∩B {displaystyle P(Acap B)} la probabilité que A et B aient tous les deux lieu. En divisant de part et d’autre par P(B), on obtient :

soit le théorème de Bayes.

Chaque terme du théorème de Bayes a une dénomination usuelle.

Le terme P(A) est la probabilité a priori de A. Elle est « antérieure » au sens qu’elle précède toute information sur B

P(A) est aussi appelée la probabilité marginalede A.

Le terme P(A|B) est appelé la probabilité a posteriori de A sachant B (ou encore de A sous condition B) . Elle est « postérieure », au sens qu’elle dépend directement de B.

Le terme P(B|A), pour un B connu, est appelé la fonction de vraisemblance de A.

De même, le terme P(B) est appelé la probabilité marginale ou a priori de B.

Ce théorème élémentaire (originellement nommé « de probabilité des causes ») a des applications considérables.

Ces considérations ont été prises en compte par Jean Tirole et l’ont conduit à la formulation de la théorie de l’information.

 

La théorie de l’information

Le deuxième cadre unificateur de l’économie moderne est la théorie de l’information, appelée aussi théorie des incitations, théorie des contrats, théorie du signal ou encore théorie du principal-agent, selon l’application qui en est faite. Cette théorie s’articule sur le rôle stratégique des informations privées que possèdent les décideurs. Une bonne compréhension des relations humaines ou économiques nécessite en effet de prendre en compte le fait que les acteurs n’ont pas la même information et de plus utilisent leur information privée pour parvenir à leurs fins.

La théorie de l’information, développée par Arrow (prix Nobel 1972), Akerlof, Spence, Stiglitz (tous trois prix Nobel 2001), Mirrlees et Vickrey (prix Nobel 1996), Hurwicz, Maskin et Myerson (qui ont partagé le prix Nobel 2007), Holmstrôm, Laffont et Milgrom entre autres, est construite sur deux concepts de base :

L’aléa moral renvoie au fait que les comportements d’un agent peuvent ne pas être observables par la partie contractante affectée par le comportement de l’agent (le « principal » dans le langage des économistes) ou par une cour de justice qui doit faire respecter les termes du contrat en cas de litige. Prenons par exemple un contrat de type métayage entre un             « principal » ou « mandant » (le propriétaire) et un « agent » ou « mandataire » (le fermier). Le fermier peut ne pas porter suffisamment d’attention au choix de la récolte ou au timing de l’ensemencement, ne pas déployer suffisamment d’effort afin d’obtenir une récolte abondante et de qualité et s’adonner à d’autres activités : on dit en ce cas qu’il est possible qu’il y ait un « aléa moral » de la part du fermier, c’est-à-dire un aléa sur le revenu tiré de la récolte qui ne vient pas de causes exogènes (par exemple un aléa climatique ou venant de la demande), mais du comportement de l’agent, lui- même conditionné par ses incitations. Étant donné que le principal ne peut observer l’effort exercé par l’agent (ou le prouver devant une cour de justice si cet effort est insuffisant) et sachant que le résultat final dépend non seulement de cet effort mais aussi d’événements que l’agent ne contrôle pas, qui, du principal ou de l’agent, devrait supporter le risque inhérent à l’activité ?

Le métayage est un bail rural dans lequel un propriétaire, le bailleur, confie à un métayer le soin de cultiver une terre en échange d’une partie de la récolte. Un bail à moitié, dans lequel le fermier verse la moitié de sa récolte au propriétaire, « responsabilise moins », « est moins incitatif à l’effort » qu’un bail à ferme, dans lequel le fermier verse une somme fixe (un loyer) au propriétaire et perçoit donc pleinement le fruit de sa récolte. Le bail le moins incitatif est celui où le fermier reçoit un salaire fixe et donc n’est pas sensibilisé au résultat de son effort. Le bail à ferme fait porter tout le risque au fermier, y compris les aléas climatiques ou autres aléas dont il n’est pas responsable, et s’avère coûteux pour ce dernier s’il a de l’aversion pour le risque[10] et est donc désireux de recevoir un revenu prévisible. Si en revanche le risque de revenu ne fait pas peur au fermier, alors le bail à ferme est optimal, car le fermier sera alors pleinement responsabilisé pour son effort et en choisira par conséquent le niveau adéquat, alors qu’il fera trop peu d’effort quand tout ou partie du risque est supporté par le propriétaire.

L’antisélection (aussi appelée sélection adverse) renvoie à la possibilité que l’agent dispose d’information privée au moment de la signature du contrat entre les deux parties. Pour reprendre l’exemple du métayage, seul le fermier peut connaître sa disponibilité pour travailler sur ces terres, son aptitude à la tâche ou son goût de l’effort. Inversement, le propriétaire peut avoir de l’information privée sur la qualité des terres, etc.

L’antisélection affecte les contrats car elle amène une suspicion quant à leurs conséquences. Pour illustrer cette idée, supposons que le propriétaire sache si ses terres sont fertiles ou non, mais que le fermier ne dispose pas de cette information. Même si ce dernier ne craint pas le risque de revenu et que donc le bail à ferme serait a priori optimal, il accueillera une proposition de bail à ferme de la part du propriétaire avec une certaine suspicion : il se dira que le propriétaire cherche à se débarrasser du risque parce que ses terres sont en réalité peu productives ; il pourra alors demander que le propriétaire partage le revenu, afin de l’amener à « prouver » que ce n’est pas le cas.

On voit immédiatement que ce cadre d’analyse des institutions en termes d’aléa moral et d’antisélection est applicable aussi à la régulation des industries de réseau ou à la régulation bancaire (le régulateur dispose d’une information imparfaite sur la technologie de l’entreprise, sur son effort pour réduire ses coûts ou sur le risque exact du portefeuille de la banque), à la gouvernance et au financement des entreprises (les actionnaires, les créanciers et les autres parties prenantes étant imparfaitement informés sur les choix du management ou sur leurs conséquences), à la sociologie des organisations (où les divisons ou ateliers gardent stratégiquement l’information pour leurs propres fins), etc.

Les développements de la théorie de l’information au cours des trois dernières décennies ont permis de dégager des principes essentiels pour la conception des mécanismes de négociation et des mécanismes de contrôle. À la lumière de ces principes, on peut, par exemple, énoncer quelques règles simples qui devraient présider à la conception et à l’exécution de tout contrat. Ainsi, la partie qui rédige le contrat doit accepter l’idée que si l’autre partie possède un avantage informationnel, il faudra lui abandonner quelques avantages pour lui faire révéler cette information.

De même, un contrat doit être robuste de deux manières ; il doit être d’une part uniquement fondé sur des éléments techniques, comptables ou comportementaux observables et vérifiables, une idée qui joue un rôle important dans nos analyses des politiques de l’emploi ou de lutte contre le réchauffement climatique. Il doit d’autre part être fondé sur un ensemble de récompenses et de punitions crédibles ; en l’absence de tels mécanismes d’incitations, il doit faire l’objet d’une relation suivie entre les deux parties, dans laquelle la répétition de comportements opportunistes par une partie crée des suspicions chez l’autre partie et mène à l’interruption de cette relation de confiance et de coopération. Le contrat doit aussi être conçu dans une perspective dynamique, notamment parce que, pendant la durée du contrat, certains événements non prévisibles à la signature (et peut-être seulement observables par une des parties) surviendront inéluctablement. Il faut donc prévoir des modalités de renégociation, voire d’interruption, notamment des règles de calcul des indemnités.

Ces exemples ne constituent qu’une brève introduction à la théorie de l’information, mais ils montrent bien l’importance accordée à la rationalité des acteurs, qui cherchent à manipuler à leur profit l’asymétrie d’information dont souffrent les autres acteurs.

 

IV/ LES CONTRIBUTIONS MÉTHODOLOGIQUES

Dans beaucoup de disciplines scientifiques, des travaux en amont du processus de recherche permettent le développement de techniques pouvant être utilisées plus en aval. C’est le cas de l’économie. De nombreux travaux n’ont pas toujours en vue une application, un problème économique précis à résoudre. Ils peuvent porter aussi sur des aspects méthodologiques, sans application directe mais permettant à d’autres travaux théoriques de pouvoir modéliser certains phénomènes ou fournissant à des travaux empiriques un cadre conceptuel.

Par exemple, les économètres adaptent la statistique ou construisent leurs propres techniques afin de permettre aux économistes appliqués de pouvoir mesurer avec plus de précision les phénomènes économiques et d’attribuer une causalité (une variable influence-t-elle une autre ou est-elle simplement corrélée avec elle ?), condition sine qua non d’applicabilité de l’analyse empirique à la politique publique. De même, les théoriciens peuvent travailler sur des cadres sans application directe. Les remarques qui suivent sont à la fois très abstraites et un tantinet nombrilistes (car elles décrivent l’objet des propres recherches de Jean Tirole, qui n’ont pour objet que de faire percevoir au lecteur la diversité des travaux d’un chercheur en économie).

Les travaux de Jean Tirole en théorie des jeux pure ont porté sur les jeux dynamiques, c’est-à-dire des situations conflictuelles qui se déroulent dans le temps et où les acteurs (les « joueurs ») réagissent aux choix passés des autres joueurs. Tout d’abord, en définissant (avec Eric Maskin, le directeur de thèse de Jean Tirole au MIT, aujourd’hui professeur à Harvard) la notion d’« équilibre de Markov parfait » ; selon cette notion, pour n’importe quel jeu évoluant au cours du temps peut être identifié de façon non ambiguë un « résumé » du passé (appelé « variable d’état ») pouvant conditionner les stratégies futures. Ce résumé synthétisant à chaque instant l’histoire du jeu jusqu’à cet instant décrive ce que les joueurs ont besoin de savoir sur l’impact des stratégies à venir sur les gains futurs des joueurs. Par exemple, dans un marché oligopolistique, le niveau actuel des capacités de production des entreprises peut, si le mode et le timing d’acquisition de ces capacités ne sont pas pertinents, résumer le passé de l’industrie. Cette notion est très utilisée dans les travaux dits de l’économie industrielle structurelle, qui est désormais l’approche dominante en économie industrielle empirique : la notion d’équilibre de Markov parfait est aujourd’hui utilisée de façon routinière par les économètres qui tentent d’analyser et de mesurer les comportements dynamiques d’entreprises en concurrence les unes avec les autres.

Avec Drew Fudenberg, aujourd’hui professeur au MIT, Jean Tirole a affiné la notion d’« équilibre bayésien parfait[11] ». Ce concept combine la notion d’équilibre bayésien, qui permet d’étudier des jeux en information asymétrique, et la notion d’équilibre parfait, qui décrit les équilibres dans un contexte dynamique. Toujours avec Drew Fudenberg, il a défini une méthodologie pour étudier les jeux de préemption (ou plus généralement les jeux où la stratégie des acteurs consiste à choisir le moment d’agir) en temps continu. 

Par ailleurs, les travaux en théorie pure des contrats ont consisté à étendre le cadre d’analyse de celle-ci dans quatre directions :

  • La dynamique.

Une relation contractuelle est souvent répétée. De plus, elle peut être renégociée au cours de son exécution. Les travaux de Jean Tirole avec Jean-Jacques Laffont, Oliver Hart, Drew Fudenberg (ainsi que des travaux antérieurs avec Roger Guesnerie et Xavier Freixas) sur le sujet ont développé une vision dynamique et évolutive des contrats. Par exemple, dans un contexte d’antisélection (où l’agent possède de l’information que le principal n’a pas), la performance de l’agent révèle de l’information sur ses caractéristiques ou celles de son environnement (la difficulté de sa tâche, son talent, son goût de l’effort...) et influe sur les contrats futurs. Le propriétaire qui observe une récolte abondante devine que ses terres sont fertiles ou que le fermier est efficace. Il aura alors tendance à offrir des contrats plus exigeants à l’avenir ; par exemple, il exigera un prix plus élevé dans un contrat de type bail à ferme ou fixera des objectifs de récolte plus ambitieux. Anticipé, cet « effet de cliquet » incitera le fermier à réduire son effort (ou à cacher une partie de sa récolte !).

  • Les hiérarchies.

Les contrats impliquent souvent plus que deux parties (un principal et un agent). Par exemple, dans un contrat de bail à moitié, où le propriétaire et le fermier reçoivent chacun la moitié de la récolte, le propriétaire peut déléguer à un intermédiaire la mesure/surveillance de la récolte. En fait, de tels intermédiaires sont présents partout dans l’économie : intermédiaires financiers (banques, fonds de placement, capital risqueur, etc.), contremaîtres et dirigeants d’établissement, régulateurs, etc. Qui dit multiplicité d’acteurs dit possibilité de collusion entre un sous-ensemble de ces acteurs et les autres membres de l’organisation. La recherche de Jean Tirole a consisté à lier cette menace de collusion au sein de « cliques » (pour utiliser le langage de la sociologie) à la structure d’information (sa répartition au sein de l’organisation) et à étudier les conséquences de la menace de collusion pour la conception des organisations.

  • La théorie dite du principal informé.

Ces travaux (en collaboration avec Eric Maskin) ont fourni des outils conceptuels pour modéliser le choix de contrat offert à un agent par un principal possédant de  l’information non détenue par l’agent. Par exemple, un entrepreneur (le principal) levant des fonds sur les marchés financiers peut soit avoir un réel besoin de liquidités pour financer un bon projet, soit être désireux de réaliser une partie de ses actifs avant que de mauvaises nouvelles concernant l’entreprise n’apparaissent sur la place publique. La quantité émise ainsi que son mode (actions, obligations, etc.) seront interprétés comme des signaux par les investisseurs (les agents).

  • L’organisation interne des entreprises et de l’État.

Avec Mathias Dewatripont (de l’Université libre de Bruxelles), Jean Tirole a analysé les façons de structurer les organisations pour y créer plus de responsabilisation ; ainsi, il a montré comment une procédure adversariale, qui fait intervenir des avocats pour des causes opposées (par opposition à des acteurs plus neutres), peut aider un juge ou plus généralement un décideur neutre à obtenir plus d’information, et cela malgré le fait que ces avocats tairont l’information qui est défavorable à leur cause. Il a aussi examiné les missions qui peuvent être confiées au sein de l’État et montré quand des missions spécifiques et claires peuvent l’emporter sur une approche plus englobante (« qui trop embrasse mal étreint »).

Ce chapitre s’est attelé à présenter les traits principaux de la recherche en économie : les allers-retours entre théorie et empirique, ceux entre recherche méthodologique et recherche appliquée, les modes d’évaluation des contributions, le débat scientifique et le consensus nécessairement fluctuant à mesure que la compréhension progresse, et le rôle des mathématiques et des nouveaux outils conceptuels. Comme dans toute science, l’avancement de l’état des connaissances en économie va de pair avec une spécialisation des chercheurs, parfois une balkanisation, car il devient de plus en plus difficile de maîtriser les différentes approches, les différents domaines et les différents outils. Pourtant, la transversalité reste source importante de progrès de la connaissance, au sein de la discipline économique aussi bien qu’entre disciplines des sciences humaines et sociales.

 


[1] Extraits du livre de Jean Tirole, « Economie du Bien commun », Paris, Puf, mai 2016, p. 142-164.

[2] Isaiah Berlin, The Hedgehog and the Fox, An Essai On Tolstoy’sView of History , Londres, Weidenfeld & Nicolso, 1953. 

[3] Tetlock utilise l’analyse factorielle. Des exemples de questions sont : « Pensez-vous que l’erreur la plus commune dans le jugement des situations est d’exagérer la complexité du monde ? » ou « Pensez-vous qu’une erreur classique dans la décision est d’abandonner une bonne idée trop vite ? ». Des réponses positives à ces deux questions signalent un style cognitif du hérisson.

[4] Avocats de la non-intervention de l’État sauf pour fournir des tribunaux permettant aussi aux acteurs économiques  de contracter à leur guise, et pour assurer l’ordre et la défense, protégeant ainsi le droit de propriété.

[5] Un groupe de mathématiciens français de talent (dont cinq médailles Fields) se réunit de 1934 à 1968 pour publier des traités (publiés sous le nom de Bourbaki) reconstruisant les mathématiques de façon plus rigoureuse, abstraite et unifiée.

[6] Robert Solow, « A Contribution to the Theory of Economie Growth », Quarterly Journal of Economies, 1956, vol. 70, n° 1, p. 65-94 (traduction de l’auteur).

[7] Dani Rodrik, « Why We Use Math in Economies », Dani Rodrik1 s Weblog, 4 septembre 2007 (traduction de l’auteur).

[8] Nash, prix Nobel 1994, décédé accidentellement en mai 2015.

[9] Une précision importante : les expériences en laboratoire sont le plus souvent construites de façon à respecter l’anonymat ; les choix individuels sont faits sur ordinateur ; par exemple, si le choix de comportement déviant dans le dilemme du prisonnier, la personne contre qui je joue enregistrera sa perte mais ne saura pas de qui elle vient (l’expérimentateur en principe non plus). Dans le monde réel, les agents économiques font preuve de générosité, mais moins que dans les laboratoires.   

[10] Une personne est averse au risque si elle préfère un revenu certain à un revenu équivalent en moyenne mais aléatoire (par exemple recevoir 20 plutôt que 30 avec probabilité 30% et 10 avec probabilité 50%). Plus la personne a de l’aversion pour le risque, plus elle demandera que le contrat transfère le risque de revenu au principal.

[11]  Définie par les chercheurs de Stanford David Kreps et Bob Wilson.

 


Date de création : 02/10/2016 @ 12:35
Dernière modification : 02/10/2016 @ 12:43
Catégorie : Economie
Page lue 877 fois


Réactions à cet article

Personne n'a encore laissé de commentaire.
Soyez donc le premier !


^ Haut ^