mercredi 1 avril 2015

Illusion de connaissance et confiance en soi

"L'ennui en ce monde, c'est que les imbéciles sont sûrs d'eux et les gens sensés plein de doute" (Bertrand Russell)

Dans l'article précédent, j'ai montré comment nous avons naturellement tendance à sous-estimer la complexité du monde. Non contents de simplifier outrageusement des questions qui ne relèvent absolument pas du "bon sens", de l'évidence ou de l'intuition, nous avons également tendance à sur-estimer le niveau de confiance que nous avons en nos intuitions.

C'est dans le monde professionnel que les exemples du biais de simplification sont les plus flagrants. Nous avons tous pu entendre des phrases qui commencent par "Il n'y a qu'à" (faire ceci ou cela) ou "Faut qu'on" (fasse ceci ou cela), ou "Il suffit de". C'est même devenu un gimmick du monde du travail.


En général, on associe ce gimmick à des managers, des financiers, des entrepreneurs ou des hommes politiques, mais inutile de se faire d'illusions, personne n'y échappe, puisque c'est le mode de fonctionnement normal de notre cerveau.

Chez les financiers, on trouve, par exemple, ceux qui croient en la délocalisation (un salaire indien est plus faible qu'un salaire d'un employé français donc "y'a qu'à embaucher des indiens"). Ce faisant, ils ignorent tout l'écosystème de l'entreprise, les frottements entropiques de la synchronisation intercontinentale, le décalage horaire, la communication longue distance et interculturelle, etc. bref tous les coûts cachés. Ce mode de pensée nous semble risible tellement il est simpliste, mais il est pourtant courant chez des gens ayant un niveau d'éducation et d'expertise dans leur domaine plutôt élevé.

Par exemple, les directeurs financiers (des grandes entreprises américaines) pensent qu'ils sont bien placés pour prédire l'évolution de l'indice Standard & Poor's de l'année suivante avec un bon niveau de confiance. Pourtant, une étude de l'université de Duke portant sur 11600 de ces prédictions montre clairement que non seulement ce n'est pas le cas (le niveau de corrélation entre leurs prédictions et la réalité est légèrement négatif!), et qu'en outre ils sous-estiment gravement leur marge d'erreur. (1)

L'histoire du crash de la navette "Challenger" constitue également un excellent exemple de l'illusion de connaissance, du biais d'idéalisation et de surestimation de taux de confiance (2): une étude montre qu'une des causes du crash (mais évidemment pas la seule) provient du fait que les managers demandèrent aux ingénieurs de fournir la preuve que la température, froide le jour du décollage, inférieure à celle des tests, posait un problème sur les joints (ceux qui sont à l'origine du crash).

Les ingénieurs ne purent évidemment pas apporter cette preuve, puisqu'ils n'avaient pas mené les tests à ces températures. Les managers ont associé la non-preuve de problème avec la preuve de non-problème.
Une annexe de la commission d'enquête, menée par le physicien Richard Feynman, relève que l'estimation de probabilité d'une défaillance de la fusée était de 1 pour 100 chez les ingénieurs, alors qu'elle était de 1 pour 100 000 chez les managers, ce qui est une probabilité irréaliste pour le lancement d'une fusée.
Ce niveau de confiance exagéré a joué un rôle dans la demande des managers aux ingénieurs de fournir une preuve de risque, ce que Christian Morel illustre par la remarque suivante: si j'ai un doute quant à la fraîcheur d'une mayonnaise, j'aurais tendance à la jeter, mais si j'ai toute confiance en la fraîcheur de la mayonnaise, je vous demanderai de m'apporter la preuve qu'elle n'est pas bonne.

Les ingénieurs ne sont pas exempts du biais d'idéalisation : s'ils n'avaient pas mené les tests à ces températures, c'est parce que le centre de lancement est situé en Floride et que les ingénieurs de l'entreprise qui a conçu les joints (Morton Thiokol, entreprise située dans l'Utah), supposant qu'il faisait toujours chaud en Floride (un cliché grossier et d'ailleurs erroné), ne prirent pas la peine de faire des tests à moins de 12°C (il suffit pourtant de consulter les relevés météorologiques). Ils avaient associé le cliché de la Floride à la réalité de la Floride.

Une expérience de psychologie menée par Philippe Tetlock sur 284 "experts", dont la profession est de commenter et donner des conseils sur les tendances politiques et économiques, a montré que, sur 80 000 prédictions, celles-ci étaient aussi bonnes que s'ils avaient assigné des probabilités équivalentes à chaque événement. Autrement dit, elles ne valaient pas mieux que le pur hasard. De plus, il a noté que ces "experts" faisaient généralement preuve d'une confiance en eux irréaliste, c'est à dire qu'ils sont plus sûr d'eux, et du coup, moins fiables que des non-spécialistes qui assortissent leur prédictions d'un niveau de confiance moins élevé. Autrement dit, les experts sont souvent plus sûrs d'eux, mais pas meilleurs que des non-spécialistes, notamment dans les domaines économiques, sociaux ou politiques.

Le principal biais des experts ou des "spécialistes" provient du fait qu'ils se focalisent sur le domaine qu'ils connaissent le mieux (leur spécialité), et sous-estiment totalement les domaines adjacents, qu'ils connaissent moins bien (ce que ne fait pas un "généraliste").

Ce biais s'appelle la "dépendance au domaine" (3) et s'illustre parfaitement dans les réponses qu'ils font à Tetlock, lorsqu'il leur démontre qu'ils se sont trompés : D'après eux, s'ils se sont trompés c'est parce qu'un événement "imprévisible" est intervenu.
L'événement "imprévisible" pour eux, ne l'était pas forcément pour un autre expert du domaine adjacent ou pour quelqu'un qui serait plus "généraliste"...
En définitive, l'expert sait beaucoup de choses mais moins que ce qu'il croit savoir, surtout dans des domaines ou la complexité est telle qu'elle conduit inévitablement à la segmentation du savoir.

Cette dépendance au domaine, cette focalisation sur ce qu'on maîtrise s'illustre également chez les créateurs d'entreprise. Une étude menée aux USA a montré que la plupart des créateurs d'entreprises sous-estiment grandement les facteurs externes comme cause d’échec (par exemple la probabilité de se faire doubler par une autre entreprise dans le même domaine, ou la probabilité d’un changement de comportement des utilisateurs ou la probabilité d’émergence d’une nouvelle technologie qui révolutionne le marché).

Un autre exemple de taux de confiance irréaliste est celui des médecins. Une étude menée sur des patients morts aux urgences a comparé les résultats d'autopsie et les diagnostics des médecins quand les patients étaient encore vivants. Les médecins qui étaient "tout à fait certains" de leur diagnostic avant la mort avaient tort dans 40% des cas. (1)
Le comportement des médecins est évidement renforcé par la pression sociale: que penseraient les patients d'un médecin qui n'a pas l'air sûr de lui et qui avoue que son diagnostic vaut à peine mieux que le hasard?

Pour couronner le tout, nos modèles cognitifs simplistes et la confiance que nous leur accordons se renforcent s'ils sont confirmés par une personne qui nous fait une "bonne" impression. Par exemple, si je vous trouve beau, ce que vous direz me paraîtra plus vrai que si vous êtes moche. Ca me paraîtra également plus vrai si vous êtes un "expert" et si vous avez l'air sûr de vous. Autrement dit, les gens beaux, sûrs d'eux et experts d'un domaine sont plus crédibles que les autres, mais pas nécessairement plus fiables et potentiellement plus dangereux, car ils ont tendance à surestimer leur niveau de connaissance et nous aussi.

Sources:
(1) "Système 1/Système 2" - Daniel Kahneman
(2) "Les décisions absurdes" - Christian Morel
(3) "Antifragile" - Nassim Nicholas Taleb

12 commentaires:

  1. Je suis d'accord avec tout ça (et notamment la phrase de Russell).
    Je kiffe grave ton "les frottements entropiques de la synchronisation intercontinentale" (novlangue jubilatoire).
    Mais les biais de simplification, d'idéalisation, d'optimisme et de dépendance au domaine, dont tu listes parfaitement quelques exemples de méfaits, ne sont-ils pas des traits sélectionnés par l'évolution car GLOBALEMENT positifs ?
    En effet, si l'on ne simplifie pas ou n'idéalise pas, n'est-on pas voué à la paralysie ? N'est-on pas tenté de baisser les bras en se disant "trop complexe, je bougerai quand j'aurai tout compris ?". On prend du paracetamol depuis des décennies et on a élucidé le mécanisme il y a un ou 2 ans. Et encore j'ai lu à midi qu'une étude montrerait qu'il réduit la palette et l'ampleur des émotions !!! Les équations de Navier-Stokes ont plus de 200 ans et ne sont pas résolues. Et pourtant on utilise des modèles simplifiées pour évaluer la turbulence des fluides sans quoi on ne ferai pas voler un avion ou on ne construirait pas de barrage. Ne sont-ce pas des biais qui nous permettent d'avancer dans un monde infiniment complexe ?
    Idem pour les médecins. Imagine que tu vas en consultation avec une douleur terrible. Le toubib pense que c'est une appendicite mais te dis "c'est très complexe, on va faire une étude sur 6 mois pour voir ce qu'il en est ...".
    Idem pour la dépendance au domaine. Là encore, s'il faut être un minimum expert dans tous les domaines liés à une décision, on ne fait jamais rien (autant dire plus la peine d'élire des députés ou présidents !!!).
    Ce qui n'empêche pas, certes, de garder à l'esprit nos faiblesses et doutes ... mais pas trop ! :)

    RépondreSupprimer
  2. Tout à fait d'accord, ces "biais" sont aussi des avantages dans certains cas (et notamment dans les cas ou les conséquences ne sont que pour soi-même)
    La psychologie expérimentale a montré que les gens pessimistes ou peu sûr d'eux passent moins souvent à l'action que les autres, qu'il faut souvent une certaine dose d'inconscience et une grosse confiance en soi pour devenir entrepreneur par exemple.
    Les psychologues ont également mis à jour notre tendance naturelle à l'inaction lorsque nous sommes indécis ou souffrants d'un manque de confiance en nous-même.
    Or, il arrive parfois que l'inaction soit la plus mauvaise des décisions possibles.

    Mais la plupart du temps, notre nature nous pousse davantage à l'action et à l'adaptation, c'est à dire à l'expérimentation permanente, ce qui est une bonne chose lorsque les conséquences néfastes de nos actions sont minimes.
    Cela devient plus problématique, lorsque les conséquences néfastes d'une action sont plus importantes, comme lorsqu'il s'agit du crash d'un avion, de pratiquer une opération chirurgicale sur un patient ou de délocaliser l'activité d'une entreprise.

    Le problème que cela soulève est que les même qualités qui poussent quelqu'un à devenir entrepreneur, médecin ou pilote d'avion (une grosse confiance en soi et une tendance à agir sans trop écouter) peuvent devenir problématique dans certains contextes.
    Par exemple, un jeune entrepreneur très sûr de lui peut monter une entreprise florissante mais échouer à la faire grossir à cause d'un excès de confiance en lui (accompagnée parfois d'une défiance envers les autres).
    Un pilote d'avion, "expert", fortement expérimenté et très sûr de lui, pourra ignorer les signaux ou conseils de son copilote ou de son équipage (qui auraient pu le sauver dans une situation de crise).
    Un chirurgien pourra parfois être sourd aux signaux transmis par le patient ou les infirmières et foirer une opération.

    C'est pourquoi les équipages d'avion sont désormais formés aux "facteurs humains", c'est à dire tout bonnement à prêter attention aux signaux, respecter et écouter ceux qui les entourent.

    Certains hôpitaux américains, s'inspirant de cet exemple, dispensent ce genre de formation à tous leurs chirurgiens.

    A mon avis, il ne serait pas inutile que tous les chefs d'entreprises et financiers de la planète suivent également ces formations.

    En effet, l'évolution a fait de l'homme un animal "biaisé" au niveau individuel (dans certains contextes), mais également un animal "social", ce qui lui permet de compenser ses penchants naturels individuels, par un comportement social adapté.

    RépondreSupprimer
    Réponses
    1. Ce qui est bien avec vous deux c'est que vous formez souvent un binôme : thèse/antithèse et la synthèse qui en découle...

      Supprimer
    2. En fait, c'est pas tout à fait vrai. On est d'accord sur 90% des choses je pense ;) Mais on aime bien outrer nos points de vue pour faire avancer les choses et mieux nous retrouver après sur un point de vue un peu mieux bâti ... un trinôme est le bienvenu!!

      Supprimer
  3. Effectivement, pour reprendre le pb de l'aviation, il y a un gros travail sur le CRM (Cockpit Resources Management). Dans les années 90, Korean Air avait un très mauvais track record d'accidents. C'était du au rapport hiérarchique disproportionné entre le commandant de bord (CDB) et le copil. Ceci était du :
    - à une très forte culture hiérarchique dans la culture coréenne
    - au fait (qu'on retrouve dans de nombreux pays) que de nombreux CDB soient d'anciens pilote de chasse ce qui leur confère un prestige certain
    Résultat : dans un crash en décollage d'Heathrow (fret, 3 morts), le copil a vu que le CDB envoyait l'avion au tas mais n'a rien osé dire !!!
    Le CRM encourage donc :
    - le copil a donner son point de vue divergent s'il existe, de façon courtoise de manière à ne pas froisser le CDB
    - le CDB doit écouter et prendre en compte le copil
    - le CDB doit ensuite trancher rapidement et le copil ne pas remettre en cause l'ordre
    Donc il n'y a pas abolition de la hiérarchie mais nécessité de prendre en compte les avis extérieurs. Pour les délocalisations, le facteur temps est un peu moins critique mais c'est la même chose. Un CEO ou un président doivent savoir "consulter" mais aussi "trancher". Consulter uniquement ne marche pas (non non je ne vise personne). Décider seul non plus. La hiérarchie soit bien être présente dans la prise de décision mais le décideur doit écouter les avis en ayant un esprit "ouvert" (c'est-à-dire être prêt à ce que son intuition initiale soit infléchie ou démentie). C'est subtil et pas évident en pratique !!!
    Je lis en ce moment un livre sur Hitler et comment il a réussi à entraîner le peuple allemand. C'est assez paradoxal car justement Hitler était l'antithèse de ça : personne ne pouvait le faire changer d'avis et il n'écoutait JAMAIS ses subordonnés. Mais ce "travers" a aussi fait de lui un "leader charismatique" (dont on attend assez peu, à l'instar d'un Messie, qu'il change d'avis à l'écoute d'un simple mortel). Et certaines de ses actions, déconseillées par ses généraux (attaque de la France, Anschluss, Sudetes, Pologne) ont magistralement réussi ce qui a assis son autorité ! Quand il a voulu attaquer l'URSS, tout le monde pensait que c'était de la folie. En même temps, ils se sont dit "il a eu raison contre nous les autres fois". C'est un peu le syndrome du créateur de start-up dont tu parles face à la crise de croissance : pas évident de contredire un type qui a réussi à la force du poignet à créer sa boîte et à la faire grossir (alors que souvent tout le monde prédisait l'échec ....)

    RépondreSupprimer
  4. Tout à fait subtil et pas du tout évident à mettre en pratique en effet.
    Mais je n'en dis pas plus, tu es en train de spoiler un de mes prochain posts, tu as même deviné le titre sans t'en rendre compte :)

    RépondreSupprimer
  5. Au sujet de ma novlangue, je n'ai pu m'empêcher de placer le mot "entropique "dans un blog dont c'était la vocation première d'élucider l'entropie. ;)
    Quoique toute la saison 1 de ce blog consistait justement à démontrer la valeur positive de l'entropie, ce n'est pas le cas ici, puisque j'ai pris le sens usuel plutôt connoté négativement.

    RépondreSupprimer
  6. Mmhh...les frottements entropiques de la synchronisation intercontinentale...et comme les frottements génèrent de la chaleur, nous avons enfin l'explication du réchauffement climatique ! Merci.
    Je publie ou bien je ne publie pas ? J'ai un doute.

    RépondreSupprimer
    Réponses
    1. Je n'y avait pas pensé mais tu as raison: en plus, ça diminuerait le réchauffement climatique!

      Supprimer