Biais cognitifs (2/3)

Citons quelques expériences pour mieux visualiser ces règles :

biais de confirmation

Bienvenue au Gandhi quizz ! si on commence par demander est-ce que Gandhi avait plus ou moins de 9 ans avant de mourir, ou plus ou moins de 140 ans avant de mourir, puis qu’on demande l’âge de sa mort, cela va créer un ancrage sur lequel on va évaluer notre réponse. Dans la première version les gens estiment en moyenne 50 ans, dans la seconde 67. On peut s’amuser à faire des variantes en construisant un nombre à partir de son numéro de téléphone ou des résultats du loto, le résultat est le même. Et bien entendu si on demande aux personnes si le premier chiffre a influencé leur pari, la réponse est non.

Si on demande à des personnes d’imaginer des symptômes de maladie imaginaire, et qu’ensuite on demande aux personnes d’estimer le risque de contracter ces maladies, il apparait que les résultats seront différents d’un groupe témoin auquel on aura pas présenté les symptômes. Dans le cas où l’on aura présenté des symptômes simplement imaginables, cela augmente le risque ressenti. Dans le cas où les symptômes n’arrivent pas à être facilement représentés, cela diminue la perception du risque. Bref, ce n’est pas le fait d’imaginer quelque chose qui influe sur notre perception, c’est la simplicité ou difficulté de s’imaginer les choses qui compte…

Prenons un film qui a probablement été chroniqué par odieux connard pour son remarquable scénario…. The day after tomorrow. Globalement tout le monde s’accordera à dire pour n’importe quel film à grand spectacle que le scénario n’a pas d’importance, que ce n’est pas grave qu’un film ne repose pas sur un fait scientifique, parce que cela n’est que du cinéma. C’est rassurant : les personnes s’expriment rationnellement avec le système 2, et prennent du recul. Néanmoins, si l’on fait une étude statistique auprès de personnes après qu’elles aient regardé ce film, on se rendra compte qu’en moyenne les personnes évalueront de manière plus probables des risques tels que présents dans le film (villes inondées, pénuries alimentaires, nouvel âge glaciaire…). Notre cerveau des anciens temps, sans dire un mot, est bien présent.

Pour en revenir au risque, Slovic dans les années 70 a conduit des expériences sur la perception du risque nucléaire. Il a eu des écarts très divergents entre les spécialistes et le grand public. Les spécialistes calculent ainsi : risque = probabilité * conséquences. Deux éléments qui sont perçus de manière très différentes par tout un chacun, comme nous l’avons vu précédemment. Qui plus est quand on demande aux personnes d’évaluer le fait qu’elles se soient trompées sur leur évaluations de certains éléments, nous avons tendance à sous évaluer les erreurs de notre « intuition »…. Les travaux de Slovic ont montré que par exemple ce n’était pas le nombre de morts potentiels qui était pris en compte pour évaluer les risques mais d’autres facteurs : la catastrophisme (plein de personnes touchées en une fois, plutôt que régulièrement dans le temps), la nouveauté (ce qui est nouveau nous fait plus peur), la compréhension (si on pense comprendre quelque chose cela nous fait moins peur), le contrôle (on se préoccupe plus quand on a pas le contrôle comme dans un avion que lorsqu’on considère qu’on a le contrôle comme dans une voiture), le timing (une menace imminente parait plus grave qu’une à venir)…. L’intérêt au final d’une telle liste est limitée, compte tenu que notre pensée viscérale est inconsciente, c’est une boite noire à nous même, et que lorsque l’on pose la question de pourquoi nous ressentons les choses ainsi, on s’adresse à la pensée rationnelle. La réalité c’est que nous ne savons pas pourquoi : est-ce qu’on applique la liste d’évaluation des risques de Slovic, est-ce que cela a été mixé avec une rationalisation du ressenti lié à cette liste inconsciente ? Une réponse objective serait de dire « je ne sais pas pourquoi je ressens cela » mais notre cerveau est un rationalisateur compulsif, si il n’a pas de réponse il en fabriquera une.

Cela a été étudié avec les expériences de cerveau partagé de Gazzaniga, en utilisant des drogues qui séparaient l’activité des deux hémisphères. Dans une des versions de l’expérience on donne des ordres par écrit à une personne, comme par exemple se lever et marcher, et on demande à l’oral pourquoi la personne marche, ce dont la partie du cerveau à qui l’on pose la question n’a aucune idée, alors l’hémisphère gauche raconte rapidement une histoire : je vais me chercher une boisson, et bien entendu la personne est convaincue de ce qu’elle dit.

Si on demande à une personne comment elle évalue un risque sur un sujet (par exemple le nucléaire), son argumentaire sera probablement le reflet de ses sentiments. Et si on demande à une personne pourquoi elle a ce sentiment il y a de fortes chances que la réponse soit une rationalisation conscience d’un jugement inconscient.

Quelqu’en soit son origine, notamment peut être un aspect moral inné, la recherche d’un coupable est un élément fondamental à notre réaction d’un risque. Imaginons un gaz qui tue 20 000 personnes par an en Europe. Imaginons, que ce gaz soit produit par une industrie et soit clairement identifié, quelle serait votre réaction ? Maintenant appelons ce gaz le radon, un gaz radioactif présent dans la nature…. Et maintenant faisons un sondage sur la dangerosité du radon et des déchets nucléaires. La nature tue, mais la nature n’est pas blâmable et donc notre perception du risque est déformée.

Autre « principe » de fonctionnement inconscient : la règle des choses bonnes ou mauvaises (Good- Bad rule). Pour la pensée viscérale, si une chose est perçue comme mauvaise, alors son risque est élevé. Si une chose est perçue comme bonne, alors elle est sans danger (à appliquer à la perception du risque lié aux déchets des centrales nucléaires vs le risque d’attraper un cancer de la peau en allant bronzer au soleil, ou encore à la consommation de tabac). Et la première chose que fait notre cerveau confronté à une nouvelle chose c’est d’évaluer si elle est bonne ou mauvaise….

La compréhension de certains mécanismes très bas niveau de notre esprit sont également utilisés aujourd’hui par les communicants, en effet, une exposition répétée à quelque chose crée un sentiment positif (principe de familiarité amenant l’appréciation).

D’autres psychologues ont mis en avant des comportements très intéressants, comme le principe de conservatisme (Barberis, Shleifer et Vishny, 1998), je cite :

les agents ont tendance à sous-évaluer les fortes probabilités et à surévaluer les faibles probabilités. Dans le cas du conservatisme, c’est plutôt un défaut de représentativité qui semble caractériser la formation des croyances.
D’une certaine manière, le conservatisme revient à sous pondérer les informations nouvelles. Il peut résulter d’un phénomène d’ancrage dans lequel le point d’ancrage est surpondéré et corrélativement, l’information nouvelle sous-pondérée. Mais le conservatisme peut naître également d’un souci d’estime de soi : dans un environnement stable, les sujets seront plus réfractaires à reconnaître leurs erreurs, d’où un conservatisme des croyances. 

Concernant l’esprit de conformité (ou de consensus, cf Robert Baron & Joseph Vandello, & expériences de Asch & Crutchfield), des expériences ont été mises en place où tout le monde était de mèche sauf une personne interviewée. Dans une situation où le sujet savait que tout le monde faisait erreur sur des tests simples, il y avait tout de même un tiers des personnes qui se conformaient au jugement d’autrui…. Et plus le jugement devient compliqué, et que des personnes influentes sont unies et confiantes, plus le taux de conformité augmente. Dans des expériences où il n’y a pas de bonne réponse, 79% des participants se conforment à la décision du groupe… Une fois que l’on en arrive là, alors que nous venons de voir la faiblesse sur laquelle repose notre opinion, nous n’allons pourtant pas la réviser facilement, arrive à ce moment le biais de confirmation. Nous allons rechercher des informations confirmant nos croyances et rejeter ou sous évaluer les informations les infirmant.

Notons également les expériences de conformité menées par Gregory Berns (2005) sous IRM, qui ont montré que dans ce cas de figure les zones du cerveau affectées étaient plutôt celles de la perception que celles de décision consciente. En résumé cette expérience tendrait à montrer que l’exposition au point de vue d’un groupe tendrait à influencer notre perception. D’autres expériences sous IRM ont montré que lorsqu’on a des informations contraires à nos croyances, elles ne sont pas traitées par les mêmes zones du cerveau que des informations neutres ou renforçant nos croyances. Le biais de confirmation est écrit au plus profond de nous même…

Cerise sur le gâteau, le biais de polarisation. Une fois que l’on a une idée, le fait de la partager avec un groupe partageant cette idée, au lieu de moyenner et pondérer notre position nous pousse à avoir un sentiment encore plus extrême sur cette idée.

Dernier sujet avant la fin de cet article, les mathématiques. L’homo sapiens est anuméré (illettré pour les chiffres et les concepts mathématiques). Ms Peters a fait passé une série de simples tests à l’université comme celui-ci : La chance de gagner une voiture est de une pour mille. Quel pourcentage de ticket gagne une voiture? Seulement 46% de bonnes réponses… à l’université… pour mieux visualiser cela, disons qu’une personne remplit un stade avec 30 000 personnes. C’est beaucoup. Disons maintenant qu’il y a 90 000 personnes. Cela reste beaucoup dans notre perception, pas 3 fois beaucoup…. Nous aimons les histoires, nos ancêtres s’en racontaient au coin du feu, cela permettait de partager l’expérience comme si nous l’avions vécu. Nous sommes fait pour les histoires et non les chiffres. Pire encore, les statistiques nous « parlent » moins que les chiffres. Ce problème, couplé par exemple à du journalisme de fainéant, fait qu’il est simple de parler d’une anecdote, cela va tout de suite attirer notre attention, et sans analyse, même si elle n’est pas statistiquement représentative ou pire qu’il n’y a aucune causalité dans des faits juxtaposés, avec notre règle par l’exemple cela biaisera notre représentation de la situation. Une anecdote n’est pas une donnée. Staline l’avait bien compris : une mort est une tragédie, un million une statistique.

 [suite]

Laisser un commentaire