mercredi 23 novembre 2022

«Il arrive souvent que l’opinion hâtive ploie d’un côté faux, et ensuite l’affection lie l’entendement.»

 

Le biais de confirmation.

Biais cognitif qui consiste à privilégier les informations confirmant ses idées préconçues.

Par exemple, les personnes à qui on demande « Êtes-vous satisfait de votre vie sociale ? » rapportent une plus grande satisfaction que ceux interrogés avec « Êtes-vous insatisfait de votre vie sociale ? »

Durant l'Antiquité, l'historien grec Thucydide (v. 460-v. 395 av. J.-C.) écrit dans " Histoire de la guerre du Péloponnèse. ":

« C'est une habitude de l'humanité [...] d'utiliser la raison souveraine d'écarter de côté ce qu'ils ne peuvent se figurer. »

Dans " La Divine Comédie. " (1307-1321), du poète italien Dante Alighieri, le personnage de Saint Thomas d'Aquin met en garde Dante quand ils se rencontrent au Paradis :

« il arrive souvent que l’opinion hâtive ploie d’un côté faux, et ensuite l’affection lie l’entendement. »

Le philosophe et scientifique anglais Francis Bacon soutient que l'évaluation biaisée des éléments de preuve a conduit à « toutes les superstitions, que ce soit dans l'astrologie, les rêves, les présages, les jugements divins ou choses similaires ». Bacon écrit ainsi dans " Le novum organum. " (1620) :

« Une fois que la compréhension humaine a adopté une opinion (...) elle aborde toutes les autres choses pour la supporter et soutenir. Et bien qu'il puisse être trouvé des éléments en nombre ou importance dans l'autre sens, ces éléments sont encore négligés ou méprisés, ou bien grâce à quelques distinctions mis de côté ou rejetés. »

Dans " Pensées sur la comète. " (1683), texte critiquant la superstition et la tradition, le philosophe français Pierre Bayle (1647-1706) aborde le biais de confirmation et son explication par le désir :

« Là dessus ils ne consultent pas tant l'Histoire pour savoir si leur persuasion est véritable, que pour trouver qu'elle est veritable : & on ne sauroit dire l'illusion que cela fait aux sens & au jugement. En effet il arrive de là qu'on observe beaucoup mieux les faits que l'on desire de trouver, que les autres, & que l'on grossit ou que l'on diminue la qualité des evenemens selon la preoccupation. »

Dans son essai " Qu'est-ce que l'art ? ", l'écrivain russe Léon Tolstoï (1828-1910), écrit :

« Je sais que la plupart des hommes — non seulement ceux qui sont considérés intelligents, mais même ceux qui sont très intelligents et capables de comprendre les plus difficiles problèmes scientifiques, mathématiques ou philosophiques — peuvent très rarement discerner la vérité même la plus simple et évidente, s'il faut pour cela qu'ils admettent la fausseté des conclusions qu'ils ont formées, et peut-être avec encore plus de difficulté, les conclusions dont ils sont fiers, qu'ils ont enseigné à d'autres, et sur lesquelles ils ont construit leur vie. »

Dans une première expérience, les sujets devaient évaluer une autre personne sur les dimensions d'introversion et extraversion d'une personnalité, sur la base d'une entrevue. Ils ont choisi les questions d'entrevue à partir d'une liste donnée.

 Lorsque la personne interrogée a été présentée comme un introverti, les sujets ont choisi des questions qui présument de l'introversion, telles que « Qu'est-ce que vous trouvez désagréable dans les fêtes bruyantes ? »

 Lorsque la personne interrogée a été préalablement décrite comme extravertie, presque toutes les questions présumaient de l'extraversion, telles que « Que feriez-vous pour animer une fête ennuyeuse ? ». 

Ces questions chargées donnèrent peu ou bien aucune opportunité aux personnes interrogées pour infirmer les hypothèses à leur propos. Toutefois, dans une version plus récente de cette expérience, il fut proposé aux sujets de choisir des questions moins présomptives, telles que « Avez-vous peur des interactions sociales ? ». 

Les sujets préférèrent poser ces genres de questions diagnostiques (oui/non), démontrant seulement un faible biais pour les tests positifs. Ce modèle d'une préférence principale pour des tests diagnostics, et une faible préférence pour des tests positifs, a été reproduit dans d'autres études.

Les explications de motivation impliquent un effet du désir sur la croyance, parfois appelée « pensée magique ». 

Il est connu que les individus préfèrent les pensées agréables à celles désagréables dans un certain nombre de manières. Des explications en termes d'analyse coût-bénéfice supposent que les individus ne se contentent pas de tester les hypothèses d'une façon désintéressée, mais plutôt en évaluant le coût des différentes erreurs. En reprenant les idées de la psychologie évolutionniste, Jacques Friedrich suggère que les individus ne visent pas principalement à la vérité dans les tests d'hypothèses, mais plutôt à éviter les erreurs les plus coûteuses. Yaacov Trope et Akiva Liberman complètent cette théorie en prétendant que les individus comparent les deux types d'erreur : accepter une hypothèse fausse ou rejeter une hypothèse vraie.

 Par exemple, quelqu'un qui sous-estime l'honnêteté d'un ami pourrait le traiter avec méfiance et ainsi sous-estimer l'amitié. En revanche une surestimation de l'honnêteté de l'ami serait moins coûteuse. Dans ce cas, il serait rationnel de chercher, évaluer ou se souvenir des preuves d'honnêteté d'une manière biaisée.

 Quand quelqu'un donne en première impression celle d'être introverti ou extraverti, des questions qui correspondent à cette impression apparaissent comme plus empathiques. Ceci suggère qu'en parlant à quelqu'un qui semble introverti, il est un signe de meilleures compétences sociales de demander : « Vous sentez vous mal à l'aise dans des situations sociales ? » plutôt que « Aimez-vous les fêtes bruyantes ? ».

Dans la finance

Le biais de confirmation peut amener les investisseurs à être trop confiants, en ignorant les indices que leur stratégie les conduit à des pertes. Dans des études sur les marchés financiers liés aux résultats d'élections, les investisseurs firent de plus importants bénéfices quand ils résistèrent à ce biais.

 Par exemple, les participants qui interprétèrent, de manière neutre plutôt que partisane, la prestation d'un candidat lors d'un débat, étaient plus susceptibles de faire des profits.

Pour lutter contre l'effet de biais de confirmation, les investisseurs peuvent essayer d'adopter un point de vue contraire « pour les besoins de l'argumentation ». Une telle technique consiste à imaginer l'effondrement de leurs investissements, et s'interroger alors sur les motifs de cet effondrement.

En politique et en droit

Nickerson fait valoir que le raisonnement dans des contextes juridiques et politiques est parfois inconsciemment biaisé, favorisant les conclusions identiques à celles déjà faites par les juges, jurés ou gouvernements.

 Puisque les preuves dans un procès devant jury peuvent être complexes, et puisque les jurés prennent souvent leur décision au sujet du verdict dès le début du procès, il est raisonnable de s'attendre à un effet de polarisation d'attitude. 

La prédiction, de jurés devenant plus extrêmes dans leurs opinions en étant confrontés à des preuves plus nombreuses, a été confirmée dans des expériences avec des simulacres de procès. 

Parce qu'ils ne garantissent pas que les opinions concurrentes soient diffusées, la procédure inquisitoire de la justice pénale peut être plus faussée par le biais de confirmation que la procédure accusatoire.

Le biais de confirmation peut être un élément dans la création ou l'extension de conflits ; des débats chargés émotionnellement jusqu'aux guerres.

 En interprétant la preuve en leur faveur, chaque partie adverse peut devenir trop confiante dans l'idée qu'elle est dans la meilleure position. D'autre part, le préjugé de confirmation peut amener les gens à ignorer ou mal interpréter les signes d'un conflit imminent ou naissant. 

Par exemple, les psychologues Stuart Sutherland et Thomas Kida ont chacun fait valoir que l'amiral américain Husband Kimmel a montré un biais de confirmation en sous-estimant les premiers signes de l'attaque de Pearl Harbor.

Une étude des politologues sur deux décennies, par Philip E. Tetlock, démontre que, dans l'ensemble, leurs prédictions ne furent guère plus correctes que le pur hasard. 

Tetlock divisa ces experts entre les « renards » soutenant de multiples hypothèses, et les « hérissons » plus dogmatiques. En général, les prévisions des hérissons furent beaucoup moins exactes. 

Tetlock expliqua leur échec par le biais de confirmation, et en particulier, leur incapacité à utiliser les nouvelles informations qui contredisaient leurs précédentes théories.

Une personne croyant en l'existence de phénomènes paranormaux aura tendance à sélectionner des informations qui confirmerait leur existence plutôt que des données prouvant le contraire. 

De la même façon, une personne adhérant à des principes pseudo-scientifiques aura tendance — contrairement au sceptique — à mettre de côté l'absence de preuve ou les critiques scientifiquement fondées, et à chercher des confirmations de ses croyances.

Pour combattre cette tendance, la formation scientifique enseigne des moyens d'éviter ou limiter ce biais.

 La conception des protocoles et plan d'expériences implique ainsi la répartition au hasard et les essais en double aveugle, de même que le processus social d'évaluation par les pairs est pensé pour atténuer l'effet des préjugés individuels des scientifiques, même s'il a été soutenu qu'un tel biais pouvait jouer un rôle dans ce processus d'évaluation.




 

Quelle est la différence entre un optimiste et un pessimiste ?

L'optimiste pense que l'on vit dans le meilleur des mondes possibles.
Le pessimiste pense que malheureusement c'est vrai.