Dans d’autres articles, je vous ai abondamment parlé des distorsions cognitives et de la manière dont elles forgent de fausses croyances.
Dans cet article, je vais vous fournir de nombreux exemples des manières sont ces distorsions cognitives s’expriment au quotidien.
Cela vous aidera à rester attentifs et à les surveiller pour éviter qu’elles ne mettent votre bien-être en péril !
William James, celui que plusieurs considèrent comme l’un des plus importants fondateurs de la psychologie moderne, avait d’excellentes idées sur la formation des croyances et de leurs travers…
À la fin du XIXe siècle, dans son ouvrage intitulé La volonté de croire (dont voici la version complète en format numérique), il suggère que certaines croyances ne reposent en rien sur des connaissances réelles mais sont plutôt constituées de profonds besoins.
J’ajouterais que d’autres croyances se fondent sur des habitudes.
C’est le champ tumultueux des croyances humaines que nous allons maintenant aborder, terrain de choix où se manifestent les distorsions cognitives.
Voyons ensemble les différentes manières dont nous élaborons nos fausses croyances…
Les explications trop rapides ou exagérées et les superstitions
Comment évaluons-nous les situations de tous les jours ?
Pourquoi soutenons-nous des conclusions erronées même lorsque de nombreuses preuves les contredisent ?
Eh bien, c’est, entre autres raisons, parce que nous ne considérons pas ces preuves comme des preuves.
En fait, c’est parce nous ne les trouvons pas assez plausibles pour remplacer nos croyances…
Kahneman et ses collègues1 ont étudié ce phénomène à travers une autre heuristique, celle de la « disponibilité » (je présente l’heuristique de représentativité ici).
Une heuristique est un ensemble de moyens habituellement efficaces qui nous aident à évaluer les événements et à trouver des solutions.
Cette stratégie, liée au fonctionnement de la mémoire, nous fait évaluer la validité des choses et des événements en fonction du nombre d’exemples du même genre dont nous nous souvenons.
Avec cette heuristique, nous considérons quelque chose plausible ou pas selon le nombre de fois où nous y avons été confrontés, selon nos expériences et selon la disponibilité des souvenirs en mémoire.
En d’autres mots, plus nous vivons souvent un type d’événement, plus nous nous en souvenons facilement.
Cette information est disponible et nous trouvons qu’elle correspond bien à la réalité.
Par exemple, si nous nous interrogeons au sujet du nombre de couples heureux ou malheureux dans la société et que la plupart des gens que nous connaissons collectionnent les échecs sur le plan amoureux, nous pourrons tirer la conclusion que notre époque éprouve de graves problèmes en matière de relations amoureuses.
Ce mode d’évaluation procède à la distorsion cognitive de généralisation.
C’est la même chose qui se passe dans notre tête quand il y a un écrasement d’avion.
Étant donné que les médias font leurs choux gras de ce genre de catastrophe et en parlent sans arrêt, nous considérons plus plausible que le prochain avion que nous prendrons s’écrase à son tour !
À cette croyance s’ajoute aussi l’intensité des émotions qui accompagnent un pareil drame.
J’ai un ami qui n’avait jamais pris l’avion de sa vie et n’a pas dormi de la nuit avant son premier voyage tant il était terrorisé.
Pourtant, les risques de mourir en prenant la voiture sont beaucoup plus élevés…
De la même manière, plus le scénario que nous imaginons est désagréable, plus nous croyons à la possibilité qu’il survienne.
Comme avec la répétition de l’information par les médias, plus nous pensons souvent au même sujet, plus nous activons les mêmes structures neuronales (qui gèrent la mémoire) et plus nous croyons qu’il est plausible que les événements redoutés se produisent.
Les informations sont devenues trop disponibles. Mais ça ne signifie pas qu’elles sont devenues plus plausibles !
Ce phénomène contribue même au développement de troubles psychologiques liés aux phobies et aux obsessions.
Vous avez bien compris.
Le fonctionnement de notre cerveau, dans certains contextes, et particulièrement chez les personnes anxieuses, peut conduire à des troubles psychologiques.
Certains auteurs expliquent en détail ces processus et proposent des méthodes pour les traiter2.
Nous évaluons donc les informations à partir de leur disponibilité en mémoire.
Nous entretenons donc nos croyances par « degrés », selon l’accès aux informations dont nous disposons.
Nous classifions ainsi continuellement le monde, nous catégorisons spontanément les connaissances dont nous disposons pour comprendre.
Mais dans sa grande complexité, le monde, justement, n’a pas toujours de signification précise…
La superstition d’un joueur de hockey…
Un jour, j’ai entendu en entrevue un joueur de hockey expliquer comment, après une partie où il avait compté plusieurs buts, il avait mis au point une « stratégie » pour renouveler son exploit.
Il s’est rappelé d’abord tout ce qu’il avait fait avant la partie: l’heure à laquelle il était arrivé, ce qu’il avait fait au vestiaire, la façon dont il avait enroulé le ruban protecteur sur son bâton, etc.
Son plan a consisté ensuite à répéter ces actions comme si leur combinaison avait influencé positivement le nombre de buts qu’il avait compté.
Le premier problème dans cette croyance, c’est que le joueur de hockey a identifié l’origine de son succès dans la suite des événements.
Il s’agit de la distorsion du faux rapport de cause à effet.
Si vous avez lu mon article qui aborde cette distorsion, vous savez que ce n’est nécessairement pas parce que des événements en précèdent d’autres qu’ils en sont la cause…
Le second problème, c’est qu’il n’a considéré que cette explication comme plausible.
Il aurait pu évoquer ses performances personnelles durant la partie ou penser à une multitude d’autres facteurs impossibles à mesurer, comme son interaction avec les autres joueurs.
Les différentes superstitions procèdent exactement de cette manière.
Elles illustrent bien notre tendance à interpréter les événements par séquences, même lorsque les conclusions paraissent alambiquées, voire complètement farfelues !
Malheureusement, les explications douteuses ne sont pas toujours aussi inoffensives.
Dans son livre intitulé How we know what isn’t so, Thomas Gilovich3 cite l’exemple d’une jeune fille morte de malnutrition à cause des cures de jus que lui imposait son père pour la guérir d’une maladie incurable.
En voulant aider sa fille, ce sont les croyances de son père et la malnutrition qui l’ont tuée plus vite, et non la maladie qu’il voulait guérir…
Chez une personne bornée à certaines croyances qu’elle ne réévalue pas, aucun argument ni aucune nouvelle information n’arrive à les lui faire modifier.
Dans ce contexte, il y a une perte de bien-être puisque cette personne ne se permet pas de vérifier si ses informations sont justes, ce qui lui causera plusieurs problèmes…
D’où l’avantage de développer notre esprit critique !
L’objet sur lequel porte la valeur explicative de nos croyances peut également varier, être trop complexe ou avoir été mal compris la première fois.
Je n’affirme pas ici que tout se vaut et je ne vous suggère pas non plus de changer d’avis suivant l’opinion du premier venu.
Par contre, je crois que nous gagnons à évaluer la validité de nos croyances afin de les remplacer au besoin.
Cette analyse de nos croyances ne se soldera par un remplacement de la croyance que si nous débouchons sur de nouvelles conclusions plus plausibles et mieux étoffées.
C’est là qu’un réel problème survient: comment définir les critères qui assurent la validité de nos croyances ?
Si ce problème reste carrément insoluble dans certains cas (lorsque nous évaluons ce qui n’est pas tangible, comme le « monde des esprits »), nous pouvons au moins valoriser ce que l’analyse et l’expérience mettent en lumière.
Les données scientifiques de plusieurs disciplines, comme la nutrition, la médecine et la biochimie, prouvent hors de tout doute que le jus de fruits seul ne fournit pas les nutriments nécessaires à la survie d’une personne.
Il y a affaiblissement progressif jusqu’à l’échéance fatidique.
Dans cet exemple, la mort de la jeune fille semblera suffisante (j’espère !) pour déterminer que la croyance de son père était fausse4 !
Nous pouvons toujours être victimes de distorsions cognitives…
Les informations parfois superficielles qui soutiennent nos croyances, ce que nous identifions comme des causes, tout cela n’entretient parfois aucun rapport avec ce que nous observons et que nous essayons de comprendre.
De plus, nous oublions souvent qu’une multitude d’informations dont nous ne disposons pas peuvent aussi les expliquer.
Pour éviter de conclure trop vite, nous devons savoir que des effets complexes ne possèdent par toujours des causes complexes.
Nous pouvons ainsi développer une vision plus « chaotique » de notre environnement.
Selon la théorie du chaos, les battements d’ailes d’un papillon en Indonésie contribuent à la formation des cyclones en Floride5.
Donnons-nous donc la chance d’analyser un peu plus minutieusement les événements avant de conclure…
La recherche des informations qui confirment nos hypothèses et l’ignorance de celles qui les contredisent
Nous avons malheureusement tous tendance à faire ce que ce dernier sous-titre mentionne.
Rechercher des informations qui contredisent ce que nous croyons relève de l’exploit, de la discipline martiale, sinon du miracle !
Car il est très difficile de réviser nos croyances, même quand elles sont biaisées ou complètement fausses.
On peut s’entraîner à le faire, mais ça reste difficile à accomplir.
Pourtant, comme j’en parle depuis plusieurs articles qui présentent le contenu de mon Petit traité antidéprime, notre bien-être et notre développement personnel dépendent beaucoup de la validité de nos croyances et de nos conclusions…
Nous avons donc tout avantage à y travailler !
Une histoire de croyance…
Dans les années soixante, deux psychologues, Robert Rosenthal et Lenore Jacobson6, ont tenté une expérience astucieuse.
Ils ont laissé croire à des enseignants que certains de leurs élèves manifesteraient une augmentation substantielle de leur quotient intellectuel (QI) au cours de l’année scolaire.
À mesure que les semaines ont passé, ô miracle, cette prophétie s’est réalisée !
Mais le prodige ne provenait aucunement de la subite amélioration des facultés mentales des enfants…
Les psychologues avaient orienté l’attention des enseignants vers une hypothèse précise.
Puisqu’ils s’attendaient à une augmentation des performances et qu’ils étaient les seuls à évaluer les résultats, ils les ont eux-mêmes augmentés au cours de l’année !
Il s’agit de la distorsion cognitive de sélection d’informations.
Son expression est multiple, particulièrement lorsque nous recherchons et interprétons les preuves reliées à nos croyances pour les confirmer.
Lorsque nous tentons d’expliquer ce que nous ne comprenons pas, il est rare que nous ne possédions pas déjà quelques suppositions sur le sujet.
Nous dirigeons ainsi notre attention sur ce à quoi nous nous attendons.
Par exemple, si nous évaluons le nombre de conflits survenus dans notre couple au cours du dernier mois, nous rechercherons les souvenirs des épisodes conflictuels.
En aucun cas nous ne nous concentrerons sur les occasions où il n’y en a pas eu…
Cette distorsion nous concentre souvent sur nos problèmes, nous fait surévaluer leur fréquence et occasionne beaucoup d’insatisfaction.
Pour illustrer encore notre tendance à la confirmation, il nous arrive de voir une relation claire entre un symptôme physique et une maladie.
Pourtant, si nous portons une attention inverse, nous constaterons que plusieurs personnes souffrent de la même maladie sans éprouver le symptôme auquel nous la relions !
C’est que nous recherchons les symptômes pour confirmer nos hypothèses.
Au lieu de tenir compte des éléments qui confirment et qui infirment nos hypothèses, ce qui nécessiterait plus de temps et d’énergie, notre cerveau forge des explications rapides seulement à partir des informations qui confirment nos croyances.
Pour des raisons d’économie, notre cerveau classe les informations nouvelles dans des catégories préétablies (nos stéréotypes) et nous nous attendons à ce qu’elles expliquent parfaitement bien les choses.
Nous recherchons donc seulement les preuves qui soutiennent nos croyances…
Souvenez-vous que les processus top-down influencent la manière dont nous « rangeons » nos observations du monde.
En regard du fonctionnement de notre cerveau, il est évident que nos expériences antérieures influencent l’attention que nous portons aux nouveaux événements.
Nous recherchons toujours ce que nous connaissons…
Ce mécanisme explique pourquoi nous essayons de confirmer nos hypothèses au lieu de les enrichir, de les compléter ou de chercher en quoi elles sont fausses.
Même si cette attention dirigée est habituellement utile, elle comporte des inconvénients très nocifs.
Prenons l’exemple d’Hélène, une femme qui s’attend continuellement à ce que les autres réagissent mal à son endroit.
Non seulement elle fera preuve d’une grande timidité pour éviter ces supposées réactions, mais ses attentes modifieront son interprétation du comportement des autres.
De cette façon, si Hélène dit quelque chose qui suscite de la surprise chez son interlocuteur, elle y verra peut-être du mépris.
Sa conclusion sera évidemment inexacte et la rendra malheureuse.
Bien sûr, toutes nos explications ne sont pas nécessairement fausses.
Je vous suggère seulement de porter une attention particulière à ces distorsions qui biaisent parfois votre point de vue.
Il nous est toujours possible de nous dégager un peu de nos attentes et de chercher plus d’informations avant de conclure.
Dans son livre, Gilovich7 cite un excellent exemple de cette tendance à confirmer nos hypothèses. Le voici:
Après avoir eu une mauvaise note à un examen, un étudiant formule l’hypothèse que les questions contenaient des pièges fort contestables. Il cherche alors des informations pour valider sa supposition.
Il essaie d’abord de se souvenir des questions truquées qui soutiendraient son hypothèse. S’il en trouve, il sera satisfait. Son hypothèse confirmée, il s’en tiendra là. S’il n’en trouve pas, il poursuivra ses recherches.
Cette fois, il interrogera peut-être un autre étudiant au sujet l’examen. Si l’étudiant croit, comme lui, que les questions étaient trompeuses, il se satisfera de cette « preuve ».
Sinon, il continuera tant et aussi longtemps qu’il n’aura pas validé son hypothèse. Le problème, c’est qu’il ne cherchera jamais les informations qui infirmeraient son hypothèse.
Comme cet étudiant, non seulement nous omettons de considérer d’autres explications, mais en plus nous laissons de côté celles qui réfuteraient nos attentes.
C’est ce que les chercheurs Klayman et Ha8 appellent la stratégie par tests positifs.
Pour toutes ces raisons, comme vous le voyez, vous gagnez à enrichir constamment votre point de vue, pour éviter les limites naturelles du cerveau et pour vivre avec des conclusions plus valides sur les autres, les événements, vous-mêmes, votre avenir, etc.
C’est ce qui vous aidera à entretenir un état de bien-être durable !
Si cet article vous a plu, sachez qu’il est tiré de mon livre Petit traité antidéprime. Vous pouvez vous le procurer en version ebook pour le lire en entier.
Références
- KAHNEMAN, D., P. Slovic and A. Tversky (1982), Judgment under uncertainty: Heuristics and biases, Cambridge, Cambridge University Press, 551 p.
- Voir par exemple T. D Borkovec, L. Wilkinson, R. Folensbee et C. Lerman (1983), « Stimulus control applications to the treatment of worry », dans Behaviour Research and Therapy, vol. 21, no 3, p. 247-251; ainsi que R. J. Morris (1980), « Fear reduction methods », dans F. H. Kanfer et A. P. Goldstein (dir.), Helping People Change, New York, Pergamon Press, p. 248-293.
- GILOVICH, T. (1991), How we know what isn’t so. The Fallibility of Human Reason in Everyday Life, New York, Free Press, 216 p.
- Pour plus de détails sur cette histoire, vous pouvez consulter R. M. Deutsch avec son ouvrage intitulé The New Nuts among the Berries: How Nutrition Nonsense Captured America (1977), Palo Alto, Bull Publishing Company, 359 p.
- GLEICK, J. (1991), La théorie du chaos. Vers une nouvelle science, Paris, Flammarion, 431 p.
- ROSENTHAL, R. and L. Jacobson (1968), Pygmalion in the classroom: Teacher expectation and pupils’ intellectual development, New York, Holt, Rinehart and Winston, 240 p.
- Même réféence qu’à la note 3, p. 82.
- KLAYMAN, J. and Y. HA (1987), «Confirmation, disconfirmation, and information in hypothesis testing», in Psychological Review, vol. 94, p. 211-228.
Laisser un commentaire