Share icon
Français Languages icon

Comment les faits se retournent contre nous

Des chercheurs découvrent une menace surprenante pour la réalité : notre cerveau

21/8/2010

Il est rare que les « faits » aient réellement de l’importance pour ceux qui recherchent le confort ou la conformité. Incroyable. Quelle espèce étrange et souvent faible que l’espèce humaine.

(Par Joe Keohane, 11 juillet 2010)

L’une des grandes hypothèses est qu’une population informée est préférable à une population désinformée. « Lorsque le peuple est bien informé, on peut lui faire confiance », écrivait Thomas Jefferson en 1789. Cette idée, transmise au fil des ans, est à la base de tout, des modestes pamphlets aux débats en passant par la notion même de liberté de la presse. L’humanité est peut-être un morceau de bois tordu, comme le disait Kant, particulièrement sensible à l’ignorance et à la désinformation, mais tout le monde croit que la connaissance est le meilleur remède. Si les gens disposent des faits, ils penseront plus clairement et seront meilleurs. S’ils sont ignorants, les faits les éclaireront. S’ils se trompent, les faits les remettront dans le droit chemin.

Au final, la vérité l’emportera. N’est-ce pas ?

Peut-être pas. Récemment, quelques politologues ont commencé à découvrir une tendance humaine profondément décourageante pour quiconque croit au pouvoir de l’information. C’est la suivante : les faits n’ont pas nécessairement le pouvoir de changer nos opinions. En fait, c’est plutôt le contraire. Dans une série d’études menées en 2005 et 2006, des chercheurs de l’université du Michigan ont découvert que lorsque des personnes mal informées, en particulier des partisans politiques, étaient exposées à des faits corrigés dans des articles d’actualité, elles changeaient rarement d’avis. En fait, elles devenaient souvent encore plus fermes dans leurs convictions. Ils ont constaté que les faits ne remédiaient pas à la désinformation. À l’instar d’un antibiotique trop faible, les faits pouvaient en réalité rendre la désinformation encore plus forte.

En présence d’informations correctes, ces personnes réagissent très différemment de celles qui sont simplement mal informées. Au lieu de changer d’avis pour refléter les informations correctes, elles peuvent se retrancher encore plus profondément dans leurs convictions.

« L’idée générale est qu’il est absolument menaçant d’admettre que l’on a tort », explique Brendan Nyhan, politologue et chercheur principal de l’étude du Michigan. Ce phénomène - connu sous le nom de « retour de flamme » - est « un mécanisme de défense naturel qui permet d’éviter cette dissonance cognitive ».

Ces conclusions relancent un débat de longue date sur l’ignorance des citoyens Américains à l’égard de questions plus larges concernant l’interaction entre la nature de l’intelligence humaine et nos idéaux. La plupart d’entre nous aimons croire que nos opinions se sont forgées au fil du temps, après une réflexion minutieuse et rationnelle sur des faits et des idées, et que les décisions fondées sur ces opinions sont donc empreintes de bon sens et d’intelligence. En réalité, nous basons souvent nos opinions sur nos croyances, qui peuvent être en contradiction avec les faits. Et plutôt que d’être guidées par les faits, nos croyances peuvent dicter les faits que nous choisissons d’accepter. Elles peuvent nous amener à déformer les faits afin qu’ils correspondent mieux à nos idées préconçues. Pire encore, elles peuvent nous conduire à accepter sans critique des informations erronées simplement parce qu’elles renforcent nos croyances. Ce renforcement nous rend plus sûrs d’avoir raison et encore moins enclins à écouter de nouvelles informations. Et puis nous votons.

Cet effet est encore accentué par la surabondance d’informations, qui offre - parallèlement à une quantité sans précédent d’informations fiables - des rumeurs sans fin, des informations erronées et des variations douteuses de la vérité. En d’autres termes, il n’a jamais été aussi facile pour les gens de se tromper tout en étant convaincus d’avoir raison.

En soi, cela ne serait peut-être pas un problème : les personnes qui ignorent les faits pourraient simplement choisir de ne pas « décider ». Mais il semble au contraire que les personnes mal informées aient souvent les opinions les plus tranchées. Un exemple frappant récent est celui d’une étude menée en 2000 par James Kuklinski de l’université de l’Illinois à Urbana-Champaign. Il a mené une expérience influente dans laquelle plus de 1 000 habitants de l’Illinois ont été interrogés sur l’aide sociale - le pourcentage du budget fédéral consacré à l’aide sociale, le nombre de personnes inscrites au programme, le pourcentage de personnes inscrites qui sont noires et le montant moyen des prestations. Plus de la moitié ont indiqué qu’ils étaient convaincus que leurs réponses étaient correctes, mais en réalité, seulement 3 % des personnes ont répondu correctement à plus de la moitié des questions. Plus troublant encore, ceux qui étaient les plus convaincus d’avoir raison étaient en général ceux qui connaissaient le moins le sujet. (La plupart de ces participants ont exprimé des opinions qui suggéraient un fort préjugé contre l’aide sociale).

D’autres chercheurs ont observé des phénomènes similaires lorsqu’ils ont abordé des questions telles que l’éducation, la réforme des soins de santé, l’immigration, la discrimination positive, le contrôle des armes à feu et d’autres questions qui ont tendance à susciter des opinions partisanes fortes. Kuklinski appelle ce type de réponse le syndrome « je sais que j’ai raison » et le considère comme un « problème potentiellement redoutable ». « Cela implique non seulement que la plupart des gens résisteront à corriger leurs croyances factuelles, écrit-il, mais aussi que ceux qui ont le plus besoin de les corriger seront les moins susceptibles de le faire. »

Que se passe-t-il ? Comment pouvons-nous nous tromper à ce point et être si sûrs d’avoir raison ? La réponse réside en partie dans le fonctionnement de notre cerveau. En général, les gens ont tendance à rechercher le confort, la conformité et la cohérence. De nombreuses recherches en psychologie montrent que les gens ont tendance à interpréter les informations de manière à renforcer leurs opinions préexistantes. Si nous croyons quelque chose au sujet du monde, nous sommes plus enclins à accepter passivement comme vérité toute information qui confirme nos croyances et à rejeter activement toute information qui les contredit. C’est ce qu’on appelle le « raisonnement motivé ». Que les informations cohérentes soient exactes ou non, nous pouvons les accepter comme des faits, comme une confirmation de nos croyances. Cela nous rend plus confiants dans ces croyances et encore moins enclins à accepter des faits qui les contredisent.

Une nouvelle étude, publiée le mois dernier dans la revue Political Behavior (Comportement Politique), suggère qu’une fois que ces faits – ou « faits » – sont intériorisés, ils sont très difficiles à ébranler.

On ne sait pas exactement ce qui motive ce comportement – cela peut aller d’une simple attitude défensive à un effort accru pour défendre ses convictions initiales – mais comme le dit sèchement Nyhan, « il est difficile d’être optimiste quant à l’efficacité de la vérification des faits ».

Il serait rassurant de penser que les politologues et les psychologues ont trouvé un moyen de contrer ce problème, mais ce serait prématuré. La persistance des perceptions politiques erronées reste un domaine de recherche encore peu exploré. « Tout est encore très flou », explique Nyhan.

Mais les chercheurs y travaillent. Une piste pourrait être l’estime de soi. Nyhan a mené une étude dans laquelle il a montré que les personnes qui avaient fait un exercice d’affirmation de soi étaient plus enclines à prendre en compte de nouvelles informations que celles qui ne l’avaient pas fait. En d’autres termes, si vous vous sentez bien dans votre peau, vous êtes à l’écoute - et si vous vous sentez en insécurité ou menacé, vous ne l’êtes pas. Cela expliquerait également pourquoi les démagogues [des « leaders » qui cherchent à obtenir le soutien des masses en faisant appel à leurs désirs et à leurs préjugés -plutôt qu’en s’appuyant sur des faits ou un raisonnement rationnel] ont intérêt à maintenir les gens dans un état d’agitation et de peur. Plus les gens se sentent menacés [par rapport aux faits réels], moins ils sont enclins à écouter, et plus ils sont faciles à contrôler.

Il existe également des cas où la franchise fonctionne. L’étude de Kuklinski sur l’aide sociale suggère que les gens sont prêts à revoir leurs convictions si on leur présente « sans détour » des faits objectifs qui contredisent leurs idées préconçues. Il a demandé à un groupe de participants quel pourcentage du budget fédéral ils pensaient que le gouvernement consacrait à l’aide sociale, et quel pourcentage ils estimaient que le gouvernement devrait y consacrer. Un autre groupe a reçu les mêmes questions, mais le deuxième groupe a immédiatement été informé du pourcentage correct que le gouvernement consacrait à l’aide sociale (1 %). On leur a ensuite demandé, en tenant compte de cette information, ce que le gouvernement devrait dépenser. Quelle que soit l’erreur qu’ils avaient commise avant de recevoir l’information, les membres du deuxième groupe ont effectivement ajusté leur réponse pour refléter la réalité.

L’étude de Kuklinski impliquait toutefois des personnes qui obtenaient des informations directement des chercheurs de manière très interactive. Lorsque Nyhan a tenté de corriger cette information de manière plus réaliste, par le biais d’un article de presse, cela s’est retourné contre lui. Même si les gens acceptent les nouvelles informations, celles-ci peuvent ne pas rester ancrées dans leur esprit à long terme, ou n’avoir tout simplement aucun effet sur leurs opinions. En 2007, John Sides, de l’université George Washington, et Jack Citrin, de l’université de Californie à Berkeley, ont cherché à savoir si le fait de fournir à des personnes mal informées des informations correctes sur la proportion d’immigrants dans la population Américaine aurait une incidence sur leur opinion sur l’immigration. Ce n’était pas le cas.

Et si vous pensez que la solution réside dans « plus d’éducation » et un niveau général plus élevé de sophistication politique, c’est un début, mais ce n’est pas la solution. Une étude réalisée en 2006 par Charles Taber et Milton Lodge à l’université Stony Brook a montré que les penseurs sophistiqués étaient encore moins ouverts aux nouvelles informations que les personnes moins sophistiquées. Ces personnes ont peut-être raison sur 90 % des choses, mais leur confiance les empêche de corriger les 10 % sur lesquels elles se trompent complètement. Taber et Lodge ont trouvé cela alarmant, car les penseurs engagés et sophistiqués sont « ceux sur lesquels la théorie repose le plus ».

Dans un monde idéal, les citoyens seraient capables de maintenir une vigilance constante, en surveillant à la fois les informations qu’ils reçoivent et la manière dont leur cerveau les traite. Mais se tenir au courant de l’actualité demande du temps et des efforts. Et comme l’ont montré des siècles de philosophie, se remettre sans cesse en question peut être épuisant. Notre cerveau est conçu pour créer des raccourcis cognitifs - inférence, intuition, etc.- afin d’éviter précisément ce genre de malaise tout en faisant face au flot d’informations que nous recevons quotidiennement. Sans ces raccourcis, peu de choses seraient accomplies. Malheureusement, avec eux, nous sommes facilement bernés par les mensonges.

Nyhan recommande finalement une approche axée sur l’offre. Au lieu de se concentrer sur les citoyens et les consommateurs de désinformation, il suggère de se pencher sur les sources. [« Tenez compte de la source » et de ses motivations.] Si vous augmentez le « coût en termes de réputation » de la diffusion de fausses informations, suggère-t-il, vous pourriez dissuader les gens de le faire aussi souvent. « Ainsi, si vous participez à l’émission « Meet the Press » (Rencontre avec la Presse) et que vous êtes critiqué pour avoir dit quelque chose de trompeur, vous y réfléchirez à deux fois avant de recommencer.

(Cependant, si l’auteur d’une fausse information perdait son emploi, sa maison et allait en prison pour avoir déformé la vérité, cela constituerait peut-être un moyen encore plus efficace de dissuader la diffamation et la désinformation. Lorsque la tromperie et la désinformation ne coûtent rien à leurs auteurs [dans cette vie], vous pouvez être sûr que cela continuera d’être utilisé comme une arme à des fins souvent cachées.)

Malheureusement, cette solution fondée sur la honte est peut-être aussi peu plausible que sensée. Les experts au discours rapide ont accédé à une popularité très lucrative, tandis que les professionnels de la vérification des faits croupissent dans les souterrains de l’érudition. Faire honte à un charlatan ? Ce n’est pas facile.

(Joe Keohane est écrivain à New York ; The New York Times Company)

Début du message transféré :

Je n’ai pas pu m’empêcher de faire le lien en lisant l’article ci-dessus. Il n’y a rien de nouveau sous le soleil — et — Ne soyez pas inconscient... — s

« Je note ce que tu dis au sujet de diriger les lectures de ton patient et de veiller à ce qu’il voie beaucoup son ami matérialiste. Mais n’es-tu pas un peu naïf ? On dirait que tu supposes que l’argumentation est le moyen de le garder hors des griffes de l’Ennemi. Cela aurait pu être le cas s’il avait vécu quelques siècles plus tôt. À cette époque, les humains savaient encore assez bien quand une chose était prouvée et quand elle ne l’était pas ; et si elle était prouvée, ils y croyaient vraiment. Ils faisaient encore le lien entre la pensée et l’action et étaient prêts à modifier leur mode de vie à la suite d’un raisonnement. Mais avec la presse hebdomadaire et d’autres armes de ce genre, nous avons largement changé cela. Ton homme a été habitué, depuis son enfance, à avoir une douzaine de philosophies incompatibles qui se bousculent dans sa tête. Il ne considère pas les doctrines comme étant avant tout « vraies » ou « fausses », mais comme « académiques » ou « pratiques », « dépassées » ou « contemporaines », « conventionnelles » ou « impitoyables ». Le jargon, et non l’argumentation, est ton meilleur allié pour le tenir éloigné de l’Église. »

« Grâce aux processus que nous avons mis en place il y a des siècles, les hommes trouvent presque impossible de croire à ce qui leur est inconnu alors que ce qui leur est familier est sous leurs yeux. Insiste sans cesse sur le caractère ordinaire des choses. Surtout, n’essaie pas d’utiliser la science (je veux dire les sciences réelles) comme moyen de défense contre le Christianisme. Elles l’encourageront positivement à réfléchir à des réalités qu’il ne peut ni toucher ni voir. Il y a eu de tristes cas parmi les physiciens modernes. S’il doit s’intéresser à la science, limite-le à l’économie et à la sociologie ; ne le laisse pas s’éloigner de cette « vraie vie » si précieuse. Mais le mieux est de ne lui faire lire aucune science et de lui donner l’impression générale qu’il sait tout et que tout ce qu’il a pu glaner dans des conversations et des lectures fortuites est « le résultat des recherches modernes ». N’oublie pas que tu es là pour l’embrouiller... »

(LETTRES DE SCREWTAPE, CS Lewis)

Ensemble-en-Jesus.com