Increvable machine à laver, success story: qu’en conclure ? ( Biais du survivant )

  • « Le lave-linge de mamie a 50 ans et fonctionne encore, preuve qu’on savait faire de l’électroménager increvable à l’époque ! »
  • « Avez vous vu l’histoire de cette ampoule qui brûle sans discontinuer depuis 120 ans dans une caserne de pompier américaine ? C’est bien la preuve qu’on fait exprès de les rendre fragile, depuis ! »
  • « Encore vivante à 120 ans: le secret de sa longévité. »
  • « Ils ont réussi dans la vie: le secret de leur success story. »

Vous avez forcément déjà lu ce genre d’affirmations. Mais le fait observé prouve-t-il réellement la généralité qui en est déduite ? Du tout. Pour l’illustrer, continuons avec quelques phrases équivalentes mais qui mettent la puce à l’oreille:

  • « Tous les chevaliers qui ont exploré des grottes certifient qu’elles n’abritent pas de dragon. »
  • « Tous les joueurs de roulette russe témoignent que ça n’est pas mortel. »
  • « Je fume comme un pompier et pourtant je n’ai jamais eu de cancer: c’est bien la preuve qu’on nous ment sur les dangers du tabac ! »
  • Variantes avec les vaccins, la ceinture de sécurité, conduire bourré, etc.
  • « Peut-on juger une boîte de chocolats aux 3 qui restent ? » ( excellente analogie forgée par Evidence-based bonne humeur ).

Le biais du survivant consiste à retenir des caractéristiques d’un cas à succès (ou « survivant ») sans voir les innombrables cas partageant les même caractéristiques et n’ayant pourtant pas connu ce destin, preuve que ces caractéristiques ne sont en rien la cause du destin du survivant.
(A noter que ça marche aussi pour les cas inenviables: les chocolats restant, « il n’a pas renvoyé le mail à 12 amis, et il est mort« , etc).
Le biais de confirmation tend ensuite à nous faire chercher d’autres cas identiques pour confirmer, ce qui est à l’opposé de l’attitude rationnelle: chaque fois qu’on vous recommande une « recette qui a marché », cherchez plutôt si les contre-exemples ne seraient pas bien plus nombreux.

Au delà du fait de prendre pour judicieux des conseils sans pertinence sur toutes sortes de sujets, ce biais peut avoir des conséquences graves… ou au contraire, être exploité bénéfiquement:

Biais du survivant et « accidents » d’avions

A l’origine, une tragique erreur de raisonnement: lors de la seconde guerre mondiale, on a commencé par renforcer les avions sur la base d’où le mitraillage avait des dégâts, tel que constaté à leur retour. Mais voilà, les mitraillages mortels pour l’avion ou son pilote font qu’il ne revient pas, et c’est donc plutôt ces zones là qu’il faudrait renforcer !
De fait, ces zones sont paradoxalement les plus épargnées sur les avions de retour… puisque que quand elles sont touchées, l’avion ne revient pas. Le statisticien Abraham Wald a donc recommandé, au contraire, de renforcer prioritairement les zones trouvées intactes sur les avions survivant.

Concernant l’ampoule centenaire

Il y a bien sûr l’aspect « biais du survivant », sinon, où sont donc passées toutes les autres ampoules de l’époque ? Qui devraient pulluler si elles étaient statistiquement bien plus solides (de même pour les sœurs « increvables » du lave-linge de mamie).

Mais ici il s’agit en plus (comme souvent) d’un mythe par exagération: l’ampoule ne risque pas d’avoir « brûlé sans discontinuer depuis 1901« , puisque son emplacement a changé plusieurs fois, notamment avec le déménagement de la caserne, et qu’elle a subie quelques coupures de courant. Par ailleurs sa luminosité ne correspond plus qu’à 0,3 % de la valeur d’origine.
Il y a en outre un contre-sens, puisque l’une des choses qui a le plus de chance de tuer une ampoule (comme d’autre dispositifs électriques ou électroniques), c’est l’allumage: « sans discontinuer » protège donc de ces agressions répétées de la vie d’une ampoule.
Enfin une autre question pertinente serait la rentabilité: à 0,3 % de la luminosité d’origine, le rendement de l’ampoule est catastrophique (en plus de son utilité très restreinte): durer dans ces conditions est contre-productif, en toute logique, mieux vaudrait la changer ! 🙂

Bâtiments, chanteurs et auteurs

De la même façon, on a souvent l’impression que « les auteurs et chanteurs des époques précédentes étaient bien meilleurs« ; idem pour les bâtiments. C’est oublier, là aussi, que les médiocres n’ont pas fait l’histoire, tandis qu’on voit mieux ceux qui nous sont contemporains ! ( la surproduction culturelle a aussi bien sûr sa part, mais ça n’est qu’une partie ).

Bref, même si l’obsolescence_programmée existe bel et bien, le biais du survivant tend aussi à nous la faire voir là où elle n’est pas !

Pour en savoir plus:

Plus grave: ce biais cognitif a également entraîné bien des erreurs médicales de diagnostique et de traitement, comme le décrit l’article (en anglais) « Pourquoi se rappeler de ce qui a marché ne marche pas« . Voir traduction automatique.

Repérer les biais de raisonnement

… ceux des autres, mais aussi les nôtres. 😉

[ Ce post est assez long est touffu, mais il permet de rassembler toute une série de concepts, termes et liens sur le sujet. Il est possible que je le recoupe en 2 ou 3 posts plus tard ].

Une bonne partie du « raisonner correct » nous provient de la philosophie de la rhétorique et des fondements de la scientificité, et la psychologie sociale apporte également un éclairage utile à nos illogismes (survolé ici, mais voir figure et références):

  • Une argumentation doit être cohérente, c’est à dire ne pas comporter de contradictions.
    Un regroupement de thèses incompatibles ( par exemple autour de « théories du complot », ou d’explications « alternatives » du réel ) ne font pas un corpus plus fort du point de vue argumentaire ( même si ça peut faire impression, et augmenter l’impact ): les thèses « les tours du World Trade Center ont été dynamitées » et « les événements du 11 septembre n’ont jamais eu lieu » s’opposent entre elles bien plus qu’elles ne s’opposent à « la théorie officielle ».
  • Un scénario explicatif (un récit qui colle avec les faits) n’est pas une théorie (au science scientifique, i.e. une argumentation). Une théorie doit avoir une valeur prédictive (non triviale), permettant de la mettre à l’épreuve (principe de réfutabilité): « s’il est vrai que la gravité agit sur la lumière, alors on peut mesurer (à la prochaine éclipse) si les étoiles proches du soleil sont bien déviées ».
    La zététique propose la maxime « l’alternative est féconde« : efforcez-vous de trouver plus d’une explication possible, ce qui force à relativiser (et la bonne réponse sera peut-être autre 😉 ).
(c) smbc
  • Un témoignage n’est pas une preuve; et quelques cas n’ont aucune valeur statistique: on tend à choisir ceux qui nous arrangent (biais de « cherry picking« ), alors qu’ils peuvent être l’exception. C’est la répétition et l’analyse statistique – comme pour un sondage – qui permettent de trancher.
  • Toute mesure comporte une incertitude: les grottes ornées ne sauraient être « orientées exactement vers le coucher aux solstices », les mystérieuses sphères de pierre du Costa Rica ne sont pas « parfaitement sphériques » ni les pyramides « exactement alignées », entre elles comme avec les constellations. Sans indication d’incertitude, des « données » (de fait, incomplètes) ne permettent pas honnêtement de valider ou réfuter une théorie, et sont de fait pipées.
  • Accumuler des arguments faibles, douteux, ou sans rapport, ne consolide en rien une thèse. C’est ce qui rend épuisant les échanges avec bien des adeptes de théories du complot: comme bien souvent aucun élément n’est fort ni lié, le réfuter (éventuellement avec effort) n’affaiblit pas la thèse, et conduira juste au surgissement d’un nouvel élément guère meilleur ( effet « insubmersible canard de bain en plastique », variante de l‘argumentation par inondation. Cette accumulation procède d’une confusion entre l’esprit critique et la méthode hypercritique ).
    Démonter un argument fallacieux prend bien plus d’effort et de temps (donnant de surcroît au public l’impression de faiblesse) que d’affirmer cet argument fallacieux ou faible avec force effet de voix et de manche: mieux vaut se mettre d’accord sur les règles du jeu que de jouer perdant avec des règles pipées. Et ne pas hésiter à aborder le plan « méta » (« qu’est-ce qu’une argumentation valide ») pour sortir du cadre piégé – s’attendre alors à des protestations énergiques 🙂 .
  • Une série de relevés d’anomalies peut être pertinent, mais en soi ne fonde ni ne « prouve » une théorie alternative. C’est un biais de faux dilemme que d’imaginer que « ma théorie est forcément la vraie puisque la tienne est fausse ».
  • A propos, on n’est jamais obligé d’avoir un avis immédiat et binaire (« vrai » ou « faux ») sur une affirmation: il est toujours possible d’une part de positionner son curseur de vraisemblance, révisable, entre les deux, et d’autre part de suspendre son jugement en attendant plus d’élément… ou la motivation pour le faire (« les bruits du grenier » peuvent conserver cette dénomination si vous n’avez pas la motivation pour enquêter davantage).
    Attention à l’« effet bof »: ne pas savoir si la réponse est A ou B ne signifie pas que leurs chances sont de 50/50. Convoquer plusieurs points de vue n’implique pas qu’ils se valent (cf dispositifs médiatiques type « on invite un négationniste et un historien pour être équilibré« ). L’ouverture d’esprit n’est pas la béance d’esprit (absence d’esprit critique).
  • C’est à l’allégateur de prouver, car il est impossible de prouver une inexistence: « il existe des canards bleu » peut être prouvé en en montrant un. « Prouvez-moi que c’est faux » est impossible à réaliser, puisqu’il faudrait pour cela vérifier exhaustivement tous les canards de la Terre (et prouver qu’on n’en a pas raté).
  • Les mathématiques ne sont pas le monde réel: en mathématiques on peut prouver définitivement une chose, ou même démontrer qu’elle est fausse. En sciences toute démonstration est provisoire, et consiste juste à utiliser « l’oracle du réel » (ie, une expérience) pour confirmer ou infirmer une prédiction, dans un contexte donné: « jusqu’à présent, les pommes tombent vers le bas« .
  • Les termes et notions doivent désigner une chose précise, dans un contexte donné. Les pseudo-sciences abusent de mots comme « énergie », « onde », « résonance », « détox », « vital », « cosmique », « magnétique », « purifier », « flux », « quantique » sans jamais les définir. Dans un tout autre domaine, dans la phrase « s’ils n’aiment pas la France, qu’ils la quittent » le mot « France » ne désigne pas la même chose au début et à la fin de la phrase (c’est l’aliment principal des syllogismes). Attention à « l’effet puits » ou « effet Barnum » où les phrases sont si creuses que c’est vous qui leur donnez un sens (qui vous convient… et surprend, dans la bouche de l’autre), et non l’interlocuteur: ajouté au fait qu’on ne retiendra que les phrases auxquelles on donne du sens, c’est à la base des propos « troublants » des voyantes – cf technique du cold reading) .
  • En sciences l’eau « en soi » n’existe pas et n’a aucune propriété. Le modèle pertinent de l’eau, et ses propriétés et hypothèses valides, dépendent de la question à laquelle on s’intéresse (les vagues, ou les courants, ou la température du fond, ou la propagation des sons…), et des circonstances (supersoniques, dans le vide glacé, en tuyaux noyés, ou en surface en conditions naturelles…).
  • Raisonner par analogies n’est pas une preuve (même si ça peut être un moyen fécond pour préparer des théories). Se méfier aussi des connotations des termes (qui n’ont pas à influencer les avis).
  • La bonne foi n’est pas une preuve non plus.
  • Ni les implications pratiques, philosophiques, sociales, ou personnelles (que ce soit pour préférer ou éviter les thèses en ce sens). Attention aux effet d’adhésion, de séduction, et les « packages » idéologiques ou culturels (« si on est cool / responsable / écolo / de gauche / de droite / catholique / etc ou si on croit/préfère ceci, alors on doit également adhérer automatiquement à toute une foule d’avis et préférences« ).
  • Attention au biais de bi-standard (ou critères à géométrie variable): l’exigence doit être aussi forte pour les thèses allant dans votre sens ou contre, un type d’argument doit rester acceptable (ou non-acceptable) si utilisé au service d’une thèse adverse.
  • Bien distinguer les faits bruts, des faits corrigés (élimination des mesures « louches » et correction automatique des biais systématiques attendu), de l’interprétation (la lecture) des faits, puis de leur incorporation dans le carcan d’un modèle.
  • S’intéresser à comment ont été recueillis les faits: systématiquement, « au hasard » en aveugle (ou double aveugle), choisis a posteriori dans d’ancien relevés, ou recherchés activement: attention aux biais de sélection (l’ensemble observé est-il vraiment représentatif ?), voire à la validation subjective (on voit ce qu’on préfère voir).
  • Une explication doit être minimaliste (principe de parcimonie): si elle comporte plusieurs éléments, chacune doit être prouvée nécessaire. Ce n’est pas parce que tourner les fûts vers le nord fait parti du protocole complexe de certains vignerons qui obtiennent du bon vin que cela prouve que cette étape a le moindre effet.
    En particulier, entre plusieurs scénarios, sans information supplémentaire, le plus simple a le plus de probabilité d’être le bon (« rasoir d’Ockham » – sous réserve qu’il soit réfutable, car « c’est Dieu qui l’a voulu » est certes un argument minimaliste, mais il n’est ni réfutable ni prédictif). Par exemple si l’on n’a que 4 données alignées et pas d’information supplémentaire, il est plus raisonnable de postuler que la loi générale donne une droite, plutôt qu’une sinusoïde passant par ces points.
  • L’origine de l’information (fiable, dans le domaine concerné ?) et du canal par lequel on l’a obtenu (compétence et biais de l’intermédiaire ?) sont fondamentales.
    Attention à l’argument d’autorité: une personne est reconnue dans un domaine particulier, voire un sujet précis (sans pour autant être infaillible, et moins encore sainte), à une époque, ce qui ne la rend pas compétente en tout. D’autant qu’il n’y a pas toujours de consensus intégral sur tous les sujets. Et pire pour un récit de troisième main, qui prête des propos et avis de façons probablement tronqués et déformés.
    Pour autant, même si un statut ou un diplôme n’est aucunement une garantie d’infaillibilité, sur un sujet en rapport, l’avis d’un spécialiste a a priori plus de chances d’être vrai que celui d’un non-spécialiste.

Pour en savoir plus:

Non repris ici, car traité dans d’autres posts:

Pour approfondir sur les biais cognitifs, les maximes zététiques, la méthodologie, et autre, (beaucoup n’ayant pas été abordés ici), consulter le post « Références ».