L'oubli de la fréquence de base (aussi connue sous le nom de négligence de la taille de l'échantillon) est un biais cognitif lié aux lois statistiques, qui se manifeste par le fait que les gens oublient souvent de considérer la fréquence de base de l'occurrence d'un événement lorsqu'ils cherchent à en évaluer une probabilité. Le plus souvent, cela conduit à surestimer cette probabilité.
Dans les années 1970, les psychologues et économistes Daniel Kahneman et Amos Tversky ont mené une série d'expériences mettant en évidence les erreurs dues à l'oubli de la fréquence de base, courantes même chez des personnes hautement diplômés.
Soit une ville d'un million d'individus présents sur son territoire. Sur ce million (1 000 000) d'individus, 100 sont des délinquants présumés et répertoriés comme tels sur une liste, les 999 900 autres étant présumés non-délinquants. Afin de détecter la présence d'un délinquant sur son territoire, la ville installe des caméras de vidéosurveillance avec un dispositif de reconnaissance faciale automatique : celui-ci doit déclencher une alerte dès lors que le visage filmé est celui d'un des 100 délinquants de la liste. Malheureusement, le dispositif de reconnaissance faciale n'est pas parfait. Supposons qu'il ait un « taux d'erreur de 1 % », ou, plus précisément, que :
Lorsqu'une alerte se déclenche, quelle est la probabilité que l'on soit en présence d'un délinquant répertorié sur la liste ?
Si l'on raisonne avec « oubli de la fréquence de base », c'est-à-dire en ne retenant que le « taux d'erreur est de 1 % », on répond un peu rapidement qu'il y a 99 % de probabilité que l'individu soit effectivement un délinquant lorsqu'une alerte est déclenchée. Ce qui est erroné. En effet, lorsqu'on comptabilise l'ensemble des alertes, deux situations sont à prendre en compte simultanément :
Soit un total de 99 + 9999 = 10 098 alertes. Lorsqu'une alerte se déclenche, la probabilité que l'individu soit effectivement un délinquant est donc de 99 sur 10 098, soit 0,98 % et non de 99 %[1]. Cette probabilité peut être retrouvée par le théorème de Bayes.
Soit une population vaccinée à 95 % contre un virus. Le vaccin, bien qu'imparfaitement efficace, est supposé très efficace contre toute forme symptomatique de la maladie. Durant la pandémie, on enregistre le nombre de non-vaccinés et de vaccinés parmi les malades testés positifs, pour déterminer l'impact de la vaccination sur la réponse immunitaire obtenue contre la maladie.
Intuitivement, un nombre élevé de vaccinés parmi les malades pourrait laisser penser que le vaccin est en fin de compte très peu efficace contre la maladie. Mais cette intuition est biaisée : on ne peut pas comparer des nombres de cas sur des populations de tailles différentes ; s'il y a beaucoup de vaccinés parmi les malades c'est simplement dû au fait que la population de base des vaccinés est très grande.
Dans l'hypothèse d'un vaccin efficace à 95 % contre la maladie et d'une couverture vaccinale de 96 % de la population :
Avec un vaccin efficace à 95 % et une couverture vaccinale de 96 %, il y a une probabilité que le nombre de vaccinés malades soit plus élevé que le nombre de non-vaccinés malades[2],[3],[4].
En poussant à l’extrême ce cas de figure, dans la situation où la totalité de la population est vaccinée avec un vaccin efficace à 95 %, la totalité des malades hospitalisés est constituée de personnes vaccinées.