Falácia da taxa-base

O fato de um hospital receber mais pacientes com COVID-19 vacinados do que não vacinados pode sugerir que a vacina é ineficaz, mas tal desequilíbrio é esperado numa população altamente vacinada[1]

A falácia da taxa-base, também chamada de negligência da taxa-base[2] ou viés da taxa-base, é um tipo de falácia em que as pessoas tendem a ignorar a taxa base (por exemplo, a prevalência geral) em favor da informação individualizadora (ou seja, informações pertencentes apenas a um caso específico).[3] A negligência da taxa básica é uma forma específica da negligência da extensão mais geral.

É também chamada de falácia do promotor ou falácia do advogado de defesa quando aplicada aos resultados de testes estatísticos (como testes de DNA) no contexto de processos judiciais. Esses termos foram introduzidos por William C. Thompson e Edward Schumann em 1987,[4][5] embora tenha sido argumentado que a definição de falácia do promotor se estende a muitas imputações inválidas adicionais de culpa ou responsabilidade que não são analisáveis como erros nas taxas base ou no teorema de Bayes.[6]

Paradoxo do falso positivo

[editar | editar código-fonte]

Um exemplo da falácia da taxa base é o paradoxo do falso positivo (também conhecido como paradoxo da precisão). Este paradoxo descreve situações em que mais resultados de teste são falsos positivos do que verdadeiros positivos (isto significa que a precisão do classificador é baixa). Por exemplo, se uma câmera de reconhecimento facial consegue identificar criminosos procurados com 99% de precisão, mas analisa 10.000 pessoas por dia, a elevada precisão é superada pelo número de testes, e a lista de criminosos do programa provavelmente terá muito mais falsos positivos do que verdadeiros positivos. A probabilidade de um resultado de teste positivo é determinada não apenas pela precisão do teste, mas também pelas características da população amostrada.[7] Quando a prevalência, a proporção de pessoas que têm uma determinada condição, é inferior à taxa de falsos positivos, até mesmo os testes que têm um risco muito baixo de dar um falso positivo num caso individual darão mais falsos positivos do que verdadeiros positivos em geral.[8]

É especialmente contra-intuitivo quando se interpreta um resultado positivo em um teste em uma população de baixa prevalência, depois de ter lidado com resultados positivos obtidos numa população de alta prevalência.[8] Se a taxa de falsos positivos do teste for superior à proporção da nova população com a doença, então um aplicador de teste cuja experiência foi obtida a partir de testes numa população de elevada prevalência pode concluir com base na experiência que um resultado de teste positivo normalmente indica um sujeito positivo, quando na verdade é muito mais provável que um falso positivo tenha ocorrido.

Exemplo 1: Doença

[editar | editar código-fonte]

População de alta incidência

[editar | editar código-fonte]
Número de pessoas Infectado Não infectado Total
Teste positivo 400
(verdadeiro positivo)
30
(falso positivo)
430
Teste negativo 0
(falso negativo)
570
(verdadeiro negativo)
570
Total 400 600 1000

Imagine a realização de um teste de doença infecciosa em uma população A de 1.000 pessoas, das quais 40% estão infectadas. O teste tem uma taxa de falsos positivos de 5% (0,05) e nenhuma taxa de falsos negativos. O resultado esperado dos 1000 testes na população A seria:

Infectado e o teste indica doença (verdadeiro positivo)
1000 ×40100 = 400 pessoas receberiam um verdadeiro positivo
Não infectado e o teste indica doença (falso positivo)
1000 ×100 – 40100 × 0,05 = 30 pessoas receberiam um falso positivo
Os 570 testes restantes são corretamente negativos.

Assim, na população A, uma pessoa que receba um teste positivo pode ter mais de 93% de confiança (40030 + 400) de que ele indica corretamente uma infecção.

População de baixa incidência

[editar | editar código-fonte]
Número

de pessoas

Infectadas Não infectadas Total
Teste

positivo

20

(verdadeiro positivo)

49

(falso positivo)

69
Teste

negativo

0

(falso negativo)

931

(verdadeiro negativo)

931
Total 20 980 1000

Consideremos agora o mesmo teste aplicado à população B, da qual apenas 2% estão infectados. O resultado esperado de 1000 testes na população B seria:

Infectado e o teste indica doença (verdadeiro positivo)
1000 ×2100 = 20 pessoas receberiam um verdadeiro positivo
Não infectado e o teste indica doença (falso positivo)
1000 ×100 – 2100 × 0,05 = 49 pessoas receberiam um falso positivo
Os 931 testes restantes são corretamente negativos.

Na população B, apenas 20 do total de 69 pessoas com resultado de teste positivo estão realmente infectadas. Portanto, a probabilidade de realmente ser infectado depois de saber que está infectado é de apenas 29% (2020 + 49) para um teste que parece ter uma exatidão de 95%.

Um testador com experiência no grupo A pode considerar um paradoxo que, no grupo B, um resultado que normalmente indicava corretamente uma infecção agora seja geralmente um falso positivo. A confusão da probabilidade posterior de infecção com a probabilidade a priori de receber um falso positivo é um error natural depois de receber um resultado de teste que ameaça a saúde.

Exemplo 2: Motoristas bêbados

[editar | editar código-fonte]
Um grupo de policiais possui bafômetros que acusam uma falsa embriaguez em 5% dos casos em que o motorista está sóbrio. Porém, os bafômetros nunca deixam de detectar uma pessoa verdadeiramente bêbada (o recall é 1). Um em cada mil motoristas dirige bêbado. Suponha que os policiais parem um motorista aleatoriamente para aplicar um teste de bafômetro. Ele indica que o motorista está bêbado. Assumindo que você não saiba mais nada sobre ele, qual é a probabilidade de ele realmente estar bêbado?

Muitos responderiam um valor tão alto quanto 95%, mas a probabilidade correta é de cerca de 2%.

A explicação para isso é a seguinte: em média, de cada 1.000 motoristas testados,

  • 1 motorista está bêbado e é 100% certo que para esse motorista o teste resulta em um verdadeiro positivo, então há 1 resultado de teste que é um verdadeiro positivo
  • 999 motoristas não estão bêbados e, entre esses motoristas, 5% dos testes resultam em falsos positivos, portanto, há 49,95 resultados de testes que são falsos positivos

Portanto, a probabilidade de que um motorista qualquer entre os 1 + 49,95 = 50,95 resultados positivos do teste esteja realmente bêbado é de .

A validade deste resultado depende, no entanto, da validade da suposição inicial de que o agente da polícia realmente parou o condutor ao acaso e não por causa de má condução. Se essa ou outra razão não arbitrária para parar o condutor estiver presente, então o cálculo também envolve a probabilidade de um condutor embriagado conduzir de forma competente e de um condutor não embriagado conduzir de forma (in)competente.

Mais formalmente, a mesma probabilidade de aproximadamente 0,02 pode ser obtida usando o teorema de Bayes. O objetivo é encontrar a probabilidade de o motorista estar bêbado dado que o bafômetro indicou que ele está bêbado, o que pode ser representado como

onde B significa que o bafômetro indica que o motorista está bêbado. O teorema de Bayes nos diz que

Conforme o primeiro parágrafo:

e

Como pode ser visto na fórmula, é preciso saber p(B) para usar o teorema de Bayes, e este pode ser calculado a partir dos valores anteriores usando a lei da probabilidade total:

que fornece

Colocando esses números no teorema de Bayes, descobre-se que

que é a precisão do teste.

Exemplo 3: Identificação de terroristas

[editar | editar código-fonte]

Considere que em uma cidade de 1 milhão de habitantes, há 100 terroristas e 999.900 não-terroristas. Para simplificar o exemplo, assume-se que todas as pessoas presentes na cidade são habitantes. Assim, a probabilidade de taxa base de um habitante da cidade selecionado aleatoriamente ser um terrorista é 0,0001, e a probabilidade de taxa base desse mesmo habitante não ser um terrorista é 0,9999. Na tentativa de capturar os terroristas, a cidade instala um sistema de alarme com câmera de vigilância e software de reconhecimento facial automático.

O software tem duas taxas de falha de 1%:

  • A taxa de falsos negativos: se a câmera examinar um terrorista, uma campainha tocará 99% das vezes e não tocará 1% das vezes.
  • A taxa de falsos positivos: se a câmera examinar um não-terrorista, uma campainha não tocará 99% das vezes, mas tocará 1% das vezes.

Suponhamos agora que um habitante acione o alarme. Qual é a probabilidade de a pessoa ser um terrorista? Em outras palavras, quanto é P(T|B), a probabilidade de um terrorista ter sido detectado dado que a campainha tocou? Alguém que cometesse a “falácia da taxa base” inferiria que existe uma probabilidade de 99% de que a pessoa detectada seja um terrorista. Embora a inferência pareça fazer sentido, na verdade é um raciocínio incorreto, e um cálculo abaixo mostrará que a probabilidade de um terrorista está na verdade perto de 1%, e não perto de 99%.

A falácia surge ao confundir a natureza de duas taxas de falha diferentes. O "número de campainhas não tocadas por 100 terroristas" e o "número de não-terroristas por 100 toques de campainha" são quantidades não relacionadas. Um não é necessariamente igual ao outro, e nem precisam ser quase iguais. Para mostrar isto, considere o que aconteceria se um sistema de alarme idêntico fosse instalado numa segunda cidade sem quaisquer terroristas. Tal como na primeira cidade, o alarme soa para 1 de cada 100 habitantes não terroristas detectados, mas ao contrário da primeira cidade, o alarme nunca soa para um terrorista. Portanto, 100% de todas as ocasiões em que o alarme soa são para não-terroristas, mas uma taxa de falsos negativos nem sequer pode ser calculada. O "número de não-terroristas por 100 toques de campainha" naquela cidade é 100, mas P(T|B) = 0%. A probabilidade de um um terrorista ter sido detectado, dado que a campainha tocou, é zero.

Imagine que toda a população da primeira cidade, de um milhão de pessoas, passe na frente da câmera. Cerca de 99 dos 100 terroristas dispararão o alarme – e o mesmo acontecerá com cerca de 9.999 dos 999.900 não-terroristas. Portanto, cerca de 10.098 pessoas dispararão o alarme, entre as quais cerca de 99 serão terroristas. A probabilidade de uma pessoa que dispara o alarme ser realmente um terrorista é de apenas cerca de 99 em 10.098, o que é menos de 1% e muito, muito abaixo do nosso palpite inicial de 99%.

A falácia da taxa base é tão enganadora neste exemplo porque há muito mais não-terroristas do que terroristas, e o número de falsos positivos (não-terroristas analisados como terroristas) é muito maior do que os verdadeiros positivos (terroristas analisados como terroristas).

Vários profissionais argumentaram que, como a taxa básica de terrorismo é extremamente baixa, o uso de mineração de dados e algoritmos preditivos para identificar terroristas não pode funcionar de forma viável devido ao paradoxo dos falso positivos.[9][10][11][12] As estimativas do número de falsos positivos para cada resultado preciso variam de mais de dez mil[12] a um bilhão;[10] conseqüentemente, investigar cada pista seria proibitivo tanto em termos de custo quanto de tempo.[9][11] O nível de precisão necessário para tornar estes modelos viáveis é provavelmente inatingível. Acima de tudo, a baixa taxa base de terrorismo também significa que há falta de dados para criar um algoritmo preciso.[11] Além disso, no contexto da detecção do terrorismo, os falsos negativos são altamente indesejáveis e, portanto, devem ser minimizados tanto quanto possível; no entanto, isto requer aumentar a sensibilidade à custa da especificidade, aumentando os falsos positivos.[12] É também questionável se a utilização de tais modelos pelas autoridades responsáveis pela aplicação da lei cumpriria o ônus da prova exigido, uma vez que mais de 99% dos resultados seriam falsos positivos.[12]

Exemplo 4: teste biológico de um suspeito

[editar | editar código-fonte]

Um crime é cometido. A análise forense determina que o criminoso tem um determinado tipo sanguíneo compartilhado por 10% da população. Um suspeito é preso e descobre-se que tem o mesmo tipo sanguíneo.

Um promotor pode acusar o suspeito do crime apenas com base nisso e alegar no julgamento que a probabilidade de o réu ser culpado é de 90%. No entanto, esta conclusão só chega perto de estar correta se o acusado tiver sido selecionado como o principal suspeito com base em provas robustas descobertas antes do exame de sangue e não relacionadas com o mesmo. Caso contrário, o raciocínio apresentado é falho, pois ignora a probabilidade a priori (isto é, antes do exame de sangue) de que ele seja uma pessoa inocente aleatória. Suponha, por exemplo, que 1.000 pessoas vivam na cidade onde ocorreu o crime. Isso significa que vivem lá 100 pessoas que têm o tipo sanguíneo do perpetrador, das quais apenas uma é o verdadeiro perpetrador; portanto, a verdadeira probabilidade de o arguido ser culpado – baseada apenas no facto de o seu tipo sanguíneo corresponder ao do assassino – é de apenas 1%, muito menos do que os 90% alegados pelo promotor.

A falácia do promotor envolve assumir que a probabilidade a priori de uma correspondência aleatória é igual à probabilidade de o réu ser inocente. Ao utilizá-lo, um promotor interrogando um perito pode perguntar: "As chances de encontrar esta prova sobre um homem inocente são tão pequenas que o júri pode desconsiderar com segurança a possibilidade de que este réu seja inocente, correto?"[13] A alegação assume que a probabilidade de que sejam encontradas provas sobre um homem inocente é a mesma que a probabilidade de que um homem seja inocente, dado que foram encontradas provas sobre ele, o que não é verdade. Enquanto a primeira é normalmente pequena (10% no exemplo anterior) devido a bons procedimentos de prova forense, a segunda (99% nesse exemplo) não se relaciona diretamente com ela e será muitas vezes muito superior, uma vez que, na verdade, depende nas probabilidades a priori bastante altas de o réu ser uma pessoa inocente aleatória.

Exemplos no direito

[editar | editar código-fonte]

Julgamento de OJ Simpson

[editar | editar código-fonte]

O. J. Simpson foi julgado e absolvido em 1995 pelos assassinatos de sua ex-esposa Nicole Brown Simpson e de seu amigo Ronald Goldman.

O sangue da cena do crime correspondia ao de Simpson, com características compartilhadas por 1 em cada 400 pessoas. No entanto, a defesa argumentou que um estádio de futebol poderia ser preenchido com angelenos que correspondessem à amostra e que o número de 1 em 400 era inútil.[14][15] Teria sido incorreto, e um exemplo de falácia do promotor, basear-se apenas no número “1 em 400” para deduzir que uma determinada pessoa que correspondesse à amostra seria provavelmente a culpada.

Árvore de frequência de 100.000 mulheres americanas espancadas mostrando a falácia do promotor no julgamento de O. J. Simpson por assassinato

No mesmo julgamento, a acusação apresentou provas de que Simpson tinha sido violento com a sua esposa. A defesa argumentou que houve apenas uma mulher assassinada para cada 2.500 mulheres submetidas a abuso conjugal e que qualquer histórico de violência de Simpson contra sua esposa era irrelevante para o julgamento. Contudo, o raciocínio por trás do cálculo da defesa era falacioso. Segundo o autor Gerd Gigerenzer, a probabilidade correta requer contexto adicional: a esposa de Simpson não só foi submetida à violência doméstica, mas também submetida à violência doméstica (por Simpson) e morta (por alguém). Gigerenzer escreve "as chances de um agressor realmente ter assassinado sua parceira, visto que ela foi morta, são de cerca de 8 em 9 ou aproximadamente 90%".[16] Embora a maioria dos casos de abuso conjugal não termine em homicídio, na maioria dos casos de homicídio em que existe um histórico de abuso conjugal ele foi cometido pelo cônjuge.

Caso Sally Clark

[editar | editar código-fonte]

Sally Clark, uma mulher britânica, foi acusada em 1998 de ter matado o seu primeiro filho com 11 semanas de idade e depois o seu segundo filho com 8 semanas de idade. A acusação fez com que o perito Sir Roy Meadow, professor e pediatra consultor,[17] testemunhasse que a probabilidade de duas crianças na mesma família morrerem de SMSI é de cerca de 1 em 73 milhões. Isso foi muito menos frequente do que a taxa real medida em dados históricos – Meadow estimou-o a partir de dados de mortes únicas por SMSI e da suposição de que a probabilidade de tais mortes deveria ser não correlacionada entre os bebês.[18]

Meadow reconheceu que 1 em 73 milhões não é uma impossibilidade, mas argumentou que tais acidentes aconteceriam “uma vez a cada cem anos” e que, num país de 15 milhões de famílias com 2 crianças, é muito mais provável que mortes duplas sejam devidas à síndrome de Münchausen por procuração do que a um acidente tão raro. No entanto, há boas razões para supor que a probabilidade de morte por SMSI numa família é significativamente maior se um filho anterior já tiver morrido nestas circunstâncias (uma predisposição genética para SMSI provavelmente invalidará essa suposta independência estatística[19]). tornando algumas famílias mais susceptíveis à SMSI e o erro um resultado da falácia ecológica.[20] A probabilidade de duas mortes por SMSI na mesma família não pode ser estimada corretamente através do quadrado da probabilidade de uma única morte em todas as famílias semelhantes.[21]

Uma estimativa de 1 em 73 milhões subestima em muito a probabilidade de dois acidentes sucessivos, mas, mesmo que essa estimativa fosse precisa, o tribunal parece ter ignorado o fato de que o número de 1 em 73 milhões não significava nada por si só. Como probabilidade a priori, deveria ter sido ponderada em relação às probabilidades a priori das alternativas. Dado que ocorreram duas mortes, uma das seguintes explicações deve ser verdadeira, e todas elas são extremamente improváveis a priori:

  1. Duas mortes sucessivas na mesma família, ambas por SMSI
  2. Duplo homicídio (o caso da promotoria)
  3. Outras possibilidades (incluindo um homicídio e um caso de SMSI)

Não está claro se uma estimativa da probabilidade para a segunda possibilidade chegou a ser proposta durante o julgamento, ou se a comparação das duas primeiras probabilidades foi entendida como a principal estimativa a ser feita na análise estatística que avalia o caso da acusação contra o caso de inocência.

Clark foi condenado em 1999, resultando em um comunicado de imprensa da Royal Statistical Society que apontou os erros.[22]

Em 2002, Ray Hill (professor de matemática em Salford) tentou comparar com precisão as chances destas duas explicações possíveis; ele concluiu que acidentes sucessivos são entre 4,5 e 9 vezes mais prováveis do que assassinatos sucessivos, de modo que as chances a priori de Clark ser culpado estavam entre 4,5 para 1 e 9 para 1 contra.[23]

Depois que o tribunal concluiu que o patologista forense que examinou os dois bebês havia retido provas de defesa, um tribunal superior posteriormente anulou a condenação de Clark, em 29 de janeiro de 2003.[24]

Descobertas em psicologia

[editar | editar código-fonte]

Em experimentos, descobriu-se que as pessoas preferem informações individualizadas a informações gerais, quando as primeiras estão disponíveis.[25][26][27]

Em alguns experimentos, pediu-se a estudantes que estimassem as médias de notas (GPAs) de alunos hipotéticos. Quando recebiam estatísticas relevantes sobre a distribuição de GPA, os alunos tendiam a ignorá-las se recebessem informações descritivas sobre o estudante em particular, mesmo que a nova informação descritiva fosse obviamente de pouca ou nenhuma relevância para o desempenho escolar.[26] Esta descoberta tem sido usada para argumentar que as entrevistas são uma parte desnecessária do processo de admissão ao ensino superior porque os entrevistadores são incapazes de escolher os candidatos aprovados melhor do que as estatísticas básicas.

Os psicólogos Daniel Kahneman e Amos Tversky tentaram explicar esta descoberta em termos de uma regra ou “heurística" simples chamada de representatividade. Eles argumentaram que muitos julgamentos relativos à probabilidade, ou à causa e efeito, baseiam-se no quão representativa uma coisa é de outra, ou de uma categoria.[26] Kahneman considera a negligência da taxa base uma forma específica de negligência da extensão.[28] Richard Nisbett argumentou que alguns preconceitos de atribuição, como o erro fundamental de atribuição, são exemplos da falácia da taxa base: as pessoas não usam as "informações de consenso" (a "taxa base") sobre como os outros se comportaram em situações semelhantes e, em vez disso, preferem atribuições disposicionais mais simples.[29]

Há um debate considerável na psicologia sobre as condições sob as quais as pessoas apreciam ou não as informações sobre taxas básicas.[30][31] Os investigadores do programa de heurísticas e preconceitos reforçaram conclusões empíricas que mostram que as pessoas tendem a ignorar as taxas de base e a fazer inferências que violam certas normas de raciocínio probabilístico, como o teorema de Bayes. A conclusão tirada desta linha de pesquisa foi que o pensamento probabilístico humano é fundamentalmente falho e sujeito a erros.[32] Outros investigadores enfatizaram a ligação entre processos cognitivos e formatos de informação, argumentando que tais conclusões geralmente não são justificadas.[33][34]

Considere novamente o exemplo 2 acima. A inferência necessária é estimar a probabilidade (posterior) de que um motorista (escolhido aleatoriamente) esteja bêbado, dado que o teste do bafômetro é positivo. Formalmente, esta probabilidade pode ser calculada utilizando o teorema de Bayes, conforme mostrado acima. No entanto, existem diferentes formas de apresentar as informações relevantes. Considere a seguinte variante formalmente equivalente do problema:

 1 em cada 1.000 motoristas dirige bêbado. Os bafômetros nunca deixam de detectar uma pessoa verdadeiramente bêbada. Para 50 dos 999 motoristas que não estão bêbados, o bafômetro indica falsamente embriaguez. Suponha que os policiais parem um motorista aleatoriamente e o obriguem a fazer o teste do bafômetro. Ele indica que estão bêbados. Presumimos que você não saiba mais nada sobre eles. Qual é a probabilidade de eles realmente estarem bêbados?

Neste caso, as informações numéricas relevantes - p(bêbado), p(B|bêbado), p(B|sóbrio) - são apresentada em termos de frequências naturais em relação a uma determinada classe de referência (ver problema de classe de referência). Estudos empíricos mostram que as inferências das pessoas correspondem mais de perto à regra de Bayes quando a informação é apresentada desta forma, ajudando a superar a falácia da taxa base por parte de leigos[34] e especialistas.[35] Como consequência, organizações como a Colaboração Cochrane recomendam a utilização deste tipo de formato para comunicar estatísticas de saúde.[36] Ensinar as pessoas a traduzir esses tipos de problemas de raciocínio bayesiano em formatos de frequência natural é mais eficaz do que simplesmente ensiná-las a inserir probabilidades (ou porcentagens) no teorema de Bayes.[37] Também foi demonstrado que representações gráficas de frequências naturais (por exemplo, matrizes de ícones, gráficos de resultados hipotéticos) ajudam as pessoas a fazer melhores inferências.[37][38][39][40]

Por que os formatos de frequência natural são úteis? Uma razão importante é que este formato de informação facilita a inferência necessária porque simplifica os cálculos necessários. Isso pode ser visto ao usar uma forma alternativa de calcular a probabilidade necessária p(bêbado|B):

onde N(bêbado ∩ B) denota o número de motoristas que estão bêbados e obtiveram resultado positivo no bafômetro, e N(B) denota o número total de casos com resultado positivo no bafômetro. A equivalência desta equação com a anterior decorre dos axiomas da teoria das probabilidades, segundo os quais N (bêbado ∩ B) = N × p (B | bêbado) × p (bêbado). É importante ressaltar que embora esta equação seja formalmente equivalente à regra de Bayes, não é psicologicamente equivalente. O uso de frequências naturais simplifica a inferência porque a operação matemática necessária pode ser realizada com números naturais, em vez de frações normalizadas (ou seja, probabilidades), porque torna o alto número de falsos positivos mais transparente e porque as frequências naturais exibem uma "estrutura de conjunto aninhado".[41][42]

Nem todo formato de frequência facilita o raciocínio bayesiano.[42][43] As frequências naturais referem-se às informações de frequência resultantes da amostragem natural,[44] que preserva as informações da taxa base (por exemplo, número de motoristas bêbados ao coletar uma amostra aleatória de motoristas). Isto é diferente da amostragem sistemática, em que as taxas básicas são fixadas a priori (por exemplo, em experimentos científicos). Neste último caso não é possível inferir a probabilidade posterior p (bêbado | teste positivo) comparando o número de motoristas que estão bêbados e com teste positivo em relação ao número total de pessoas que obtêm resultado positivo no bafômetro, pois as informações da taxa base não são preservadas e devem ser reintroduzidas explicitamente usando o teorema de Bayes.

  1. «COVID-19 Cases, Hospitalizations, and Deaths by Vaccination Status» (PDF). Washington State Department of Health. 18 de janeiro de 2023. Consultado em 14 de fevereiro de 2023. Arquivado do original (PDF) em 26 de janeiro de 2023 
  2. Welsh, Matthew B.; Navarro, Daniel J. (2012). «Seeing is believing: Priors, trust, and base rate neglect». Organizational Behavior and Human Decision Processes. 119 (1): 1–14. ISSN 0749-5978. doi:10.1016/j.obhdp.2012.04.001 
  3. «Logical Fallacy: The Base Rate Fallacy». Fallacyfiles.org. Consultado em 15 de junho de 2013 
  4. Thompson, W.C.; Schumann, E.L. (1987). «Interpretation of Statistical Evidence in Criminal Trials: The Prosecutor's Fallacy and the Defense Attorney's Fallacy». Law and Human Behavior. 2 (3): 167. JSTOR 1393631. doi:10.1007/BF01044641 
  5. Fountain, John; Gunby, Philip (fevereiro de 2010). «Ambiguity, the Certainty Illusion, and Gigerenzer's Natural Frequency Approach to Reasoning with Inverse Probabilities» (PDF). University of Canterbury. p. 6 [ligação inativa] 
  6. Suss, Richard A. (4 de outubro de 2023). «The Prosecutor's Fallacy Framed as a Sample Space Substitution». OSF Preprints (em inglês). doi:10.31219/osf.io/cs248 
  7. Rheinfurth, M. H.; Howell, L. W. (março de 1998). Probability and Statistics in Aerospace Engineering. [S.l.]: NASA 
  8. a b Vacher, H. L. (maio de 2003). «Quantitative literacy - drug testing, cancer screening, and the identification of igneous rocks». Journal of Geoscience Education: 2  - Citing: Gonick, L.; Smith, W. (1993). The cartoon guide to statistics. New York: Harper Collins 
  9. a b Munk, Timme Bisgaard (1 de setembro de 2017). «100,000 false positives for every real terrorist: Why anti-terror algorithms don't work». First Monday. 22 (9). doi:10.5210/fm.v22i9.7126Acessível livremente 
  10. a b Schneier, Bruce. «Why Data Mining Won't Stop Terror». Wired (em inglês). ISSN 1059-1028. Consultado em 30 de agosto de 2022 
  11. a b c Jonas, Jeff; Harper, Jim (11 de dezembro de 2006). «Effective Counterterrorism and the Limited Role of Predictive Data Mining». CATO Institute. Consultado em 30 de agosto de 2022 
  12. a b c d Sageman, Marc (17 de fevereiro de 2021). «The Implication of Terrorism's Extremely Low Base Rate». Terrorism and Political Violence. 33 (2): 302–311. ISSN 0954-6553. doi:10.1080/09546553.2021.1880226 
  13. Fenton, Norman; Neil, Martin; Berger, Daniel (junho de 2016). «Bayes and the Law». Annual Review of Statistics and Its Application. 3 (1): 51–77. Bibcode:2016AnRSA...3...51F. PMC 4934658Acessível livremente. PMID 27398389. doi:10.1146/annurev-statistics-041715-033428 
  14. Robertson, B., & Vignaux, G. A. (1995). Interpreting evidence: Evaluating forensic evidence in the courtroom. Chichester: John Wiley and Sons.
  15. Rossmo, D. Kim (2009). Criminal Investigative Failures. CRC Press Taylor & Francis Group.
  16. Gigerenzer, G., Reckoning with Risk: Learning to Live with Uncertainty, Penguin, (2003)
  17. «Resolution adopted by the Senate (21 October 1998) on the retirement of Professor Sir Roy Meadow». Reporter (428). University of Leeds. 30 de novembro de 1998. Consultado em 17 de outubro de 2015. Arquivado do original em 16 de abril de 2016 
  18. The population-wide probability of a SIDS fatality was about 1 in 1,303; Meadow generated his 1-in-73 million estimate from the lesser probability of SIDS death in the Clark household, which had lower risk factors (e.g. non-smoking). In this sub-population he estimated the probability of a single death at 1 in 8,500. See: Joyce, H. (setembro de 2002). «Beyond reasonable doubt» (pdf). plus.maths.org. Consultado em 12 de junho de 2010 . Professor Ray Hill questioned even this first step (1/8,500 vs 1/1,300) in two ways: firstly, on the grounds that it was biased, excluding those factors that increased risk (especially that both children were boys) and (more importantly) because reductions in SIDS risk factors will proportionately reduce murder risk factors, so that the relative frequencies of Münchausen syndrome by proxy and SIDS will remain in the same ratio as in the general population: Hill, Ray (2002). «Cot Death or Murder? – Weighing the Probabilities» 
  19. Sweeney, John; Law, Bill (15 de julho de 2001). «Gene find casts doubt on double 'cot death' murders». The Observer. Cópia arquivada em 11 de julho de 2012 
  20. Vincent Scheurer. «Convicted on Statistics?». Consultado em 21 de maio de 2010 
  21. Hill, R. (2004). «Multiple sudden infant deaths – coincidence or beyond coincidence?» (PDF). Paediatric and Perinatal Epidemiology. 18 (5): 321. PMID 15367318. doi:10.1111/j.1365-3016.2004.00560.x. Consultado em 13 de junho de 2010. Cópia arquivada (PDF) em 30 de agosto de 2012 
  22. «Royal Statistical Society concerned by issues raised in Sally Clark case» (PDF). 23 de outubro de 2001. Arquivado do original (PDF) em 24 de agosto de 2011 
  23. The uncertainty in this range is mainly driven by uncertainty in the likelihood of killing a second child, having killed a first, see: Hill, R. (2004). «Multiple sudden infant deaths – coincidence or beyond coincidence?» (PDF). Paediatric and Perinatal Epidemiology. 18 (5): 322–323. PMID 15367318. doi:10.1111/j.1365-3016.2004.00560.x. Consultado em 13 de junho de 2010. Cópia arquivada (PDF) em 30 de agosto de 2012 
  24. «R v Clark. [2003] EWCA Crim 1020 (11 April 2003)». www.bailii.org 
  25. Bar-Hillel, Maya (1980). «The base-rate fallacy in probability judgments» (PDF). Acta Psychologica. 44 (3): 211–233. doi:10.1016/0001-6918(80)90046-3 
  26. a b c Kahneman, Daniel; Amos Tversky (1973). «On the psychology of prediction». Psychological Review. 80 (4): 237–251. doi:10.1037/h0034747 
  27. Kahneman, Daniel; Amos Tversky (1985). «Evidential impact of base rates». In: Daniel Kahneman, Paul Slovic & Amos Tversky. Judgment under uncertainty: Heuristics and biases. 185. [S.l.: s.n.] pp. 153–160. Bibcode:1974Sci...185.1124T. PMID 17835457. doi:10.1126/science.185.4157.1124 
  28. Kahneman, Daniel (2000). «Evaluation by moments, past and future». In: Daniel Kahneman and Amos Tversky. Choices, Values and Frames. [S.l.: s.n.] ISBN 0-521-62749-4 
  29. Nisbett, Richard E.; E. Borgida; R. Crandall; H. Reed (1976). «Popular induction: Information is not always informative». In: J. S. Carroll & J. W. Payne. Cognition and social behavior. 2. [S.l.]: John Wiley & Sons, Incorporated. pp. 227–236. ISBN 0-470-99007-4 
  30. Koehler, J. J. (2010). «The base rate fallacy reconsidered: Descriptive, normative, and methodological challenges». Behavioral and Brain Sciences. 19: 1–17. doi:10.1017/S0140525X00041157 
  31. Barbey, A. K.; Sloman, S. A. (2007). «Base-rate respect: From ecological rationality to dual processes». Behavioral and Brain Sciences. 30 (3): 241–254; discussion 255–297. PMID 17963533. doi:10.1017/S0140525X07001653 
  32. Tversky, A.; Kahneman, D. (1974). «Judgment under Uncertainty: Heuristics and Biases». Science. 185 (4157): 1124–1131. Bibcode:1974Sci...185.1124T. PMID 17835457. doi:10.1126/science.185.4157.1124 
  33. Cosmides, Leda; John Tooby (1996). «Are humans good intuitive statisticians after all? Rethinking some conclusions of the literature on judgment under uncertainty». Cognition. 58: 1–73. CiteSeerX 10.1.1.131.8290Acessível livremente. doi:10.1016/0010-0277(95)00664-8 
  34. a b Gigerenzer, G.; Hoffrage, U. (1995). «How to improve Bayesian reasoning without instruction: Frequency formats». Psychological Review. 102 (4): 684. CiteSeerX 10.1.1.128.3201Acessível livremente. doi:10.1037/0033-295X.102.4.684 
  35. Hoffrage, U.; Lindsey, S.; Hertwig, R.; Gigerenzer, G. (2000). «Medicine: Communicating Statistical Information». Science. 290 (5500): 2261–2262. PMID 11188724. doi:10.1126/science.290.5500.2261 
  36. Akl, E. A.; Oxman, A. D.; Herrin, J.; Vist, G. E.; Terrenato, I.; Sperati, F.; Costiniuk, C.; Blank, D.; Schünemann, H. (2011). Holger, Schünemann, ed. «Using alternative statistical formats for presenting risks and risk reductions». The Cochrane Database of Systematic Reviews. 2011 (3): CD006776. PMC 6464912Acessível livremente. PMID 21412897. doi:10.1002/14651858.CD006776.pub2 
  37. a b Sedlmeier, P.; Gigerenzer, G. (2001). «Teaching Bayesian reasoning in less than two hours». Journal of Experimental Psychology: General. 130 (3): 380–400. PMID 11561916. doi:10.1037/0096-3445.130.3.380 
  38. Brase, G. L. (2009). «Pictorial representations in statistical reasoning». Applied Cognitive Psychology. 23 (3): 369–381. doi:10.1002/acp.1460 
  39. Edwards, A.; Elwyn, G.; Mulley, A. (2002). «Explaining risks: Turning numerical data into meaningful pictures». BMJ. 324 (7341): 827–830. PMC 1122766Acessível livremente. PMID 11934777. doi:10.1136/bmj.324.7341.827 
  40. Kim, Yea-Seul; Walls, Logan A.; Krafft, Peter; Hullman, Jessica (2 de maio de 2019). «A Bayesian Cognition Approach to Improve Data Visualization». Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. [S.l.: s.n.] pp. 1–14. ISBN 9781450359702. arXiv:1901.02949Acessível livremente. doi:10.1145/3290605.3300912 
  41. Girotto, V.; Gonzalez, M. (2001). «Solving probabilistic and statistical problems: A matter of information structure and question form». Cognition. 78 (3): 247–276. PMID 11124351. doi:10.1016/S0010-0277(00)00133-5 
  42. a b Hoffrage, U.; Gigerenzer, G.; Krauss, S.; Martignon, L. (2002). «Representation facilitates reasoning: What natural frequencies are and what they are not». Cognition. 84 (3): 343–352. PMID 12044739. doi:10.1016/S0010-0277(02)00050-1 
  43. Gigerenzer, G.; Hoffrage, U. (1999). «Overcoming difficulties in Bayesian reasoning: A reply to Lewis and Keren (1999) and Mellers and McGraw (1999)». Psychological Review. 106 (2). 425 páginas. doi:10.1037/0033-295X.106.2.425 
  44. Kleiter, G. D. (1994). «Natural Sampling: Rationality without Base Rates». Contributions to Mathematical Psychology, Psychometrics, and Methodology. Col: Recent Research in Psychology. [S.l.: s.n.] pp. 375–388. ISBN 978-0-387-94169-1. doi:10.1007/978-1-4612-4308-3_27 

Ligações externas

[editar | editar código-fonte]