Konfirmační zkreslení

Konfirmační zkreslení (někdy též potvrzovací zkreslení, z anglického confirmation bias) je sociálně-psychologický pojem, který popisuje tendenci člověka upřednostňovat ty informace, interpretace a vzpomínky, které podporují jeho vlastní názor, a naopak ignorovat nebo podceňovat ty, které jsou v rozporu s jeho přesvědčením nebo pohledem na věc. Dále tendence vykládat nejednoznačné informace tak, aby byly v souladu s názorem toho kdo je posuzuje (subjektivní pravděpodobnost). Je to druh kognitivního zkreslení a častý důvod chybného uvažování. K takovému zkreslení dochází i u abstraktních záležitostí, které nevyžadují názor.[1] Účinek potvrzovacího zkreslení je silnější u emočně podbarvených záležitostí a u silně zakořeněných názorů. Potvrzovací zkreslení se vztahuje i na paměť (člověk si lépe pamatuje to, co je v souladu s jeho názory) a na oblibu ostatních lidí a informačních zdrojů (člověk upřednostňuje ty, kteří/které podporují jeho přesvědčení).

Pokud jsme si na něco udělali názor a bezmezně tomu věříme, bezděky vyhledáváme informace, které tento názor potvrzují. Konfirmační zkreslení je tedy také tendence vyhledávat fakta, která potvrzují náš názor. David McRaney například poznamenává: „Vaše názory jsou výsledkem mnoha let, kdy jste pozornost věnovali pouze informacím, které vás utvrzovaly ve vašem přesvědčení, a zároveň zcela ignorovali ty, které nabourávaly vaše předem vytvořené dojmy a představy.

Příkladem může být nákupní chování občanů USA na Amazonu v době před prezidentskými volbami v roce 2008. Badatel Valdis Krebs zjistil, že lidé, kteří již byli rozhodnuti podporovat Obamu, nakupovali knihy, ve kterých se Obama ukazoval v pozitivním světle. Lidé, kteří však byli odpůrci Obamy, naopak kupovali knihy, které jej představovaly v negativním světle. Lidé si tedy kupovali knihy, které potvrzovaly jejich stávající názor.

Tendenci lidí favorizovat své stávající názory dokázaly psychologické experimenty[kdo?] v 60. letech 20. století. Pozdější výzkum ukázal, že je to způsobeno i tendencí lidí testovat ideje jednostranně, tedy soustředit se jen na jednu možnost a ignorovat alternativy, což je může vést k nesprávným závěrům. Další možná vysvětlení potvrzovacího zkreslení zahrnují omezenost lidské schopnosti zpracovávat informace, myšlení ve stylu „přání otcem myšlenky“ (wishful thinking) a to, že lidé započítávají jako náklad možnost, že by se mýlili, takže nepřemýšlejí nestranně.

Chybná rozhodnutí zapříčiněna konfirmačním zkreslením byla nalezena v široké škále politických, organizačních, finančních a vědeckých kontextů. Tato zkreslení přispívají k efektu nadměrné sebedůvěry v osobních přesvědčeních a mohou zanechat či posílit přesvědčení jedince navzdory protichůdným důkazům. Konfirmační zkreslení vyvolává systematické chyby ve vědeckých výzkumech založených na logické indukci (postupné shromažďování dílčích poznatků). Policejní detektiv by mohl identifikovat podezřelého na samém začátku vyšetřování a poté by vyhledával jen utvrzující důkazy a vyhýbal by se těm vyvracejícím. Lékař by se také mohl předčasně zaměřit na potvrzení určité choroby na začátku diagnostického procesu a nadále by vyhledával spíše potvrzující příznaky. Na sociálních médiích je konfirmační zkreslení umocněné sociálními bublinami, či „algoritmickými úpravami“, které jedincům ukazují jen obsah, se kterým budou pravděpodobně souhlasit a protichůdné názory uživatelům nenabízí.

Definice a kontext

[editovat | editovat zdroj]

Konfirmační zkreslení, slovní spojení vytvořené anglickým psychologem Peterem Wasonem, je "tendence upřednostňovat informace, které potvrzují nebo podporují lidská přesvědčení a hodnoty, a jakmile si je jedinec o svém názoru jistý, není lehké jej vyvrátit".[2]

Konfirmační zkreslení jsou vlivné při zpracování informací. Odlišují se od takzvaného behaviorálního potvrzovacího efektu, také známého jako sebenaplňující předpověď, u které očekávání ovlivní vlastní chování a přinese očekávaný výsledek.[3]

Někteří psychologové termín „konfirmační zkreslení“ omezují pouze na vybranou skupinu důkazů, které potvrzují to, čemu už člověk věří, zatímco ignoruje nebo zamítá důkazy, které potvrzují jiný závěr. Jiní tento termín aplikují k tendenci více všeobecně, aby zachovali existující přesvědčení člověka, když se vyhledávají důkazy, vykládají a zapomíná se na ně.[4] Konfirmační zkreslení je spíše výsledkem automatických, neúmyslných strategií než záměrného klamání.[5][6]

Konfirmačnímu zkreslení se věnovala spousta psychologů a vědců. Princip byl vždy víceméně stejný. Výzkumníci předložili skupině lidí falešné studie a sledovali, jak se jejich názor změnil či nezměnil, a jak na téma nahlíželi v souvislosti s tím, jak bylo podáno.

Příklady:

  • Charles G. Lord, Lee Ross, Mark R. Lepper: Biased Assimilation and Attitude Polarization: The Effects of Prior Theories on Subsequently Considered Evidence (1979) [1] Archivováno 23. 4. 2016 na Wayback Machine.
  • Charles S. Tauber, Milton Lodge: Motivated Skepticism in the Evaluation of Political Beliefs (2006) [2] Archivováno 9. 4. 2016 na Wayback Machine.
  • Craig A. Anderson, Mark. R. Lepper, Lee Ross: Perseverance of Social Theories: The Role of Explanation in the Persistence of Discredited Information [3] Archivováno 26. 1. 2017 na Wayback Machine.
  • Wasonova selekční úloha [4] Archivováno 22. 4. 2016 na Wayback Machine.

Důsledkem potvrzovacího zkreslení je přehnaná důvěra ve vlastní názory a možnost, že člověk své názory zachová nebo dokonce posílí, i když se setká s důkazem, který je vyvrací.

Dopady konfirmačního zkreslení v reálném světě

[editovat | editovat zdroj]

Sociální sítě

[editovat | editovat zdroj]

Na sociálních sítích je konfirmační zkreslení umocněno sociálními bublinami, či „algoritmickými úpravami“, které uživatelům nabízejí pouze informace, se kterými pravděpodobně budou souhlasit, a opačné pohledy nezobrazují.[7] Někteří tvrdí, že právě kvůli konfirmačnímu zkreslení nemůže společnost uniknout sociálním bublinám, protože jedinci v sobě mají zakořeněné tendence hledat informace, které souhlasí s jejich hodnotami a názory.[8] Jiní zase tvrdí, že tato kombinace podkopává demokracii – tyto „algoritmické úpravy“ údajně odstraňují různorodé názory a informace – a pokud se algoritmy sociálních bublin neodstraní, tak voliči nebudou schopni činit plně informovaná politická rozhodnutí.[9][7]

Vzestup sociálních sítí značně přispěl k rapidnímu rozšíření fake news, tedy nepravdivým a zavádějícím informacím, které jsou prezentovány jako důvěryhodné zprávy ze zdánlivě spolehlivých zdrojů. Konfirmační zkreslení (výběr a výklad důkazů k potvrzení vlastních názorů) je jedna ze tří hlavních překážek, o kterých se mluví ve spojení s neúspěšným kritickým myšlením. Další dvě jsou heuristické zkratky (pokud jsou lidé přehlceni nebo pod časovým tlakem, spoléhají se na jednoduché volby, například skupinový konsenzus nebo víra v odborníka či jiný vzor) a společenské cíle (podnět od společnosti nebo nátlak vrstevníků mohou překážet objektivní analýze i dostupným faktům).[10]

Stránky sociálních sítí zvažují, ve spojitosti s šířením fake news, uchýlení se k „digitálním nudgingu“ („nudging“ lze přeložit jako „postrčení“).[11] Aktuálně existují dvě formy nudgingu, tedy informační a prezentační. Informační nudging spočívá v tom, že sociální sítě poskytnou upozornění nebo štítek, který varuje uživatele ohledně validity zdroje, zatímco prezentační nudging uživatelům ukazuje nové informace, které by nevyhledávali, ale představí jim názory, které mohou odhalit jejich konfirmační zkreslení.[12]

Věda a vědecký výzkum

[editovat | editovat zdroj]

Vyhledávání potvrzovacích a podpůrných (logická indukce) či vyvracejících důkazů (dedukce) je rozpoznávací prvek vědeckého myšlení.[13][14]

Vědci se v průběhu dějin vědy mnohokrát bránili novým objevům tím, že si selektivně vysvětlovali nebo ignorovali nehodící se data.[15] Několik studií ukazuje, že vědci mnohem příznivěji hodnotí ty studie, které informují o závěrech odpovídajících jejich předešlým názorům než ty, které odpovídají méně.[6][16][17]

Nicméně pokud je výzkumná otázka relevantní, experimentální návrh dostatečný a data jsou jasně a pochopitelně vysvětlena, získaná empirická data by měla být pro vědeckou komunitu důležitá a nemělo by se na ně pohlížet s předsudky, nehledě na to, zda odpovídají teoretickým predikcím.[17] V praxi se stává, že výzkumníci nepochopí špatně porozumí nebo si mylně vyloží studie, které jsou v rozporu s jejich předem utvořenými úsudky, nebo je chybně odcitují a poté působí jako zdroje, které podporují jejich výroky.[18]

Konfirmační zkreslení také mohou podporovat vědecké teorie nebo výzkumné programy tváří v tvář nedostačeným nebo dokonce protichůdným důkazům.[19][20] Jako příklad se často uvádí vědní obor parapsychologie.[21]

Konfirmační zkreslení experimentátora může mít dopad na data, která jsou prezentována. Data, která jsou v rozporu s očekáváním experimentátora mohou být vyřazena jako nespolehlivá, tento jev bývá označován jako „efekt složky se soubory“ (více v článku Publikační zkreslení). Vědecká školení učí způsoby, jak se vyhnout předpojatosti vyhnout, aby této tendenci zabránilo.[22] Plánování experimentů randomizovaných řízených studií (spojených se systematickým přezkoumáním) se snaží minimalizovat zdroje předpojatosti.[22][23]

Společenský proces zvaný „peer review“ (recenzní řízení) se snaží zmírnit efekt předpojatosti jednotlivých vědců navzdory tomu, že samotný proces peer review může podléhat předpojatosti.[24][25][17][26][27] Konfirmační zkreslení může tedy mít neblahý vliv na objektivní hodnocení, které souvisí s nevyhovujícími výsledky, jelikož předpojatí jednotlivci mohou opačné názory považovat za slabé a nezatěžovat se jimi.[16] Vědečtí inovátoři se často setkávají s nesouhlasem od vědecké komunit a výzkum, který ukazuje kontroverzní výsledky často dostává ostrý peer review.[28]

Konfirmační zkreslení může navést investory k přehnanému sebevědomí, při kterém budou ignorovat důkazy, že je jejich strategie ztrátová.[29][30] Studie ukazují, že investoři na politických trzích s cennými papíry měli vyšší zisk, když nepodlehli předpojatosti. Účastníci, kteří si vyložili výkon kandidáta v debatě neutrálním způsobem, tak měli větší šanci na zisk.[31] Aby se vyhnuli efektu konfirmačního zkreslení, investoři si mohou zkusit osvojit protichůdný pohled „jen pro ujištění se“.[32] V jedné z těchto technik si představí, že jejich investice padly a pokládají si otázky, proč se to stalo.[29]

Lékařství a zdraví

[editovat | editovat zdroj]

Kognitivní zkreslení jsou důležité proměnné pro praktické i odborné lékaře v klinickém rozhodování. Konfirmační zkreslení a heuristika dostupnosti patří mezi dvě nejdůležitější. Praktický lékař může diagnostikovat pacienta během prohlídky a dále hledat potvrzující důkazy místo vyvracujících. Tato kognitivní chyba je částečně zapříčiněna dostupností důkazů o údajné chorobě, která se vyšetřuje. Pacient se může například o dané chorobě zmínit, nebo lékař v poslední době četl o chorobě v hojně diskutovaném článku. Základem této kognitivní zkratky či heuristiky je to, že lékař neuvažuje nad více možnostmi na základě důkazů, ale předčasně se chytne jediné příčiny.[33] Zkratky se často používají na pohotovosti, kde se musí dělat mnoho rozhodnutí pod časovým nátlakem. Potenciální míra selhání těchto kognitivních rozhodnutí musí být řízena osvětou o více než 30 kognitivních zkreslení, které se mohou vyskytnout, aby se mohly zavést patřičné strategie na zmírnění zkreslení.[34] Konfirmační zkreslení také může vést lékaře k vykonávání nepotřebných zákroků zapříčiněných tlakem od neoblomných pacientů.[35]

Psycholog Raymond Nickerson viní konfirmační zkreslení z neúčinných lékařských zákroků, které se po staletí používaly před příchodem medicíny založené na vědě. Pokud se pacient uzdravil, léčba se odborníky považovala za úspěšnou a nadále se nehledaly žádné alternativní vysvětlení, zda choroba už nedospěla konce svého přirozeného průběhu. V alternativní medicíně je zkreslená asimilace jedním z faktorů její moderní přitažlivosti. Její příznivci jsou ovlivněni anekdotickými důkazy a k důkazům vědeckým přistupují kriticky.[36][37][38]

Na začátku 60. let minulého století vyvinul Aaron T. Beck kognitivní terapii, která se stala populárním přístupem.[39] Podle Becka je zkreslené zpracovávání informací jedním z faktorů deprese.[40] Jeho přístup učí lidi zpracovávat důkazy nezaujatě, místo aby selektivně posilovali negativní postoje.[41] Bylo dokázáno, že také fobie a hypochondrie vykazují známky konfirmačního zkreslení u hrozivých informací.[42]

Politika, právo a policie

[editovat | editovat zdroj]

Nickerson argumentuje, že uvažování v soudních a politických kontextech je občas podvědomě zkreslené a upřednostňuje stanoviska, které soudci, porota či vláda předem zaujali.[15] Důkazy při soudním procesu před porotou mohou být velmi smíšené a členové poroty se často rozhodnou o verdiktu hned ze začátku procesu, a tak se opodstatněně očekává efekt polarizace postoje. V experimentech se simulovanými soudy se potvrdily predikce, že názory členů poroty se s příchodem nových důkazů stávají extrémnějšími.[43][44] Inkviziční i obžalovací trestní řízení soudu jsou ovlivněné konfirmačním zkreslením.[45]

Konfirmační zkreslení může být faktorem ve vytváření či prodlužování konfliktů, od emocionálních debat po války: tím, že si každá strana vyloží důkazy ve svůj prospěch, mohou nabýt přesvědčení, že jsou v silnější pozici.[41] Konfirmační zkreslení může také způsobit opomíjení či nepochopení znaků hrozícího či začínajícího konfliktu. Psychologové Stuart Sutherland a Thomas Kida tvrdili, že admirál amerického námořnictva Husband E. Kimmel vykazoval známky konfirmačního zkreslení, když zlehčoval první známky japonského útoku na Pearl Harbor.[19][46]

Dvacetiletá studie politických znalců od Philipa E. Tetlocka ukázala, že jejich předpovědi nebyly celkově lepší než náhoda. Tetlock rozdělil experty na „lišky“, které zastávaly různé hypotézy, a na „ježky“, kteří byli více dogmatičtí. Ježci byli obecně mnohem méně přesní. Tetlock jejich selhání odůvodnil konfirmačním zkreslením, přesněji na jejich neschopnost využívat nové informace, které vyvracely jejich stávající teorie.[47]

V policejním vyšetřování může vyšetřovatel identifikovat podezřelého ze začátku vyšetřování a nadále vyhledávat podpůrné nebo potvrzující důkazy, zatímco opomíjí nebo zlehčuje falšování důkazů.[48]

Sociální psychologie

[editovat | editovat zdroj]

Sociální psychologové rozlišují dvě tendence, jak lidé hledají nebo vysvětlují informace o sobě samých. Sebeverifikace je snaha upevnit mínění o sobě samém, zatímco sebevyvyšování je úsilí získat pozitivní zpětnou vazbu. Obě jsou spojené s konfirmačním zkreslením.[49] V experimentech, ve kterých lidé dostanou zpětnou vazbu, která je v rozporu s jejich vlastním míněním o sobě samých, mají menší tendenci jí věnovat pozornost nebo si ji pamatovat, než když dostanou sebeverifikační zpětnou vazbu.[50][51][52] Sníží vliv takových informací tím, že si je vyloží jako nespolehlivé.[50][53][54] Podobné experimenty ukázaly preference pozitivní zpětné vazby nad negativní i u lidí, kteří ji poskytují.[49]

Masové klamy

[editovat | editovat zdroj]

Konfirmační zkreslení může hrát klíčovou roli v šíření masových klamů. Čarodějnické procesy se často uvádí jako příklad.[55][56]

Dalším příkladem je epidemie důlků na předních sklech v Seattlu, při které byly neznámou příčinou poničena čelní skla. Jakmile se rozšířily zprávy o vlně poškozených skel, čím dál více lidí si kontrolovalo čelní skla a zjistili, že měli také poškozené sklo, a tak si potvrdili víru v údajnou epidemii. Čelní skla byla ovšem poškozena už dříve, ale škod si nikdo nevšímal, dokud se nezačala šířit tato mylná představa.[57]

Paranormální přesvědčení

[editovat | editovat zdroj]

Jeden z faktorů přitažlivosti věštění je to, že posluchači aplikují konfirmační zkreslení na výroky věštce, které sedí na jejich vlastní životy.[58] Tím, že věštec na každém sezení pronese velké množství neurčitých výroků, dává posluchači šanci najít si v nich shodu. Je to jedna z technik chladného čtení, během kterého může věštec pronést subjektivně působivé čtení bez toho, aby o klientovi něco předem věděl.[58] Vyšetřovatel James Randi porovnal přepis čtení a klientův zápis toho, co věštec řekl, a zjistil, že si klient převážně vybíral „zásahy“.[59]

Jako ohromující příklad konfirmačního zkreslení z reálného světa Nickerson zmiňuje numerologickou pyramidologii: praktiku, která hledá význam v proporcích egyptských pyramid.[15] Existuje mnoho měření délky, například Velké pyramidy v Gíze a mnoho možností, jak je kombinovat a ovlivnit. Tudíž je téměř nevyhnutelné, že lidé, kteří se na tyto čísla selektivně dívají, najdou povrchně působivé shody, například s rozměry Země.[15]

Náborové a výběrové řízení

[editovat | editovat zdroj]

Podvědomé kognitivní zkreslení (včetně konfirmačního zkreslení) v náborů zaměstnanců ovlivňuje přijímací rozhodování a může potenciálně zabránit rozmanitosti a začlenění na pracovišti. Existuje škála podvědomých zkreslení, které ovlivňují náborová rozhodnutí, ale konfirmační zkreslení je jedno z hlavních, především ve fázi pohovorů.[60] Dotazovatel často vybere kandidáta, který utvrzuje jejich vlastní názory, i když další kandidáti mají stejnou nebo lepší kvalifikaci.

Efekt zpětného rázu

[editovat | editovat zdroj]

Jedním z důsledků konfirmačního zkreslení je i efekt zpětného rázu (anglicky backfire effect), který způsobuje, že pokud jsme konfrontováni s důkazy, které jsou v konfliktu s našimi pohledy, máme tendenci držet se svých původních názorů ještě pevněji či je převést do ještě větších extrémů. Ve studii sledující dynamické procesy David Redlawsk (2002) zjistil, že subjekty, kterým byly předány negativní materiály na jimi preferovaného politického kandidáta, byly na konci experimentu ještě přesvědčenější o jeho podpoře.

Efekt pozorovali také Gollust, Lantz a Ubel (2009), když experimentálně ověřili, že oproti kontrolní skupině ti republikáni, kterým byl poskytnut podklad připisující převahu (prevalenci) diabetu 2. typu podmínkám v sousedství (úroveň sociálního zabezpečení), méně častěji podporovali politická opatření v oblasti veřejného zdraví zaměřená na sociální faktory (determinanty) zdraví (sociální pomoc).[61]

V tomto článku byl použit překlad textu z článku Confirmation bias na anglické Wikipedii.

  1. People show confirmation bias even about which way dots are moving. medicalxpress.com [online]. 2018-09-13 [cit. 2022-01-28]. Dostupné online. (anglicky) 
  2. Plous, Scott (1993), The psychology of judgment and decision making, McGraw-Hill, ISBN 978-0-07-050477-6, OCLC 26931106.
  3. Darley, John M.; Gross, Paget H. (2000), "A hypothesis-confirming bias in labelling effects".Stangor, Charles. Stereotypes and prejudice: essential readings, Psychology Press, s. 212, ISBN 978-0-86377-589-5, OCLC 42823720
  4. Risen, Jane; Gilovich, Thomas (2007), "Informal logical fallacies", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (eds.), Critical thinking in psychology, Cambridge University Press, s. 110–130, ISBN 978-0-521-60834-3, OCLC 69423179.
  5. Oswald, Margit E.; Grosjean, Stefan (2004), "Confirmation bias", in Pohl, Rüdiger F. (ed.), Cognitive illusions: A handbook on fallacies and biases in thinking, judgement and memory, Hove, UK: Psychology Press, s. 79–96, ISBN 978-1-84169-351-4, OCLC 55124398.
  6. a b Hergovich, Andreas; Schott, Reinhard; Burger, Christoph (2010), "Biased evaluation of abstracts depending on topic and conclusion: Further evidence of a confirmation bias within scientific psychology", Current Psychology, 29 (3): 188–209, doi:10.1007/s12144-010-9087-5, S2CID 145497196
  7. a b Pariser, Eli (březen 2011), "Ted talk: Beware online "filter bubbles"",TED: Ideas Worth Spreading, archivováno z originálu 22. září 2017.
  8. Self, Will (28. listopadu 2016), "Forget fake news on Facebook – the real filter bubble is you", NewStatesman, archivováno z originálu 11. listopadu 2017.
  9. Pariser, Eli (7. května 2015), "Did Facebook's big study kill my filter bubble thesis?", Wired, archivováno z originálu 11. listopadu 2017.
  10. Kendrick, Douglas T.; Cohen, Adam B.; Neuberg, Steven L.; Cialdini, Robert B. (2020), "The science of anti-science thinking", Scientific American, 29 (4, Fall, Special Issue): s.84–89.
  11. Weinmann, Markus; Schneider, Christoph; vom Brocke, Jan (2015), "Digital nudging", SSRN, Rochester, NY, doi:10.2139/ssrn.2708250, S2CID 219380211, SSRN 270825
  12. Thornhill, Calum; Meeus, Quentin; Peperkamp, Jeroen; Berendt, Bettina (2019), "A digital nudge to counter confirmation bias", Frontiers in Big Data, 2: 11, doi:10.3389/fdata.2019.00011, ISSN 2624-909X, PMC 7931917, PMID 33693334
  13. Mahoney, Michael J.; DeMonbreun, B.G. (1977), "Psychology of the scientist: An analysis of problem-solving bias", Cognitive Therapy and Research, 1 (3): 229–238, doi:10.1007/BF01186796, S2CID 9703186
  14. Mitroff, I. I. (1974), "Norms and counter-norms in a select group of the Apollo moon scientists: A case study of the ambivalence of scientists", American Sociological Review, 39 (4): 579–395, doi:10.2307/2094423, JSTOR 2094423
  15. a b c d Nickerson, Raymond S. (1998), "Confirmation bias: A ubiquitous phenomenon in many guises", Review of General Psychology, 2 (2): 175–220, doi:10.1037/1089-2680.2.2.175, S2CID 8508954
  16. a b Koehler, Jonathan J. (1993), "The influence of prior beliefs on scientific judgments of evidence quality", Organizational Behavior and Human Decision Processes, 56: 28–55, doi:10.1006/obhd.1993.1044.
  17. a b c Mahoney, Michael J. (1977), "Publication prejudices: An experimental study of confirmatory bias in the peer review system", Cognitive Therapy and Research, 1 (2): 161–175, doi:10.1007/BF01173636, S2CID 7350256.
  18. Letrud, Kåre; Hernes, Sigbjørn (2019), "Affirmative citation bias in scientific myth debunking: A three-in-one case study", PLOS ONE, 14 (9): e0222213, Bibcode:2019PLoSO..1422213L, doi:10.1371/journal.pone.0222213, PMC 6733478, PMID 31498834.
  19. a b Sutherland, Stuart (2007), Irrationality (2nd ed.), London: Pinter and Martin, pp. 95–103, ISBN 978-1-905177-07-3, OCLC 72151566.
  20. Ball, Phillip (14 May 2015), "The trouble with scientists: How one psychologist is tackling human biases in science", Nautilus, archivováno z originálu 7. října 2019.
  21. Sternberg, Robert J. (2007), "Critical thinking in psychology: It really is critical", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (eds.), Critical thinking in psychology, Cambridge University Press, p. 292, ISBN 978-0-521-60834-3, OCLC 69423179, Some of the worst examples of confirmation bias are in research on parapsychology ... Arguably, there is a whole field here with no powerful confirming data at all. But people want to believe, and so they find ways to believe.
  22. a b Shadish, William R. (2007), "Critical thinking in quasi-experimentation", in Sternberg, Robert J.; Roediger III, Henry L.; Halpern, Diane F. (eds.), Critical Thinking in Psychology, Cambridge University Press, p. 49, ISBN 978-0-521-60834-3.
  23. Jüni, P.; Altman, D.G.; Egger, M. (2001), "Systematic reviews in health care: Assessing the quality of controlled clinical trials", BMJ (Clinical Research Ed.), 323 (7303): 42–46, doi:10.1136/bmj.323.7303.42, PMC 1120670, PMID 11440947.
  24. Lee, C.J.; Sugimoto, C.R.; Zhang, G.; Cronin, B. (2013), "Bias in peer review", Journal of the Association for Information Science and Technology, 64: 2–17, doi:10.1002/asi.22784.
  25. Shermer, Michael (July 2006), "The political brain: A recent brain-imaging study shows that our political predilections are a product of unconscious confirmation bias", Scientific American, 295 (1): 36, Bibcode:2006SciAm.295a..36S, doi:10.1038/scientificamerican0706-36, ISSN 0036-8733, PMID 16830675
  26. Emerson, G.B.; Warme, W.J.; Wolf, F.M.; Heckman, J.D.; Brand, R.A.; Leopold, S.S. (2010), "Testing for the presence of positive-outcome bias in peer review: A randomized controlled trial", Archives of Internal Medicine, 170 (21): 1934–1339, doi:10.1001/archinternmed.2010.406, PMID 21098355.
  27. Bartlett, Steven James, "The psychology of abuse in publishing: Peer review and editorial bias," Chap. 7, pp. 147–177, in Steven James Bartlett, Normality does not equal mental health: The need to look elsewhere for standards of good psychological health. Santa Barbara, CA: Praeger, 2011.
  28. Horrobin, David F. (1990), "The philosophical basis of peer review and the suppression of innovation", Journal of the American Medical Association, 263 (10): 1438–1441, doi:10.1001/jama.263.10.1438, PMID 2304222.
  29. a b Zweig, Jason (19. listopadu 2009), "How to ignore the yes-man in your head", Wall Street Journal, archivováno z originálu 14. února 2015.
  30. Pompian, Michael M. (2006), Behavioral finance and wealth management: how to build optimal portfolios that account for investor biases, John Wiley and Sons, s. 187–190, ISBN 978-0-471-74517-4, OCLC 61864118.
  31. Hilton, Denis J. (2001), "The psychology of financial decision-making: Applications to trading, dealing, and investment analysis", Journal of Behavioral Finance, 2 (1): 37–39, doi:10.1207/S15327760JPFM0201_4, ISSN 1542-7579, S2CID 153379653.
  32. Krueger, David; Mann, John David (2009), The secret language of money: How to make smarter financial decisions and live a richer life, McGraw Hill Professional, pp. 112–113, ISBN 978-0-07-162339-1, OCLC 277205993.
  33. Groopman, Jerome (2007), How doctor's think, Melbourne: Scribe Publications, s. 64–66, ISBN 978-1-921215-69-8.
  34. Croskerry, Pat (2002), "Achieving quality in clinical decision making: Cognitive strategies and detection of bias", Academic Emergency Medicine, 9 (11): 1184–1204, doi:10.1197/aemj.9.11.1184, PMID 12414468.
  35. Pang, Dominic; Bleetman, Anthony; Bleetman, David; Wynne, Max (2 June 2017), "The foreign body that never was: the effects of confirmation bias", British Journal of Hospital Medicine, 78 (6): 350–351, doi:10.12968/hmed.2017.78.6.350, PMID 28614014.
  36. Goldacre, Ben (2008), Bad science, London: Fourth Estate, ISBN 978-0-00-724019-7, OCLC 259713114.
  37. Singh, Simon; Ernst, Edzard (2008), Trick or treatment?: Alternative medicine on trial, London: Bantam, pp. 287–288, ISBN 978-0-593-06129-9.
  38. Atwood, Kimball (2004), "Naturopathy, pseudoscience, and medicine: Myths and fallacies vs truth", Medscape General Medicine, 6 (1): 33, PMC 1140750, PMID 15208545.
  39. Neenan, Michael; Dryden, Windy (2004), Cognitive therapy: 100 key points and techniques, Psychology Press, p. ix, ISBN 978-1-58391-858-6, OCLC 474568621.
  40. Blackburn, Ivy-Marie; Davidson, Kate M. (1995), Cognitive therapy for depression & anxiety: a practitioner's guide (2 ed.), Wiley-Blackwell, p. 19, ISBN 978-0-632-03986-9, OCLC 32699443.
  41. a b Baron, Jonathan (2000), Thinking and deciding (3rd ed.), New York: Cambridge University Press, ISBN 978-0-521-65030-4, OCLC 316403966.
  42. Harvey, Allison G.; Watkins, Edward; Mansell, Warren (2004), Cognitive behavioural processes across psychological disorders: a transdiagnostic approach to research and treatment, Oxford University Press, pp. 172–173, 176, ISBN 978-0-19-852888-3, OCLC 602015097.
  43. Myers, D.G.; Lamm, H. (1976), "The group polarization phenomenon", Psychological Bulletin, 83 (4): 602–527, doi:10.1037/0033-2909.83.4.602 via Nickerson 1998, s. 193–194.
  44. Halpern, Diane F. (1987), Critical thinking across the curriculum: A brief edition of thought and knowledge, Lawrence Erlbaum Associates, p. 194, ISBN 978-0-8058-2731-6, OCLC 37180929.
  45. Roach, Kent (2010), "Wrongful convictions: Adversarial and inquisitorial themes", North Carolina Journal of International Law and Commercial Regulation, 35: 387–446, SSRN 1619124, Quote: Both adversarial and inquisitorial systems seem subject to the dangers of tunnel vision or confirmation bias.
  46. Kida, Thomas E. (2006), Don't believe everything you think: The 6 basic mistakes we make in thinking, Amherst, NY: Prometheus Books, ISBN 978-1-59102-408-8, OCLC 63297791.
  47. Tetlock, Philip E. (2005), Expert political judgment: How good is it? How can we know?, Princeton, NJ: Princeton University Press, pp. 125–128, ISBN 978-0-691-12302-8, OCLC 56825108.
  48. O'Brien, B. (2009), "Prime suspect: An examination of factors that aggravate and counteract confirmation bias in criminal investigations", Psychology, Public Policy, and Law, 15 (4): 315–334, doi:10.1037/a0017881.
  49. a b Swann, William B.; Pelham, Brett W.; Krull, Douglas S. (1989), "Agreeable fancy or disagreeable truth? Reconciling self-enhancement and self-verification", Journal of Personality and Social Psychology, 57 (5): 782–791, doi:10.1037/0022-3514.57.5.782, ISSN 0022-3514, PMID 2810025.
  50. a b Swann, William B.; Read, Stephen J. (1981), "Self-verification processes: How we sustain our self-conceptions", Journal of Experimental Social Psychology, 17 (4): 351–372, doi:10.1016/0022-1031(81)90043-3, ISSN 0022-1031.
  51. Story, Amber L. (1998), "Self-esteem and memory for favorable and unfavorable personality feedback", Personality and Social Psychology Bulletin, 24 (1): 51–64, doi:10.1177/0146167298241004, ISSN 1552-7433, S2CID 144945319.
  52. White, Michael J.; Brockett, Daniel R.; Overstreet, Belinda G. (1993), "Confirmatory bias in evaluating personality test information: Am I really that kind of person?", Journal of Counseling Psychology, 40 (1): 120–126, doi:10.1037/0022-0167.40.1.120, ISSN 0022-0167.
  53. Swann, William B.; Read, Stephen J. (1981), "Acquiring self-knowledge: The search for feedback that fits", Journal of Personality and Social Psychology, 41 (6): 1119–1328, CiteSeerX 10.1.1.537.2324, doi:10.1037/0022-3514.41.6.1119, ISSN 0022-3514.
  54. Shrauger, J. Sidney; Lund, Adrian K. (1975), "Self-evaluation and reactions to evaluations from others", Journal of Personality, 43 (1): 94–108, doi:10.1111/j.1467-6494.1975.tb00574.x, PMID 1142062.
  55. Lidén, Moa (2018). "3.2.4.1" (PDF). Confirmation bias in criminal cases (Thesis). Department of Law, Uppsala University. Archivováno (PDF) z originálu 20. února 2020.
  56. Trevor-Roper, H.R. (1969). The European witch-craze of the sixteenth and seventeenth centuries and other essays. London: HarperCollins.
  57. Chrisler, Mark (24 September 2019), "The constant: A history of getting things wrong", constantpodcast.com (Podcast), archivováno z originálu 20. února 2020.
  58. a b Smith, Jonathan C. (2009), Pseudoscience and extraordinary claims of the paranormal: A critical thinker's toolkit, London: Wiley-Blackwell, s. 149–151, ISBN 978-1-4051-8122-8, OCLC 319499491.
  59. Randi, James (1991), James Randi: Psychic investigator, London: Boxtree, pp. 58–62, ISBN 978-1-85283-144-8, OCLC 26359284.
  60. Agarwal, Dr Pragva (19. října 2018), "Here is how bias can affect recruitment in your organization", Forbes, archivováno z originálu 31. července 2019.
  61. backfire effect - The Skeptic's Dictionary - Skepdic.com. www.skepdic.com [online]. [cit. 2017-10-11]. Dostupné online. 

Související články

[editovat | editovat zdroj]

Externí odkazy

[editovat | editovat zdroj]