Fiabilitat humana

La fiabilitat humana és una disciplina que forma part del camp de la fiabilitat de sistemes, en la mesura que l'home pot ser considerat com a part integrant d'un sistema.

Es considera que el component humà és d'una complexitat molt més gran que qualsevol altre component i, per tant, les tècniques aplicables a l'estudi de la fiabilitat humana o, complementàriament, de l'error humà són específics i integren aspectes psicològics i organitzacionals a les tècniques matemàtiques habituals.

Tècniques d'anàlisi

[modifica]

Hi ha una diversos mètodes per a l'anàlisi de la fiabilitat humana (HRA - human reliability analysis),[1][2] que principalment es divideixen en dues categories: els basats en l'anàlisi probabilística de riscos i la teoria del control cognitiu.

Tècniques basades en l'anàlisi probabilística de riscos

[modifica]

Una forma d'analitzar la fiabilitat humana és com a extensió directa de l'anàlisi probabilística de riscos: de la mateixa manera que les màquines poden fallar en una planta industrial, una persona cometre errors. En tots dos casos l'anàlisi per descomposició funcional proporciona un cert nivell de detall amb què assignar probabilitats d'ocurrència de l'error. Aquesta idea bàsica és darrere de la tècnica THERP (Technique for Human Error Rate Prediction),[3] que pretén calcular probabilitats d'error humà incorporables a una anàlisi PRA. Una forma simplificada de THERP és la tècnica ASEP (Accident Sequence Evaluation Program), que ha estat implementada com a eina informàtica: Simplified Human Error Analysis Code (SHEAN).[4] Més recentment, la US Nuclear Regulatory Commission ha publicat el mètode d'anàlisi SPAR (Standardized Plant Analysis Risk).[5][6]

Tècniques basades en el control cognitiu

[modifica]

Erik Hollnagel ha desenvolupat aquesta línia de treball, que anomena Contextual Control Model (COCOM),[7] i ha desenvolupat el mètode CREAM (Cognitive Reliability and Error Analysis Method).[8] COCOM modela el comportament humà com un conjunt de modes de control i proposa un model de com ocorren les transicions entre els diferents modes de control.

Tècniques relacionades

[modifica]

Les tècniques relacionades en enginyeria de seguretat i enginyeria de fiabilitat inclouen l'Anàlisi Modal de Fallades i els seus Efectes, hazop, arbre d'errors i SAPHIRE (Programes d'anàlisi de sistemes) per a avaluacions pràctiques integrades de fiabilitat).

Sistema d'anàlisi i classificació de factors humans (HFACS)

[modifica]

El sistema d'anàlisi i classificació de factors humans (HFACS) es va desenvolupar inicialment com a marc per entendre el paper de l'"error humà" en els accidents d'aviació.[9][10] Es basa en el model de formatge suís de James Reason d'error humà en sistemes complexos. HFACS distingeix entre les "falles actives" dels actes insegurs i les "falles latents" de les condicions prèvies per als actes insegurs, la supervisió no segura i les influències organitzatives. Aquestes categories es van desenvolupar empíricament a partir de molts informes d'accidents d'aviació.

Els "actes insegurs" els realitza l'operador humà "en primera línia" (per exemple, el pilot, el controlador de trànsit aeri, el conductor). Els actes insegurs poden ser errors (en la percepció, la presa de decisions o el rendiment basat en les habilitats) o les infraccions (rutinàries o excepcionals). Els errors aquí són similars a la discussió anterior. Les violacions són el menyspreu deliberat de les normes i procediments. Com el seu nom indica, les infraccions rutinàries són les que es produeixen habitualment i que solen ser tolerades per l'organització o l'autoritat. Les violacions excepcionals són inusuals i sovint extremes. Per exemple, conduir a 50 km/h en una zona de 30 km/h és una infracció habitual, però conduir a 130 km/h a la mateixa zona és excepcional.

Hi ha dos tipus de condicions prèvies per als actes insegurs: les que es relacionen amb l'estat intern de l'operador humà i les que es relacionen amb les pràctiques o maneres de treballar de l'operador humà. Els estats interns adversos inclouen els relacionats amb la fisiologia (p. ex., malaltia) i l'estat mental (p. ex., fatigat mental, distret). Un tercer aspecte de l'"estat intern" és realment un desajust entre la capacitat de l'operador i les exigències de la tasca; per exemple, l'operador pot ser incapaç de fer judicis visuals o reaccionar amb prou rapidesa per donar suport a la tasca en qüestió. Les pràctiques deficients dels operadors són un altre tipus de condició prèvia per a actes insegurs. Aquests inclouen una mala gestió dels recursos de la tripulació (qüestions com el lideratge i la comunicació) i pràctiques deficients de preparació personal (per exemple, violar els requisits de descans de la tripulació a l'aviació).

Quatre tipus de supervisió insegura són: supervisió inadequada; operacions inadequades planificades; no corregir un problema conegut; i infraccions de supervisió.

Les influències organitzatives inclouen les relacionades amb la gestió de recursos (per exemple, recursos humans o financers inadequats), el clima organitzatiu (estructures, polítiques i cultura) i els processos organitzatius (com ara procediments, horaris, supervisió).

Error humà

[modifica]

L'error humà ha estat citat com a causant o factor contributiu en desastres i accidents en indústries diverses com a energia nuclear, aviació, exploració espacial i medicina.

Categories d'error humà

[modifica]

Hi ha diverses maneres de categorització de l'error humà: [11][12]

  • Exogen / endogen [13]
  • Valoració de la situació / resposta planificada[14]
  • Per nivell d'anàlisi; per exemple: perceptiu/cognitiu/comunicatiu/organitzatiu.

Sistema d'Anàlisi i Classificació de Factors Humans

[modifica]

El 'Sistema d'Anàlisi i Classificació de Factors Humans' (en anglès Human Factors Analysis and Classification System -HFACS-) va ser desenvolupat inicialment com a marc de treball per a la comprensió de l'error humà com a causa d'accidents d'aviació.[9][10] Està basat en els estudis de James Reason sobre l'error humà en sistemes complexos. HFACS distingeix entre "fallades actives" en accions insegures, "fallades latents", supervisió insegura i influències de l'organització.

Controvèrsia

[modifica]

Alguns investigadors han argumentat que la catalogació de les accions humanes en termes de "correcte" o "incorrecte" és una simplificació excessiva i perjudicial per a l'anàlisi d'un fenomen complex.[15][16] En comptes d'això, defensen que seria més fructífer enfocar la qüestió des del punt de vista de la variabilitat del comportament humà.

Trampes comunes de la naturalesa humana

[modifica]

Les persones tendeixen a sobreestimar la seva capacitat per mantenir el control quan estan treballant. Les característiques comunes de la naturalesa humana que s'aborden a continuació s'accentuen especialment quan la feina es fa en un entorn laboral complex.[17]

Estrès: El problema amb l'estrès és que es pot acumular i dominar una persona, convertint-se així en perjudicial per al rendiment.

Evitar la tensió mental: Els éssers humans són reticents a dedicar-se a un pensament concentrat prolongat, ja que requereix alts nivells d'atenció durant períodes prolongats.

Els biaixos mentals, o dreceres, que s'utilitzen sovint per reduir l'esforç mental i accelerar la presa de decisions inclouen:

  • Supòsits: – Una condició que es dona per feta o s'accepta com a veritable sense verificació dels fets.
  • Hàbit: un patró inconscient de comportament adquirit a través de la repetició freqüent.
  • Biaix de confirmació: la renúncia a abandonar una solució actual.
  • Biaix de similitud: la tendència a recordar solucions de situacions que semblen similars
  • Biaix de freqüència: una aposta que una solució d'ús freqüent funcionarà.
  • Biaix de disponibilitat: la tendència a decidir-se per solucions o cursos d'acció que vénen fàcilment a la ment.

Memòria de treball limitada: la memòria a curt termini de la ment és el "banc de treball" per a la resolució de problemes i la presa de decisions.

Recursos d'atenció limitats: la capacitat limitada per concentrar-se en dues o més activitats desafia la capacitat de processar la informació necessària per resoldre problemes.

Mentalitat La gent tendeix a enfocar-se més en allò que vol aconseguir (una meta) i menys en allò que s'ha d'evitar perquè els éssers humans estan principalment orientats a les metes per naturalesa. Com a tal, les persones tendeixen a “veure” només el que la ment espera o vol veure.

Dificultat per veure el propi error: les persones, especialment quan treballen soles, són particularment susceptibles a no veure els propis errors.

Perspectiva limitada - Els humans no poden veure tot el que hi ha per veure. La incapacitat de la ment humana per percebre tots els fets pertinents a una decisió desafia la resolució de problemes.

Susceptibilitat a factors emocionals/socials - La ira i la vergonya influeixen negativament en l'exercici individual i de l'equip.

Fatiga - La gent es cansa. La fatiga física, emocional i mental pot conduir a l'error i el mal judici.

Presentisme - Alguns empleats estaran presents al lloc de treball sense fer res, a causa d'una capacitat disminuïda per realitzar els seus treballs a causa d'una malaltia o lesió.

Referències

[modifica]
  1. Kirwan and Ainsworth, 1992
  2. Kirwan, 1994
  3. Swain & Guttman, 1983
  4. Wilson, 1993)
  5. SPAR-H
  6. Gertman et al., 2005
  7. (Hollnagel, 1993)
  8. (Hollnagel, 1998)
  9. 9,0 9,1 Shappell and Wiegmann, 2000
  10. 10,0 10,1 Wiegmann and Shappell, 2003
  11. Jones, 1999
  12. Wallace and Ross, 2006
  13. Senders and Moray, 1991
  14. Roth et al., 1994
  15. Hollnagel, E. (1983). Human error. (Position Paper for NATO Conference on Human Error, August 1983, Bellagio, Italy)
  16. Hollnagel, E. and Amalberti, R. (2001). The Emperor’s New Clothes, or whatever happened to “human error”? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development.. Linköping, June 11-12, 2001.
  17. [enllaç sense format] https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file DOE-HDBK-1028-2009

Bibliografia

[modifica]
  • Gertman, D. L. and Blackman, H. S.. Human reliability and safety analysis data handbook. Wiley, 2001. 
  • Gertman, D., Blackman, H., Marble, J., Byers, J. and Smith, C.. The SPAR-H human reliability analysis method. NUREG/CR-6883. Idaho National Laboratory, prepared for U. S. Nuclear Regulatory Commission, 2005. 
  • Hollnagel, E.. Human reliability analysis: Context and control. Academic Press, 1993. 
  • Hollnagel, E.. Cognitive reliability and error analysis method: CREAM. Elsevier, 1998. 
  • Hollnagel, E. and Amalberti, R.. The Emperor’s New Clothes, or whatever happened to “human error”? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development.. Linköping, June 11-12, 2001, 2001. 
  • Hollnagel, E., Woods, D. D., and Leveson, N. (Eds.). Resilience engineering: Concepts and precepts. Ashgate, 2006. 
  • Jones, P. M.. Human error and its amelioration. In Handbook of Systems Engineering and Management (A. P. Sage and W. B. Rouse, eds.), 687-702. Wiley, 1999. 
  • Kirwan, B.. A Guide to Practical Human Reliability Assessment. Taylor & Francis, 1994. 
  • Kirwan, B. and Ainsworth, L. (Eds.). A guide to task analysis. Taylor & Francis, 1992. 
  • Norman, D.. The psychology of everyday things. Basic Books, 1988. 
  • Reason, J.. Human error. Cambridge University Press, 1990. 
  • Roth, E. et al.. An empirical investigation of operator performance in cognitive demanding simulated emergencies. NUREG/CR-6208, Westinghouse Science and Technology Center. Report prepared for Nuclear Regulatory Commission, 1994. 
  • Sage, A. P.. Systems engineering. Wiley, 1992. 
  • Senders, J. and Moray, N.. Human error: Cause, prediction, and reduction. Lawrence Erlbaum Associates, 1991. 
  • Shappell, S. & Wiegmann, D.. The human factors analysis and classification system - HFACS. DOT/FAA/AM-00/7, Office of Aviation Medicine, Federal Aviation Administration, Department of Transportation., 2000. 
  • Swain, A. D., & Guttman, H. E.. Handbook of human reliability analysis with emphasis on nuclear power plant applications.. NUREG/CR-1278 (Washington D.C.), 1983. 
  • Wallace, B. and Ross, A.. Beyond human error. CRC Press, 2006. 
  • Wiegmann, D. & Shappell, S.. A human error approach to aviation accident analysis: The human factors analysis and classification system.. Ashgate, 2003. 
  • Wilson, J.R.. SHEAN (Simplified Human Error Analysis code) and automated THERP. United States Department of Energy Technical Report Number WINCO--11908, 1993.  [1]
  • Woods, D. D.. Modeling and predicting human error. In J. Elkind, S. Card, J. Hochberg, and B. Huey (Eds.), Human performance models for computer-aided engineering (248-274). Academic Press, 1990. 

Per a més informació

[modifica]

Enllaços externs

[modifica]