El HRA nace cuando la industria descubre una verdad incómoda:
Los sistemas fallan más por errores humanos y organizacionales que por fallas técnicas.
Su origen se puede rastrear a tres grandes momentos históricos:
1. Era Nuclear (1950–1970): el nacimiento formal
Los primeros desarrollos surgen en la industria nuclear de EE. UU. y Europa, donde un error humano podía significar un desastre nacional.
- Se integran los primeros Probabilistic Risk Assessments (PRA).
- Se reconoce que el operador es parte del sistema técnico.
- Surgen los primeros modelos para cuantificar errores humanos.
Hito clave:
- Proyecto WASH‑1400 (1975), que introduce el concepto de Human Error Probability (HEP).
2. Accidentes industriales y aeroespaciales (1970–1990): el despertar organizacional
Eventos como:
- Three Mile Island
- Chernóbil
- Bhopal
- Challenger
demuestran que el error humano no es individual, sino sistémico.
Aquí nace la idea de que:
- La cultura
- Los procedimientos
- El diseño
- La carga cognitiva
- La supervisión
son factores que moldean el desempeño humano.
Hito clave:
- James Reason y el Modelo del Queso Suizo (1990).
3. Integración con Seguridad de Procesos y Factores Humanos (1990–2010)
El HRA se expande más allá de lo nuclear:
- Oil & Gas
- Químico
- Aviación
- Minería
- Salud
Se desarrollan metodologías más estructuradas y aplicables:
- THERP (Technique for Human Error Rate Prediction)
- HEART (Human Error Assessment and Reduction Technique)
- SPAR-H
- CREAM (Cognitive Reliability and Error Analysis Method)
El enfoque pasa de cuantificar errores a entender por qué ocurren.
🔄 Evolución del HRA: de culpar al operador a diseñar sistemas confiables
La evolución puede resumirse así:
| Etapa | Enfoque | Mentalidad |
|---|---|---|
| HRA Clásico (1970–1990) | Cuantificación de errores | “El operador se equivoca” |
| HRA Cognitivo (1990–2010) | Factores humanos, carga cognitiva | “El sistema influye en el operador” |
| HRA Organizacional (2010–2020) | Cultura, liderazgo, gobernanza | “La organización crea las condiciones del error” |
| HRA Integrado (2020–2026) | HOP, resiliencia, sistemas sociotécnicos | “El error es una señal del sistema” |
🚀 Tendencias actuales (2020–2026)
Aquí es donde se conecta directamente con tu visión ENGYKO de integrar confiabilidad, seguridad, cultura y desempeño humano.
1. HOP (Human & Organizational Performance)
- El error es normal.
- El desempeño humano es variable.
- Las barreras deben diseñarse para absorber variabilidad.
- Se prioriza el aprendizaje operativo (Learning Teams).
2. Resiliencia Operacional
- No solo evitar fallas, sino adaptarse.
- Se estudia cómo las personas mantienen el sistema funcionando bajo presión.
3. Data-Driven Human Reliability
- Análisis de desempeño humano con datos reales:
- Fatiga
- Carga cognitiva
- Interacciones hombre‑máquina
- Near misses
- IA para detectar patrones de error.
4. Integración con Cultura y Gobernanza
- Modelos de madurez organizacional.
- Accountability sistémico.
- Roles y competencias de confiabilidad humana.
5. Diseño centrado en el humano
- Interfaces que reducen errores.
- Procedimientos cognitivos.
- Automatización colaborativa.
6. HRA + Seguridad de Procesos + Confiabilidad Operacional
La frontera moderna es la integración:
Confiabilidad Humana = Confiabilidad Técnica + Factores Humanos + Cultura + Gobernanza + Tecnología