INFRA ROJO
Del algoritmo al juicio: el reto de pensar con la
inteligencia artificial en gestión de riesgos
“La inteligencia artificial calcula; solo el juicio
humano comprende.”
Por José Rafael Moya Saavedra
Resumen
La inteligencia artificial (IA)
se ha consolidado como una herramienta poderosa en la gestión de riesgos,
particularmente en el procesamiento de datos, la modelación predictiva y la
toma de decisiones operativas. Sin embargo, su papel como agente de pensamiento
crítico y colaborativo sigue siendo marginal. Este ensayo propone avanzar del
uso técnico de la IA hacia una relación dialógica, ética y simbiótica con ella,
donde los algoritmos acompañen la deliberación humana y no solo la sustituyan.
El reto, más que tecnológico, es cultural: aprender a pensar con la máquina sin
renunciar al juicio, la prudencia y la conciencia que distinguen al ser humano.
Palabras clave: Inteligencia artificial, gestión
integral del riesgo, ética, deliberación, co-creación cognitiva, comunicación
del riesgo.
1. Introducción
Después de leer el texto del Dr.
Jorge Alberto Hidalgo Toledo, La Nueva Élite Cognitiva, comprendí que la
inteligencia artificial ya no solo redefine el conocimiento, sino la forma de
producir sentido. Su planteamiento me llevó a una reflexión inmediata: en el
campo de la gestión integral del riesgo, aún no hemos dado ese salto.
Usamos la IA para analizar datos,
proyectar escenarios o modelar amenazas, pero rara vez la consideramos un
interlocutor que nos ayude a pensar. Seguimos atados a la visión instrumental,
cuando el verdadero desafío consiste en integrar la inteligencia artificial
como coautora del pensamiento preventivo.
La pregunta, entonces, ya no es cuándo
llegará la IA a la gestión de riesgos, sino cuándo nosotros estaremos
listos para dialogar con ella.
2. La IA como herramienta instrumental
En la práctica actual, la IA
sobresale por su capacidad técnica: procesa grandes volúmenes de información,
detecta patrones y genera modelos de predicción que optimizan la asignación de
recursos.
Estas funciones son invaluables, pero tienden a permanecer dentro del marco técnico-operativo.
El riesgo se concibe como variable cuantificable, no como construcción social.
Sin embargo, todo gestor sabe que
las emergencias no solo se originan por amenazas físicas, sino por decisiones,
valores y percepciones humanas. Mientras la IA se mantenga confinada al
cálculo, su aporte seguirá siendo parcial.
3. El potencial del diálogo con la IA
Creo que el verdadero punto de
inflexión radica en transformar la IA en interlocutora. Un sistema
inteligente puede ayudarnos a identificar sesgos institucionales, revelar
patrones culturales invisibles o evaluar el impacto simbólico de las políticas
preventivas.
Si una IA puede analizar
narrativas y lenguaje, también puede ayudarnos a explorar cómo la sociedad
imagina el riesgo, cómo reacciona emocionalmente y cómo los valores
colectivos condicionan la prevención.
La gestión del riesgo ganaría una
dimensión más humana si aceptáramos que el algoritmo puede ser espejo y
horizonte; un compañero de pensamiento más que un simple instrumento de
cálculo.
4. Desafíos y perspectivas éticas
Convertir la IA en agente de
pensamiento exige nuevas responsabilidades. No basta con mejorar la tecnología;
debemos garantizar que sus procesos sean transparentes, auditables y
éticamente fundados.
Incorporar IA en decisiones de
riesgo implica preguntarnos: ¿quién responde por una predicción errónea?
¿cómo evitar que los sesgos del código se conviertan en injusticias operativas?
Adoptar un enfoque ético implica
reconocer que la inteligencia artificial no reemplaza el juicio humano: lo
amplifica. Por ello, urge incorporar marcos normativos como la ISO/IEC
23894:2023 y el AI Risk Management Framework del NIST, que
establecen pautas para la gobernanza, evaluación y mitigación de riesgos
derivados de sistemas inteligentes.
5. Condiciones para un diálogo efectivo
El diálogo con la inteligencia
artificial no puede improvisarse; requiere madurez organizacional y cultural.
Entre las condiciones necesarias, destaco:
- Gobernanza
clara: Definir objetivos, límites y protocolos éticos en el uso de IA.
- Competencias
técnicas y analíticas: Dominar la interpretación de modelos y la
validación de sus resultados.
- Interdisciplinariedad:
Integrar perfiles técnicos, legales, comunicacionales y éticos en los
equipos de gestión.
- Cultura
adaptativa: Promover el aprendizaje continuo, la innovación
responsable y la revisión constante de procesos.
Cuando la IA se incorpora en este
marco deliberativo, la gestión del riesgo deja de ser un sistema de reacción y
se convierte en un laboratorio de pensamiento anticipatorio.
6. Barreras y desafíos organizativos
Persisten barreras culturales y
estructurales: miedo al cambio, desconocimiento técnico y la idea de que la IA
deshumaniza.
Pero la verdadera amenaza no es
la inteligencia artificial, sino nuestra falta de criterio para usarla con
sentido ético.
Las organizaciones que han
logrado avances significativos son aquellas que adoptaron una visión multidisciplinaria
y reflexiva, donde los datos no sustituyen la deliberación, sino que la
enriquecen.
7. Competencias para el nuevo entorno cognitivo
Un equipo de gestión de riesgos
preparado para convivir con IA necesita habilidades que trasciendan la técnica:
- Analíticas
y predictivas: interpretación crítica de datos y validación de
modelos.
- Éticas
y regulatorias: conocimiento de normas internacionales, transparencia
y rendición de cuentas.
- Organizacionales:
coordinación de equipos multidisciplinarios, evaluación de procesos y
mejora continua.
- Humanistas:
pensamiento crítico, empatía, prudencia y sentido ético frente a
decisiones automatizadas.
Estas competencias son la base de
una gestión reflexiva y prudente, capaz de anticipar sin deshumanizar.
8. Comunicación de riesgos en tiempos de IA
La comunicación del riesgo
también debe evolucionar. Hoy necesitamos equipos capaces de traducir los
resultados algorítmicos a un lenguaje claro, confiable y culturalmente
sensible.
Esto implica:
- Alfabetización
crítica en IA y datos.
- Capacidad
para detectar desinformación y deepfakes.
- Supervisión
y edición humana de mensajes automatizados.
- Transparencia
y ética comunicacional.
Porque en última instancia, la
confianza es el principal capital de la gestión de riesgos, y ninguna máquina
puede construirla sola.
9. Del algoritmo al juicio
El gran reto no está en
perfeccionar los algoritmos, sino en preservar el juicio. La
inteligencia artificial nos da velocidad, pero solo el pensamiento humano
ofrece dirección moral.
El futuro de la gestión del
riesgo dependerá de nuestra capacidad para unir ambos mundos: el cálculo y la
conciencia, la predicción y la prudencia, el dato y el sentido.
10. Colofón. La prudencia aumentada
La llegada de la inteligencia
artificial a la gestión del riesgo no será un hito tecnológico, sino un
despertar cultural.
Cuando los gestores aprendamos a pensar
con la máquina, sin abdicar de nuestro juicio, habremos alcanzado la
verdadera inteligencia situacional: aquella que previene porque comprende, que
anticipa porque interpreta, que calcula porque primero siente.
Ese día, el algoritmo y el juicio
no serán contrarios, sino aliados en el arte más antiguo y más humano de todos:
cuidar la vida.
Hidalgo Toledo, J. A. (2025/11/01). La
nueva élite cognitiva: Hacia una inteligencia artificial co-creadora
[Artículo en línea]. Recuperado de https://www.facebook.com/photo?fbid=10162310465101814&set=a.420004871813
Referencias
- Xiong, W., Fan, H., Ma, L.,
& Wang, C. (2022). Challenges of human-machine collaboration in
risky decision-making. Frontiers of Engineering Management,
9(1), 89-103. https://doi.org/10.1007/s42524-021-0182-0
- Giudici,
P., Novelli, R., & otros. (2024). AI Risk Management: A Bibliometric Analysis. Risk,
(13)(7), 131. https://doi.org/10.3390/risks130700131
- Van Rooy, D. (2024). Human–machine
collaboration for enhanced decision-making in governance. Data
& Policy. https://doi.org/10.1017/dap.2024.xx
- Wang, S. X. (2024). The
Application of Artificial Intelligence-Based Risk Management Models in
Financial Markets. Open Journal of Social Sciences, 12,
274-284. https://doi.org/10.4236/jss.2024.1211019
- “How Might Artificial
Intelligence Applications Impact Risk Management?” (2020). AMA Journal
of Ethics. Retrieved from https://journalofethics.ama-assn.org/article/how-might-artificial-intelligence-applications-impact-risk-management/2020-11 AMA
Journal of Ethics
- Campos,
S., Papadatos, H., Roger, F., Touzet, C., & Murray, M. (2025). A Frontier AI Risk Management
Framework: Bridging the Gap Between Current AI Practices and Established
Risk Management.
arXiv Preprint. https://doi.org/10.48550/arXiv.2502.06656
- Schnitzer, R., Hapfelmeier, A.,
Gaube, S., & Zillner, S. (2023). AI Hazard Management: A framework
for the systematic management of root causes for AI risks. arXiv
Preprint. https://doi.org/10.48550/arXiv.2310.16727
- Al-Maamari, A. (2025). Between
Innovation and Oversight: A Cross-Regional Study of AI Risk Management
Frameworks in the EU, U.S., UK, and China. arXiv Preprint. https://doi.org/10.48550/arXiv.2503.05773
- Shen, Q. (2024). AI-driven
financial risk management systems: Enhancing predictive capabilities and
operational efficiency. Proceedings of the 6th International
Conference on Computing and Data Science.
MIT Sloan Review Staff. (2023). AI-Related Risks Test the Limits of Organizational Risk Management. MIT Sloan Management Review. https://sloanreview.mit.edu/article/ai-related-risks-test-the-limits-of-organizational-risk-management/
No hay comentarios.:
Publicar un comentario