sábado, 1 de noviembre de 2025

 

INFRA ROJO

Del algoritmo al juicio: el reto de pensar con la inteligencia artificial en gestión de riesgos

“La inteligencia artificial calcula; solo el juicio humano comprende.”

Por José Rafael Moya Saavedra

Resumen

La inteligencia artificial (IA) se ha consolidado como una herramienta poderosa en la gestión de riesgos, particularmente en el procesamiento de datos, la modelación predictiva y la toma de decisiones operativas. Sin embargo, su papel como agente de pensamiento crítico y colaborativo sigue siendo marginal. Este ensayo propone avanzar del uso técnico de la IA hacia una relación dialógica, ética y simbiótica con ella, donde los algoritmos acompañen la deliberación humana y no solo la sustituyan. El reto, más que tecnológico, es cultural: aprender a pensar con la máquina sin renunciar al juicio, la prudencia y la conciencia que distinguen al ser humano.

Palabras clave: Inteligencia artificial, gestión integral del riesgo, ética, deliberación, co-creación cognitiva, comunicación del riesgo.

1. Introducción

Después de leer el texto del Dr. Jorge Alberto Hidalgo Toledo, La Nueva Élite Cognitiva, comprendí que la inteligencia artificial ya no solo redefine el conocimiento, sino la forma de producir sentido. Su planteamiento me llevó a una reflexión inmediata: en el campo de la gestión integral del riesgo, aún no hemos dado ese salto.

Usamos la IA para analizar datos, proyectar escenarios o modelar amenazas, pero rara vez la consideramos un interlocutor que nos ayude a pensar. Seguimos atados a la visión instrumental, cuando el verdadero desafío consiste en integrar la inteligencia artificial como coautora del pensamiento preventivo.

La pregunta, entonces, ya no es cuándo llegará la IA a la gestión de riesgos, sino cuándo nosotros estaremos listos para dialogar con ella.

2. La IA como herramienta instrumental

En la práctica actual, la IA sobresale por su capacidad técnica: procesa grandes volúmenes de información, detecta patrones y genera modelos de predicción que optimizan la asignación de recursos.
        Estas funciones son invaluables, pero tienden a permanecer dentro del marco técnico-operativo. El riesgo se concibe como variable cuantificable, no como construcción social.

Sin embargo, todo gestor sabe que las emergencias no solo se originan por amenazas físicas, sino por decisiones, valores y percepciones humanas. Mientras la IA se mantenga confinada al cálculo, su aporte seguirá siendo parcial.

3. El potencial del diálogo con la IA

Creo que el verdadero punto de inflexión radica en transformar la IA en interlocutora. Un sistema inteligente puede ayudarnos a identificar sesgos institucionales, revelar patrones culturales invisibles o evaluar el impacto simbólico de las políticas preventivas.

Si una IA puede analizar narrativas y lenguaje, también puede ayudarnos a explorar cómo la sociedad imagina el riesgo, cómo reacciona emocionalmente y cómo los valores colectivos condicionan la prevención.

La gestión del riesgo ganaría una dimensión más humana si aceptáramos que el algoritmo puede ser espejo y horizonte; un compañero de pensamiento más que un simple instrumento de cálculo.

4. Desafíos y perspectivas éticas

Convertir la IA en agente de pensamiento exige nuevas responsabilidades. No basta con mejorar la tecnología; debemos garantizar que sus procesos sean transparentes, auditables y éticamente fundados.

Incorporar IA en decisiones de riesgo implica preguntarnos: ¿quién responde por una predicción errónea? ¿cómo evitar que los sesgos del código se conviertan en injusticias operativas?

Adoptar un enfoque ético implica reconocer que la inteligencia artificial no reemplaza el juicio humano: lo amplifica. Por ello, urge incorporar marcos normativos como la ISO/IEC 23894:2023 y el AI Risk Management Framework del NIST, que establecen pautas para la gobernanza, evaluación y mitigación de riesgos derivados de sistemas inteligentes.

5. Condiciones para un diálogo efectivo

El diálogo con la inteligencia artificial no puede improvisarse; requiere madurez organizacional y cultural.
Entre las condiciones necesarias, destaco:

  1. Gobernanza clara: Definir objetivos, límites y protocolos éticos en el uso de IA.
  2. Competencias técnicas y analíticas: Dominar la interpretación de modelos y la validación de sus resultados.
  3. Interdisciplinariedad: Integrar perfiles técnicos, legales, comunicacionales y éticos en los equipos de gestión.
  4. Cultura adaptativa: Promover el aprendizaje continuo, la innovación responsable y la revisión constante de procesos.

Cuando la IA se incorpora en este marco deliberativo, la gestión del riesgo deja de ser un sistema de reacción y se convierte en un laboratorio de pensamiento anticipatorio.

6. Barreras y desafíos organizativos

Persisten barreras culturales y estructurales: miedo al cambio, desconocimiento técnico y la idea de que la IA deshumaniza.

Pero la verdadera amenaza no es la inteligencia artificial, sino nuestra falta de criterio para usarla con sentido ético.

Las organizaciones que han logrado avances significativos son aquellas que adoptaron una visión multidisciplinaria y reflexiva, donde los datos no sustituyen la deliberación, sino que la enriquecen.

7. Competencias para el nuevo entorno cognitivo

Un equipo de gestión de riesgos preparado para convivir con IA necesita habilidades que trasciendan la técnica:

  • Analíticas y predictivas: interpretación crítica de datos y validación de modelos.
  • Éticas y regulatorias: conocimiento de normas internacionales, transparencia y rendición de cuentas.
  • Organizacionales: coordinación de equipos multidisciplinarios, evaluación de procesos y mejora continua.
  • Humanistas: pensamiento crítico, empatía, prudencia y sentido ético frente a decisiones automatizadas.

Estas competencias son la base de una gestión reflexiva y prudente, capaz de anticipar sin deshumanizar.

8. Comunicación de riesgos en tiempos de IA

La comunicación del riesgo también debe evolucionar. Hoy necesitamos equipos capaces de traducir los resultados algorítmicos a un lenguaje claro, confiable y culturalmente sensible.
Esto implica:

  • Alfabetización crítica en IA y datos.
  • Capacidad para detectar desinformación y deepfakes.
  • Supervisión y edición humana de mensajes automatizados.
  • Transparencia y ética comunicacional.

Porque en última instancia, la confianza es el principal capital de la gestión de riesgos, y ninguna máquina puede construirla sola.

9. Del algoritmo al juicio

El gran reto no está en perfeccionar los algoritmos, sino en preservar el juicio. La inteligencia artificial nos da velocidad, pero solo el pensamiento humano ofrece dirección moral.

El futuro de la gestión del riesgo dependerá de nuestra capacidad para unir ambos mundos: el cálculo y la conciencia, la predicción y la prudencia, el dato y el sentido.

10. Colofón. La prudencia aumentada

La llegada de la inteligencia artificial a la gestión del riesgo no será un hito tecnológico, sino un despertar cultural.

Cuando los gestores aprendamos a pensar con la máquina, sin abdicar de nuestro juicio, habremos alcanzado la verdadera inteligencia situacional: aquella que previene porque comprende, que anticipa porque interpreta, que calcula porque primero siente.

Ese día, el algoritmo y el juicio no serán contrarios, sino aliados en el arte más antiguo y más humano de todos: cuidar la vida.

Hidalgo Toledo, J. A. (2025/11/01). La nueva élite cognitiva: Hacia una inteligencia artificial co-creadora [Artículo en línea]. Recuperado de https://www.facebook.com/photo?fbid=10162310465101814&set=a.420004871813

 

Referencias

  1. Xiong, W., Fan, H., Ma, L., & Wang, C. (2022). Challenges of human-machine collaboration in risky decision-making. Frontiers of Engineering Management, 9(1), 89-103. https://doi.org/10.1007/s42524-021-0182-0   
  2. Giudici, P., Novelli, R., & otros. (2024). AI Risk Management: A Bibliometric Analysis. Risk, (13)(7), 131. https://doi.org/10.3390/risks130700131  
  3. Van Rooy, D. (2024). Human–machine collaboration for enhanced decision-making in governance. Data & Policy. https://doi.org/10.1017/dap.2024.xx  
  4. Wang, S. X. (2024). The Application of Artificial Intelligence-Based Risk Management Models in Financial Markets. Open Journal of Social Sciences, 12, 274-284. https://doi.org/10.4236/jss.2024.1211019   
  5. “How Might Artificial Intelligence Applications Impact Risk Management?” (2020). AMA Journal of Ethics. Retrieved from https://journalofethics.ama-assn.org/article/how-might-artificial-intelligence-applications-impact-risk-management/2020-11 AMA Journal of Ethics
  6. Campos, S., Papadatos, H., Roger, F., Touzet, C., & Murray, M. (2025). A Frontier AI Risk Management Framework: Bridging the Gap Between Current AI Practices and Established Risk Management. arXiv Preprint. https://doi.org/10.48550/arXiv.2502.06656  
  7. Schnitzer, R., Hapfelmeier, A., Gaube, S., & Zillner, S. (2023). AI Hazard Management: A framework for the systematic management of root causes for AI risks. arXiv Preprint. https://doi.org/10.48550/arXiv.2310.16727  
  8. Al-Maamari, A. (2025). Between Innovation and Oversight: A Cross-Regional Study of AI Risk Management Frameworks in the EU, U.S., UK, and China. arXiv Preprint. https://doi.org/10.48550/arXiv.2503.05773  
  9. Shen, Q. (2024). AI-driven financial risk management systems: Enhancing predictive capabilities and operational efficiency. Proceedings of the 6th International Conference on Computing and Data Science.

MIT Sloan Review Staff. (2023). AI-Related Risks Test the Limits of Organizational Risk Management. MIT Sloan Management Review. https://sloanreview.mit.edu/article/ai-related-risks-test-the-limits-of-organizational-risk-management/

No hay comentarios.:

Publicar un comentario

  INFRA ROJO El Metro no está fallando: está operando al límite Por Jose Rafael Moya Saavedra El Metro de la Ciudad de México no "falla...