Logo Blecx

Criterio aumentado: liderazgo en la era de la IA

La inteligencia artificial ya no se limita a ejecutar tareas ni a optimizar procesos. En muchas organizaciones comenzó a ocupar un espacio más sensible: proponer cursos de acción. Recomienda prioridades, sugiere asignaciones de recursos, estima riesgos y modeliza escenarios estratégicos con una solidez estadística difícil de ignorar.

Cuando la IA propone, el rol del líder cambia. No porque deje de decidir, sino porque debe resolver cómo confiar. En ese desplazamiento de ejecutar a proponer, surge una tensión nueva, que no es un problema de datos ni de capacidad técnica sino un dilema de liderazgo. La pregunta ya no es qué puede hacer la IA, sino hasta dónde un líder está dispuesto a delegar criterio sin perder control, responsabilidad ni identidad profesional.

El fin de la intuición como único refugio

El liderazgo organizacional se construyó históricamente sobre experiencia, lectura contextual e intuición experta. Ese capital sigue siendo valioso, pero dejó de ser exclusivo. La IA industrializa el pasado: procesa volúmenes de información inabarcables, identifica correlaciones invisibles y proyecta probabilidades con consistencia.

La investigación en psicología cognitiva muestra que la calidad de la intuición depende de condiciones específicas: entornos relativamente predecibles y aprendizaje con feedback claro. Cuando esas condiciones no están dadas, la certeza subjetiva puede ser engañosa.

Esto no invalida la intuición ejecutiva sino que la recalibra. La intuición experta deja de competir con la evidencia y se reserva para lo que no está en los datos: el clima emocional, la sensibilidad política, la señal reputacional, el futuro que todavía no dejó rastro estadístico. La IA ilumina lo cuantificable y el liderazgo interpreta lo que aún no puede medirse.

Confiar no es obedecer

Uno de los errores más frecuentes en procesos de adopción tecnológica es confundir confianza con obediencia. Confiar en un sistema no implica renunciar al criterio, implica diseñar las condiciones para que su aporte sea útil sin desplazar la autoridad estratégica.

El National Institute of Standards and Technology (NIST), en su AI Risk Management Framework, define atributos como validez, seguridad, resiliencia, transparencia y explicabilidad como componentes de una IA confiable. Pero sugiere que la confianza es un fenómeno organizacional: depende tanto de la arquitectura técnica como de la gobernanza que la contiene.

En términos organizacionales, esto se traduce en preguntas concretas: ¿cuándo una recomendación escala? ¿Quién puede intervenir? ¿Qué criterios habilitan una revisión? Sin estas definiciones, la IA se convierte en un insumo decorativo o, en el extremo opuesto, en una autoridad implícita no cuestionada.

El miedo silencioso a perder autoridad

Cuando un sistema propone con mayor fundamento estadístico que la intuición inicial de los líderes, se activa una fricción interna difícil de expresar. No es una disputa explícita entre humano y máquina, sino una tensión más simbólica: aceptar la recomendación puede sentirse como ceder parte del control sobre el propio criterio.

En la práctica aparecen dos reacciones opuestas: a veces se sobreconfía en los sistemas automatizados y otras alcanza con que el algoritmo se equivoque una vez para que pierda legitimidad, incluso si su desempeño general es superior.
En ambos casos, la IA no solo aporta información: reconfigura cómo se distribuyen el poder, la responsabilidad y la tolerancia al error dentro de la organización.

Las organizaciones maduras no niegan esta tensión. La hacen explícita. Reconocen que el liderazgo no pierde valor al incorporar IA, pero sí cambia su naturaleza. Deja de ser exclusivamente intuitivo y se vuelve deliberadamente estructurado.

El Veto Estratégico

En este nuevo escenario aparece una competencia crítica: saber frenar una recomendación técnicamente impecable cuando estratégicamente no conviene.

La IA puede optimizar margen, reducir riesgo operativo o maximizar eficiencia. Pero no internaliza del todo el impacto simbólico de una decisión, su coherencia con la identidad de marca ni su efecto cultural en el largo plazo.

Ahí entra en juego el Veto Estratégico, la última capa de gobernanza donde el liderazgo evalúa no solo lo que mejora métricas, sino lo que sostiene legitimidad. Los marcos internacionales de IA responsable, como los principios de la Organización para la Cooperación y el Desarrollo Económicos (OECD) y regulaciones como el AI Act europeo, establecen la necesidad de supervisión humana efectiva y la posibilidad real de intervenir o revertir una decisión automatizada.      

Esto no es solo una exigencia normativa, sino que es el reconocimiento institucional de que la autoridad final sigue siendo humana. El veto no es resistencia a la tecnología, es liderazgo consciente cuando lo optimizado en métricas entra en tensión con la estrategia, la cultura o la experiencia que la organización quiere construir.

Responsabilidad no delegable (Accountability)

En un entorno de decisiones aumentadas, puede delegarse el análisis, pero no la consecuencia. La recomendación puede estar respaldada por evidencia técnica sólida; la responsabilidad por sus efectos no se transfiere al algoritmo. Permanece en quien decide.

El AI Risk Management Framework del National Institute of Standards and Technology (NIST) es claro en este punto: la gobernanza y supervisión de sistemas de IA deben estar en manos de actores con autoridad fiduciaria y legal, incluyendo la alta dirección y el directorio. La rendición de cuentas no es automatizable, puede apoyarse en sistemas, pero no puede delegarse en ellos.

Aquí aparece el dilema central del liderazgo actual: asumir el riesgo cuando la máquina sugiere lo contrario. Aceptar la recomendación implica respaldarla. Rechazarla también. En ambos casos, la responsabilidad no se transfiere al modelo, permanece en quien ejerce la autoridad.

La IA amplía la capacidad analítica de la organización, pero al mismo tiempo intensifica la carga del liderazgo. Porque la consecuencia reputacional, política y cultural sigue teniendo nombre propio, y es precisamente en ese punto donde se vuelve evidente que la inteligencia puede ser aumentada, pero la responsabilidad sigue siendo humana.

Gobernanza del criterio

Para que la tensión entre intuición y algoritmo no derive en arbitrariedad, el liderazgo necesita método. No alcanza con “escuchar al sistema” ni con refugiarse en la experiencia. Hace falta una arquitectura clara que explicite cómo se formulan, evalúan y revisan las decisiones.

En los últimos años, enfoques como la Decision Intelligence, han insistido en integrar analítica, comportamiento humano y mecanismos de retroalimentación dentro de marcos estructurados. Más allá de la etiqueta el punto es simple, el criterio necesita diseño.

Algo similar plantea la norma ISO/IEC 42001, que propone sistemas de gestión específicos para IA con foco en uso responsable y equilibrio entre innovación y control. La madurez organizacional no se define por cuánto se automatiza, sino por cómo se gobierna lo que se automatiza.

Cuando el criterio tiene método, la autoridad deja de ser un acto individual y se convierte en una práctica institucional. Y es ahí donde la tecnología deja de ser solo una herramienta para transformarse en capacidad organizacional.

Liderar cuando la IA propone

La inteligencia artificial va a proponer cada vez con mayor precisión, velocidad y naturalidad. La discusión estratégica ya no pasa por si tiene que hacerlo, sino por cómo se ejerce liderazgo en un contexto donde la recomendación algorítmica forma parte estructural del proceso decisional.

El diferencial no está en competir con la máquina en capacidad de cálculo. Está en sostener coherencia estratégica cuando la evidencia estadística no alcanza para capturar la complejidad ética, política y cultural que atraviesa a toda organización. Porque decidir no es solo optimizar variables, es definir qué tipo de organización se quiere ser.

En un entorno de evidencia automatizada, la autoridad humana no desaparece sino que se vuelve más exigente. Exige capacidad de veto, demanda asumir la consecuencia sin diluirla en el sistema y requiere gobernar el criterio con método.

La madurez cultural no se mide por el grado de automatización alcanzado, sino por la calidad con la que se integra esa automatización dentro de una arquitectura clara de responsabilidad y coherencia estratégica. Allí, y no en la precisión del modelo, se juega el verdadero liderazgo en la era de la IA.

Referencias

  • OECD (2019). OECD Principles on Artificial Intelligence.
    https://www.oecd.org/going-digital/ai/principles/
  • National Institute of Standards and Technology (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0).
    https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf
  • Reglamento de Inteligencia Artificial de la Unión Europea (AI Act), Artículo 14 – Supervisión humana. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32024R1689
Logo Blecx

Argentina – Buenos Aires – Córdoba – USA

Copyright © 2022