La inteligencia artificial ya no es solo una herramienta operativa; está configurando una nueva capa de gobernanza corporativa. Los consejos de administración más avanzados están comenzando a operar con agentes de IA que preparan información, simulan escenarios y acompañan la deliberación estratégica. No sustituyen al criterio humano: lo amplifican. Y eso redefine el equilibrio de poder en las decisiones corporativas.
De VITAL a Aiden: los primeros consejeros digitales
En 2014, Deep Knowledge Ventures en Hong Kong incorporó al algoritmo VITAL como miembro con voto consultivo en su consejo. Diez años después, el holding emiratí IHC nombró a Aiden Insight, un “observador virtual” capaz de analizar en tiempo real las conversaciones del consejo y aportar recomendaciones. Estos hitos marcan el inicio de una nueva gobernanza: la de los consejos híbridos, donde humanos y agentes deliberan juntos.
Según Harvard Business Review (Shekshnia & Yakubovich, 2025), los consejos pioneros ya están utilizando modelos de lenguaje entrenados con información corporativa para preparar sesiones, anticipar riesgos y realizar simulaciones. Pero también reconocen un reto ético y, sobre todo, operativo: encontrar el ratio óptimo humano–agente.
El Work Trend Index 2025 de Microsoft lo llama el human–agent ratio: el equilibrio entre eficiencia automatizada y juicio humano: Un exceso de agentes puede sobrecargar el criterio y aumentar el riesgo; muy pocos, desaprovechar el potencial de productividad. El informe muestra que 82% de los líderes planea integrar agentes como parte de su estrategia de IA en los próximos 12 – 18 meses, y que las organizaciones más avanzadas “Frontier Firms” —aquellas que ya operan con equipos híbridos humano-agente— duplican la probabilidad de estar prosperando frente a sus pares tradicionales.
La Comisión de Riesgos y Auditoría: nuevo eje de gobernanza
En este contexto, la Comisión de Auditoría (o de Riesgos, en los modelos más integrados) debe pasar de la supervisión reactiva al liderazgo estratégico. El artículo de PwC en Harvard Law School Forum on Corporate Governance (2025) propone que el comité asuma un papel decisivo en:
- Supervisión del uso de IA en informes financieros y control interno.
- Gestión de riesgos de modelos de IA (sesgos, opacidad, uso de datos sensibles, dependencia de terceros).
- Prevención del “AI washing” mediante transparencia y trazabilidad.
- Formación de los consejeros para interpelar a la dirección con criterio técnico y ético.
En la práctica, esto significa redefinir el mapa de riesgos corporativos: incluir la IA en la matriz de riesgos estratégicos y establecer políticas de IA Responsable alineadas con los marcos regulatorios emergentes.
Marco normativo: del AI Act a las normas ISO
La entrada en vigor del AI Act europeo (2025) refuerza esta exigencia. Clasifica los sistemas de IA según su nivel de riesgo y exige gobernanza, explicabilidad y registro de decisiones automatizadas. A ello se suman las nuevas normas ISO/IEC 42001 y 42006, que establecen los requisitos de sistemas de gestión de IA responsable y auditoría de riesgos algorítmicos, respectivamente. Estos estándares convierten lo ético en operativo: permiten a la comisión verificar el cumplimiento mediante auditorías internas y externas, como hoy ocurre con la ciberseguridad o la privacidad (ISO 27001 o 27701).
Una brújula ética: el Manifiesto de Forética
El Manifiesto por una Inteligencia Artificial Responsable y Sostenible —impulsado por FORÉTICA y el Consejo Empresarial Español para el Desarrollo Sostenible— propone cinco principios que refuerzan este marco:
- Alinear la IA con la neutralidad climática y la protección de la naturaleza.
- Garantizar sistemas lícitos, éticos y transparentes.
- Respetar los derechos humanos y la inclusión.
- Promover la diversidad y la equidad en los algoritmos.
- Fortalecer la rendición de cuentas y la supervisión humana.
Estos principios sitúan al consejo en el centro de la gobernanza de la IA: deben traducirse en políticas, métricas y mecanismos de revisión ética, especialmente desde la Comisión de Riesgos.
La frontera del trabajo inteligente
El Work Trend Index 2025 describe la transición hacia las empresas pioneras “Frontier Firms”, estructurada en tres fases:
- Humano con asistente: cada empleado tiene un copiloto.
- Equipo humano-agente: los agentes se integran como “colegas digitales”.
- Organización liderada por humanos, operada por agentes, donde el consejo fija la dirección y los agentes ejecutan procesos y decisiones supervisadas.
El reto estratégico para los consejos será gestionar esa coexistencia, estableciendo métricas de eficiencia y de confianza. Porque la capacidad de supervisar agentes será tan importante como la de dirigir personas.
El futuro del consejo híbrido
La evidencia converge: los consejos que entiendan esta transición —tecnológica, ética y organizativa— no solo serán más productivos, sino más resilientes. El liderazgo humano seguirá siendo esencial, pero ya no bastará con la intuición: deberá sustentarse en una gobernanza basada en datos, métricas de confianza y supervisión algorítmica.
Los Consejos del futuro serán híbridos: humanos aumentados por inteligencia artificial, pero guiados por principios humanos. La clave no será cuánto sepan de IA, sino cómo la gobiernen.
Fuentes:
- How Pioneering Boards Are Using AI, Harvard Business Review 2025) https://hbr.org/2025/07/how-pioneering-boards-are-using-ai
- Oversight in the AI Era: Understanding the Audit Committee’s Role, PwC / Harvard Law School Forum (2025) https://corpgov.law.harvard.edu/2025/07/12/oversight-in-the-ai-era-understanding-the-audit-committees-role/
- La Agenda del Consejo en 2030, PwC–ESADE Center for Corporate Governance (2025) https://www.esade.edu/faculty-research/es/centro-gobierno-corporativo/
- Work Trend Index 2025 – The Year the Frontier Firm Is Born – Microsoft (2025) Work Trend Index: Microsoft’s latest research on the ways we work.




