Buscar
Cerrar este cuadro de búsqueda.

AI on ESG

¿Pueden los Consejos de Administración gobernar la IA?

Por Mario Lara, Director de Esade Madrid y del Centro de Gobierno Corporativo.
Néstor Salcedo, Investigador del Centro de Gobierno Corporativo de Esade.

"La clave reside en encontrar un equilibrio entre abordar sus desafíos, mitigar sus riesgos inherentes, y maximizar los beneficios en todas las dimensiones de la gestión empresarial de una IA responsable"

El avance de las tecnologías de información (TI), y en particular la inteligencia artificial (IA), ha permeado cada rincón de nuestra sociedad, transformando el modo en que las empresas se gobiernan y operan sus negocios, y, en consecuencia, sus consejos de administración afrontan los diferentes contenidos de sus agendas incluidos los asuntos ESG.

La reciente Declaración de Bletchley firmada en Reino Unido a inicios de noviembre por más de 28 países para impulsar el desarrollo seguro y responsable de la IA, centrada en las personas y en beneficio de la comunidad global (AI Safety Summit, 2023) es probablemente un buen indicio de la sensibilidad que hoy existe de apoyar los esfuerzos de un desarrollo ético de la IA. Sin embargo, la reciente crisis de OpenAI, creadora del ChatGPT, a mediados de noviembre y la fractura generada en su gobierno corporativo, con un fuerte debate de fondo sobre el enfoque y esfuerzos futuros para el desarrollo de la IA, han hecho saltar las alarmas, sobre si seremos capaces de acompasar el desarrollo de esta tecnología con un enfoque ético y responsable. Como muestra del fuerte debate dentro de la compañía y social, en solo un fin de semana, la presión de accionistas e inversores y el anuncio de renuncia voluntaria de todos los empleados lograron la dimisión y reestructuración de todo el Consejo y el retorno, después de su cese, tanto del Presidente y el CEO de la compañía (Roose, 2023). Estos acontecimientos ponen sobre la mesa el debate sobre, ¿Cómo los consejos de administración pueden adoptar y gobernar estratégicamente las TI tan complejas y especializadas como la IA, y cómo incorporarlas en su agenda y a sus procesos de decisión y supervisión asegurando una visión ética de su uso?

Dar respuesta a esta pregunta exige a un consejo de administración, de una parte, disponer de una valoración del impacto de la IA en la cadena de valor del sector en el que la compañía opera, identificar los riesgos que pueden generar una disrupción de tan alto impacto en su modelo operativo o de negocio, y disponer de una buena comprensión de cómo aborda el equipo directivo la gestión de las TI y en particular de la IA generativa; pero de otra parte requiere que el propio consejo con nivel adecuado de competencia tecnológica, comprendan que uso pueden hacer de la IA generativa para apoyar el propio trabajo que desarrollan en cumplimiento de sus deberes fiduciarios.

Un reciente informe sobre tecnología y gobierno corporativo de Xvalue, Capgemini y Telefónica (Estévez y Morgado, 2023) indica que un 90% de consejeros de empresas españolas considera la TI como un factor clave para el futuro de la estrategia empresarial, y el 71% cree que la IA tendrá un rol fundamental en su compañía. Sin embargo, el 87% cree que los consejos deberían mejorar su perfil y conocimientos en TI. Un estudio de Esade CGC en colaboración con Diligent (Lara et al., 2022) evidenció que, de 5295 compañías cotizadas de 50 países en Norte América, Europa, Asia y Oceanía, sólo el 8% de los consejeros disponían de competencia (experiencia/conocimiento) en TI. Estos datos evidencian una gran oportunidad para mejorar la efectividad de los Consejos, pero también plantean riesgos, dilemas éticos y desafíos significativos con necesidad de compromisos y acciones desde ellos mismos.

De los dilemas y desafíos basados en los riesgos

La adopción y uso de la IA plantea dilemas y desafíos en el gobierno corporativo que exigen a los Consejos disponer de una categorización específica de sus riesgos (Esfera Consejeros, 2023; PwC y OdiseIA, 2022). Riesgos que van desde la protección de datos y la seguridad hasta la equidad, transparencia y la medición del rendimiento empresarial, alimentando todo ello la necesidad de desarrollar nuevas regulaciones para salvaguardar desde una perspectiva ética los derechos de los diferentes grupos de interés, especialmente los empleados, proveedores y clientes, e impactando en la gestión de problemas globales como, por ejemplo, la ruptura de las cadenas de suministro o la gestión de recursos naturales.

Asimismo, el desarrollo de modelos de IA de gran escala y generativas, como ChatGPT, Midjourney, o DALL-E 2, han demostrado capacidades innovadoras, no exentos de riesgos de negocio debido a la opacidad inherente en sus algoritmos. Diversas universidades como Harvard, Oxford, o Stanford, advierten sobre la posibilidad de que incorporen sesgos que pueden implicar graves riesgos tecnológicos, reputacionales, y de cumplimiento, resaltando los complejos dilemas éticos asociados a su desarrollo e implementación.

Otro desafío identificado son los riesgos operativos por la integración de la IA en los procesos empresariales. Aunque la IA puede ofrecer mejoras de rendimiento y generar eficiencias operativas, su adopción plantea enormes desafíos éticos por los impactos en decisiones claves en la gestión de las personas o la asignación de recursos, que requieren especial supervisión por los consejos de administración

La implementación de la IA contribuye a acercar al debate del Consejo ámbitos como las inversiones de TI y el desarrollo y gestión del talento que tradicionalmente no han dispuesto de mucha atención en sus agendas. La necesidad de ejecutar proyectos de TI de altísima inversión obliga a los Consejos a supervisar la capacitación y disponibilidad de talento especializado, así como sus estrategias de atracción y retención. Además, estas tecnologías crean nuevos empleos, pero a su vez proyectan la desaparición de empleos tradicionales, despertando riesgos reputacionales por la incertidumbre en las plantillas por los potenciales procesos de restructuración por obsolescencia, y planteando la necesidad de abordar procesos de reskilling masivos que minimicen su impacto social (S).

Además, el rápido desarrollo y adopción de nuevas tecnologías como la IA puede agravar riesgos para el medio ambiente. El aumento del consumo energético debido a los altos requerimientos de los centros de datos y la necesidad de entrenar y operar modelos de IA, puede incrementar el volumen de emisiones de carbono. La generación de nuevos residuos electrónicos, la intensificación del uso de recursos naturales y el impacto en la biodiversidad son otros riesgos (E) a controlar por parte de los consejos.

Estos desafíos y el hecho de que la IA, recrea los sesgos con la que sus modelos fueron creados, inventa datos, al extrapolar hechos o palabras y su utilización puede contribuir a filtrar al mercado datos sensibles, exige a los Consejos de Administración abordar preguntas críticas: ¿Cómo garantizar que los modelos de IA desarrollados o adoptados por la empresa sean éticos, aseguren la seguridad y privacidad de la información o no perpetúen sesgos o discriminación? ¿Cómo evitar que el uso de la IA nos haga incurrir en errores graves de apreciación y nos lleve a decisiones injustas? ¿Cuál es el impacto que pueden generar en nuestras plantillas? ¿Cómo asegurar la transparencia, comprensión y explicabilidad necesaria en las decisiones tomadas por la IA? ¿Hasta qué nivel debemos o podemos delegar decisiones basadas en IA? ¿Es asumible y en qué condiciones disponer de herramientas de IA para procesos de decisión del Consejo? La gobernanza (G) en torno a la IA es fundamental para evitar estos riesgos, asegurar una adecuada rendición de cuentas y maximizar sus beneficios a largo plazo.

Compromisos desde los consejos de administración

Los Consejos de Administración pueden apoyar la adopción de una IA responsable, (van der Mullen, 2021), destacando como algunos compromisos relevantes:

  1. Utilizar la IA en la definición del propósito corporativo: Esto implica utilizar la IA para analizar datos variados de múltiples fuentes, comprender mejor las expectativas de los stakeholders y contribuir a la redefinición del propósito corporativo, generando algunas ventajas claras como la reducción de asimetrías de información entre el gobierno y la gestión, así como fortaleciendo la legitimidad reputacional.
  2. Identificación y priorización de inversiones de TI (i.e., IA) con enfoque ESG: Esto se traducirá en usar la IA para mejorar procesos internos, reducir la huella ambiental o cumplir con las expectativas de los stakeholders en materia de sostenibilidad. Es esencial que los Consejos estén al tanto de las cambiantes expectativas sociales en ESG, no solo para cumplir con la regulación, sino para anticipar y responder proactivamente a estas demandas. La IA puede ayudar a monitorizar y analizar mejor estas tendencias.
  3. Integrar la IA en la gobernanza: Se puede impulsar la adopción de una IA responsable al formalizar su inclusión en la agenda del Consejo o en una comisión especializada en TI/IA. Esta comisión, puede abordar la gobernanza de la IA de manera integral, identificando cómo puede aplicarse por ejemplo en áreas como diversidad, equidad e inclusión (DEI), la gestión del talento, el cumplimiento regulatorio o la comunicación con inversores. Además, desde una perspectiva de largo plazo pueden evaluar e impulsar inversiones TI, priorizando tecnologías que contribuyan mejor a los retos en sostenibilidad.
  4. Mejorar la comunicación no financiera al mercado: La IA puede ayudar no sólo a entender las necesidades de los stakeholders sino mejorar la generación de informes eficientes y transparentes, fortaleciendo la confianza en los compromisos de la empresa en materia de ESG.

 

Modelos de Estructura de Gobierno de las IA

Finalmente, nos gustaría destacar como algunos estudios (Forrest, et al. 2022), profundizan en diferentes modelos de participación de los Consejos en el gobierno de TI con énfasis en la IA, para abordar de manera efectiva este desafío estratégico.

  1. Participación regular y completa del consejo de administración: Este modelo se adapta a empresas donde la tecnología es vital para su negocio. Requiere que todos los consejeros comprendan las implicaciones tecnológicas y participen activamente en los debates y decisiones estratégicas. No es excluyente con un consejo asesor para la dirección general para evaluar áreas específicas y apoyar en incidentes críticos.
  2. Comisiones permanentes de tecnología: especialmente para empresas que no son de base tecnológica. Estas comisiones ayudan a conectar la estrategia corporativa con lo digital, priorizando decisiones tecnológicas y supervisando aspectos como la ciberseguridad.
  3. Comisiones temporales: Útiles en momentos de fuertes transformaciones o alta inversión en TI. Proporcionan supervisión especializada y validación en momentos clave, como transiciones a la nube o eventos cibernéticos importantes.
  4. Participación informal del consejo de administración: Es más adecuado cuando sólo uno o dos consejeros tienen amplia experiencia técnica y la dirección necesita asesoramiento específico sobre temas estratégicos en materia de TI/IA.

Estos modelos pueden coexistir o combinarse y su elección dependerá de la situación y necesidades específicas de cada empresa.

En definitiva, la adopción de la IA por parte de los Consejos implica dilemas y desafíos significativos. La clave reside en encontrar un equilibrio entre abordar sus desafíos, mitigar sus riesgos inherentes, y maximizar los beneficios en todas las dimensiones de la gestión empresarial de una IA responsable para así garantizar un impacto positivo a largo plazo de la compañía.

Referencias

AI Safety Summit (noviembre 1, 2023). The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023. gov.uk. URL: https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
Estévez, R. y Morgado, J. (mayo 2023). La tecnología desde los consejos de administración. Esade Centro de Gobierno Corporativo. URL: https://www.esade.edu/faculty-research/es/centro-de-gobierno-corporativo/publication/la-tecnologia-desde-los-consejos-de-administracion
Esfera Consejeros (2023). Riesgos y oportunidades en el uso de la IA en la empresa. Serie Transformación Digital. EnFoco. Madrid: Instituto de Auditores Internos.
Forrest, W., Li, S., Tamburro, I. y van Kuiken, S. (septiembre 15, 2022). How effective boards approach technology governance. McKinsey Digital. URL: https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/how-effective-boards-approach-technology-governance
Lara, M. Aguilera, R., Infantes, P., Nascimiento, K., Arrarte, R., Frimptong, E. (2022). Environmental (E) and Socially (S) friendly boards: Linking board effectiveness attributes with E and S performance. Esade Centro de Gobierno Corporativo. URL: https://www.esade.edu/itemsweb/wi/research/cgc/CGC_Informe_Environmental_and_Socially_friendly_boards_Linking_board_effectiveness_attributes_with_E_and_S_performance.pdf
PwC y OdiseIA (2022). GuIA de buenas prácticas en el uso de la inteligencia artificial ética. Madrid: PwC. https://www.pwc.es/es/publicaciones/tecnologia/assets/guia-buenas-practicas-uso-inteligencia-artificial-pwc-odiseia.pdf
Roose, K. (noviembre 21, 2023). Explicamos el caos en OpenAI. The New York Times. URL: https://www.nytimes.com/es/2023/11/21/espanol/sam-altman-openai.html
van der Mullen, R. (noviembre 19, 2021). ¿Buscas crear un programa ESG? Ten en cuenta estos tres consejos. Gartner. URL: https://www.gartner.es/es/articulos/buscas-crear-un-programa-esg-ten-en-cuenta-estos-consejos

Mario Lara, director de Esade Madrid y del Centro de Gobierno Corporativo de Esade

Mario Lara es director de Esade Madrid y del Centro de Gobierno Corporativo de Esade. Es director Académico del Programa para Consejeros en Esade y del programa ESG para consejeros. Especialista en tercer sector y gobierno corporativo, cuenta con treinta años de experiencia en el asesoramiento a grandes grupos nacionales e internacionales, así como a empresas cotizadas.

Ha desarrollado gran parte de su trayectoria profesional en PwC, donde entró en 1997 y fue promocionado a socio en 2004. Es consejero independiente y miembro de la comisión de nombramientos, retribuciones y ESG del consejo de administración del grupo Prim. Es asesor Senior para España de Georgesondesde 2019.

Mario es Licenciado en Derecho y Letrado Asesor de Empresas por la Universidad Pontificia Comillas ICAI-ICADE. Posee un executiveMBA por la UniveristyofHouston , realizó el programa de estrategia Corporativa para Consejeros en Esade y realizó en IE Business Schoolel programa Desarrollo de alta Dirección.

En sus áreas de interés están el Gobierno Corporativo, la comisión de nombramientos y retribuciones, asuntos de ESG y la transición al consejo.

Néstor Salcedo, Investigador del Centro de Gobierno Corporativo de Esade

Nestor U. Salcedo es investigador postdoctoral en el Centro de Gobierno Corporativo de ESADE, donde sus estudios recientes se centran en la transición de ejecutivos a consejeros, la dinámica de los comités del consejo, la relación entre el gobierno corporativo y las tecnologías de la información, y el gobierno corporativo comparado en Iberoamérica.

Además, es miembro académico del Instituto Europeo de Gobierno Corporativo (ECGI), de la Sociedad Internacional de Gobierno Corporativo (ICGS), y profesor adjunto de ESAN Graduate School of Business.

También, es miembro de los Consejos Editoriales del Journal of Economics and Development (JED), Corporate Governance and Organizational Behavior Review (CGOBR) y Journal of Cases on Information Technology (JCIT). Ha sido editor en jefe de la Journal of Economics, Finance and Administrative Science – JEFAS (2021-2023).

Ph.D. en Economía, Gestión y Organización de la Universitat Autónoma de Barcelona, MRes. y MBA de la Universidad ESAN, y BSc. en Arquitectura de la Universidad Nacional de Ingeniería de Perú.