Por una IA ética y sostenible
Por Idoia Salazar
Fundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA)
La Inteligencia Artificial (IA) ya incide en múltiples ámbitos de nuestra vida cotidiana, desde el reconocimiento de voz en nuestros teléfonos hasta el análisis de datos en la investigación médica. Su avanzada tecnología ofrece innumerables ventajas como la automatización de tareas, eficiencia, capacidad de procesamiento de grandes volúmenes de datos y personalización de múltiples servicios. Sin embargo, estas ventajas vienen acompañadas de desafíos en cuanto a privacidad, sesgos algorítmicos, responsabilidad en caso de errores y el impacto en el empleo, entre otras cosas.
Uno de los peligros más significativos de una IA no convenientemente supervisada es el sesgo. Ya hemos visto incidencias al respecto que han provocado casos de discriminación por sexo o raza, entre otras. Los sistemas de IA aprenden a partir de datos y, si esos datos reflejan prejuicios existentes en la sociedad, podrían perpetuar o incluso exacerbar esos sesgos. Esto se manifiesta en casos de uso de sistemas de contratación, créditos y procedimientos judiciales, entre otros . Además, sin una regulación adecuada, la IA puede ser utilizada para recopilar, analizar y compartir datos personales sin el consentimiento adecuado. Por otro lado, surge la cuestión de la responsabilidad en caso de errores o accidentes causados por sistemas de IA, sin que haya habido una adecuada supervisión humana. Sin un marco legal claro, determinar quién es responsable puede ser un desafío. La mayoría de estos casos éticamente dudosos anteriormente citados suelen ser derivados de acciones inconscientes o directamente ‘falta’ de ellas. No debemos olvidar ‘el lado oscuro de la IA’ es decir, los problemas derivados de los ataques conscientes o manipulaciones maliciosas de la misma, lo cual es fácil que derive en consecuencias graves en ámbitos como la seguridad nacional o la infraestructura esencial.
A la hora de combatir estos desafíos, la IA no es diferente a otras tecnologías de gran impacto como lo fue el automóvil, en su día, o Internet. Éstas también necesitaron regularse para prevenir consecuencias negativas. En este caso, y teniendo en cuenta su rápida evolución, sin duda, se requiere una regulación dinámica y adaptativa. En cualquier caso, en la mayoría de países, la regulación en materia de IA se encuentra en etapas incipientes. Por ejemplo, en Estados Unidos, la regulación ha sido más sectorial y depende en gran medida de los estados individuales, aunque existen ciertos marcos federales en áreas específicas, como la privacidad o la discriminación.
A nivel global, el reto radica en equilibrar la innovación con la protección del ciudadano. Una regulación excesiva podría sofocar la innovación, mientras que una falta de regulación podría dejar a las personas desprotegidas. En este sentido, la UE lleva ya varios años desarrollando el llamado AI ACT en un esfuerzo común entre los organismos reguladores europeos, empresas, expertos en IA y sociedad civil. Su objetivo: proteger los derechos fundamentales de las personas, garantizar la transparencia en la toma de decisiones de los sistemas de IA y establecer mecanismos de rendición de cuentas y supervisión humana adecuados, entre otras cuestiones básicas. No pretenden regular la tecnología en sí misma, ya que esto supondría un problema para su implementación y desarrollo en la industria de la UE, sino casos de uso específicos que pueden suponer un riesgo.
Por una ‘IA verde’
El concepto de sostenibilidad se entrelaza con estos dilemas éticos, extendiendo la visión hacia el impacto a largo plazo de la IA en nuestro mundo. La sostenibilidad no solo aborda la eficiencia y la preservación de recursos, sino que también incluye consideraciones sobre cómo la IA puede contribuir positivamente a los desafíos globales como el cambio climático. Por ejemplo, se está empleando para mejorar la eficiencia energética y para desarrollar modelos que pronostican con más exactitud los eventos climáticos extremos. Sin embargo, el proceso de entrenar estos complejos modelos de IA es intensivo en energía y recursos, lo que obliga a los investigadores a buscar un equilibrio entre el poder de procesamiento y la eficiencia energética.
Por tanto, la responsabilidad en el desarrollo de la IA no se trata solo de construir sistemas que no hagan daño, sino también de forjar un futuro donde la tecnología funcione en armonía con nuestro medio ambiente y sociedad. En este sentido, se debe fomentar la innovación en el campo de la IA que minimice la huella ambiental. Esto incluye el desarrollo de algoritmos más eficientes y la creación de hardware menos demandante en términos de energía. Asimismo, es importante una colaboración global para abordar los desafíos éticos y de sostenibilidad, compartiendo conocimientos y recursos para evitar la duplicación de esfuerzos y asegurar que las mejores prácticas se difundan y adopten a nivel mundial.
En este contexto, los foros internacionales, entre ellos el Observatorio del Impacto Social y Ético de la IA (OdiseIA) tienen un papel significativo que desempeñar, ya que el esfuerzo común que proporcionan facilita la creación de marcos regulatorios y éticos que trasciendan las fronteras nacionales y que sean receptivos a las necesidades de diferentes culturas y economías. El objetivo debe ser un conjunto de principios universalmente acordados que rija la implementación de la IA, asegurando que se respeten los derechos humanos y se promueva el bienestar colectivo.
Las decisiones que tomemos ahora sobre cómo incorporamos la IA en nuestras vidas definirán la trayectoria de esta tecnología y su papel en la sociedad para las décadas venideras. Al comprometernos con prácticas éticas y sostenibles, podemos asegurar que la inteligencia artificial no solo sea una herramienta para la eficiencia y la innovación, sino también para el bienestar colectivo y el equilibrio ecológico de nuestro planeta. Este es el desafío de nuestra era, y la hora de actuar es ahora.
Idoia Salazar, Fundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA)
Fundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA). Miembro del equipo de expertos del Observatorio de Inteligencia Artificial del Parlamento Europeo. Actualmente está trabajando en el desarrollo del Piloto (Sandbox) de regulación de la Inteligencia Artificial y en el Sello Nacional de IA con el Gobierno de España.
Es profesora Doctora. en la Universidad CEU San Pablo, especializada en Ética y regulación en Inteligencia Artificial. Autora de 4 libros sobre el impacto social de la IA y otras nuevas tecnologías. Los últimos: ‘El algoritmo y yo: GuÍA de convivencia entre seres humanos y artificiales’ y ‘El Mito del Algoritmo: cuentos y cuentas de la Inteligencia Artificial’. Es asesora para España en el Consejo Asesor del Grupo Internacional de Inteligencia Artificial (IGOAI), miembro fundador de la revista Springer ‘AI and Ethics’ y miembro del Global AI Ethics Consortium. (GAIEC).