Buscar
Cerrar este cuadro de búsqueda.

El Derecho como garantía ante los retos planteados por la inteligencia artificial

Por Javier Fontcuberta
Director General de Cuatrecasas

Toda empresa deberá conocer el marco normativo que regule el uso de sistemas de IA. Tanto las normas creadas específicamente para regular la IA como otras preexistentes deberán configurar la agenda que cada organización establezca para asegurarse un uso responsable de esta tecnología.

Pocas tecnologías han evolucionado tan rápidamente como los sistemas de inteligencia artificial («IA»). Vivimos actualmente una efervescencia de la IA, quizás asimilable a la que se experimentó en su momento con la universalización del ordenador personal, el acceso a Internet, o los dispositivos móviles inteligentes.

Estudiantes de primaria, instituciones públicas y privadas, organizaciones de toda clase, la ciudadanía y la sociedad en general. Todos, sin excepción, nos encontramos inmersos en un proceso de integración de herramientas de IA en nuestro quehacer diario. El objetivo: realizar nuestras tareas de forma distinta, mucho más eficiente y rápida. Esta tecnología está (o estará próximamente) en disposición de generar sistemas de atención al cliente completamente automatizados, establecer sistemas automáticos de cualificación crediticia, generar contenidos audiovisuales con una recreación perfecta de personas, diagnosticar rápida y fiablemente a pacientes, o incluso incrementar los niveles de seguridad pública con sistemas de identificación y seguimiento automatizados de personas sospechosas.

El Derecho está llamado a desempeñar una función nuclear en el establecimiento de las reglas que definan el desarrollo y el uso de estas nuevas herramientas, asumiendo una posición de garante para el más estricto respeto a los derechos y libertades de las personas.

La Unión Europea ha decidido dar un paso al frente en la dirección indicada y se ha erigido en el primer actor regional en articular un marco jurídico que regule esta materia. A diferencia países tan relevantes como Estados Unidos, que fiel a su tradición más liberal parece estar optando por un enfoque eminentemente basado en la autorregulación, la Unión Europea está ultimando la redacción de un reglamento conocido como la AI Act, por su denominación inglesa. Este reglamento, cuya aprobación se espera en las próximas semanas, está dirigido a dar protección a los ciudadanos ante los riesgos asociados a esta tecnología, garantizando debidamente sus los derechos y libertades. Al tiempo, sienta el marco normativo en cuyo perímetro deberán actuar las empresas y demás entidades que operan en el mercado.

Bajo la normativa europea, tanto los proveedores de esta tecnología, como sus distribuidores y los usuarios deberán asegurar el cumplimiento de una serie de obligaciones en atención al grado de riesgo del sistema de IA en cuestión. Asimismo, la nueva normativa europea hace de la transparencia uno de sus principales bastiones , asegurando, por ejemplo, que los sistemas que generen o manipulen contenidos de imagen, texto, sonido, o vídeo que puedan sembrar dudas sobre su originalidad deban identificarse como creados por medio de una herramienta de IA.

Debe hacerse notar, sin embargo, que la entrada en vigor de la AI Act no conllevará una regulación omnicomprensiva de esta materia. La AI Act convivirá con normas que la han precedido y que tratan, de algún modo esta materia. Pensemos, por ejemplo, en el Reglamento General de Protección de Datos. A pesar de haberse aprobado en 2016, ya incluyó una regulación específica para la toma automatizada de decisiones, incidiendo directamente en los procesos basados en sistemas de IA. Nos se prevé, por el momento, que la AI Act lleve aparejada la derogación esta norma.

Además, sebe subrayarse que el impacto de esta nueva normativa no se agota en su propia disciplina. El establecimiento de sistemas de definición de precios atendiendo a las fluctuaciones de los mercados, particularmente relevantes en los entornos de comercio electrónico, deberán asegurar el cumplimiento estricto de la normativa de defensa de la competencia. De un modo parecido, cualquier uso de la tecnología de IA en el sector audiovisual deberá ser respetuosa, por ejemplo, con la normativa reguladora de los derechos de autor.

Otro de los grandes ámbitos en los que el Derecho jugará un papel esencial para la implantación de este tipo de tecnologías es el de las relaciones laborales. La capacidad del empresario para evaluar y hacer seguimiento de sus empleados por medio de herramientas de IA deberá tener muy en cuenta la normativa derivada del derecho del trabajo, la cual se convertirá en un pilar central para definir las reglas de juego en este ámbito.

Aunque criticada en muchas ocasiones, la regulación parece convertirse en esta ocasión (una vez más) en los cimientos sobre los que se asienta la garantía de los derechos de las personas. Ahora solo falta que el legislador acierte y fije un marco normativo propicio para que, asegurando un respeto íntegro de los derechos mencionados, no ponga en riesgo en el desarrollo y progreso técnico en una Europa necesitada de respaldo para un adecuado posicionamiento competitivo.  

Javier Fontcuberta, Director General de Cuatrecasas

Licenciado en Derecho por la Universitat de Barcelona, Máster en Asesoría Jurídica de Empresas por el IE Business School y Doctorado cum laude en Derecho por la Universitat Ramon Llull de Barcelona, es experto en contratación mercantil, sobre todo en materia de distribución comercial, fusiones y adquisiciones y gobierno corporativo. Ha dirigido proyectos internacionales complejos y multidisciplinares, planificando, definiendo y ejecutando la estrategia jurídica. En diciembre de 2022 asumió la dirección general de Cuatrecasas, liderando el nuevo plan estratégico de la Firma, así como su proceso de transición sostenible.