En unas recientes jornadas organizadas por AVALNET tuve el placer de asistir a una inauguración tan emocionante como provocadora. En ella, Manuel Julia abordó los retos de la IA para la empresa valenciana desde un enfoque de riesgo particularmente interesante. Y ello sin ahorrar alguna crítica al marco legislativo y a los enfoques de los reguladores. Su discurso resultó tan significativamente atractivo que me obligó a repensar como ponente cuál era el mensaje que yo debería transmitir a la audiencia y ahora quisiera compartir.
Cuando se trata de incorporar una tecnología tan sofisticada como la inteligencia artificial los juristas no podemos seguir transmitiendo un discurso ajeno a la empresa y de difícil asimilación. Esto impide entender el marco regulador como algo distinto del cumplimiento de un conjunto de obligaciones formales y particularmente caras. Y este es un grave error porque convertimos el derecho en una pieza odiosa, mal recibida por la empresa e incluso por las personas que en ella realizan su actividad, cuyo despliegue acaba siendo particularmente ineficiente, cuando no contraproducente. Nuestra obligación primaria consiste en transmitir cuáles son las virtudes de incorporar un análisis de riesgo regulador y en subrayar el valor estratégico del cumplimiento normativo para la empresa que va incorporar tecnología. Y especialmente para aquella que va a desplegar su actividad en el territorio del desarrollo y la prestación de servicios vinculados a las tecnologías de la información. Y este tipo de riesgo no se refiere únicamente a la posibilidad de que recibamos de una multa.
Se trata de verificar cómo la aplicación de la legislación vigente en áreas significativas y particularmente en materia de protección de datos, de seguridad de la información y de responsabilidad en la prestación de servicios de la sociedad de la información, va a contribuir al despliegue de nuestras ideas al servicio de la innovación empresarial. Las empresas que quieren adoptar la IA como herramienta para desplegar su actividad deben comprender que es necesario acomodar la cultura corporativa, la formación de sus empleados, y el propio modelo de gestión a las condiciones previas imprescindibles para asegurar que no existen riesgos y que no se va a causar ningún daño. Estas tecnologías no funcionan necesariamente como un como un “plug&play”. Por ello es esencial acomodar toda nuestra práctica a los requerimientos normativos que exigen. Precisamente por ello, el Reglamento de Inteligencia Artificial obliga a desplegar actividades formativas destinadas a todos aquellos que utilicen estas herramientas y, en sede de regulación de los sistemas de alto riesgo, impone un deber de transparencia que asegure que el modelo de despliegue sea el más adecuado y gestione el riesgo para los entornos en los que vayan a funcionar.
Por otra parte, disponer de un modelo de cumplimiento normativo resulta absolutamente estratégico para aquellas entidades que no solo sean meros usuarios pasivos de la tecnología, sino que a la vez deban integrar información propia en el sistema de IA para alcanzar sus objetivos. Veamos un ejemplo sencillo, el de las empresas que para mejorar los procesos logísticos asociados a la entrega de producto al cliente final necesitan realizar estudios de movilidad…