Cuando llegue a las manos de nuestros lectores y lectoras este artículo es altamente probable que el texto definitivo de la Artificial Intelligence Act haya visto la luz. Una cuestión que ha permanecido constante en todas las versiones es la de la gobernanza de datos. Los modelos de cumplimiento normativo en protección de datos, pero también en el uso de cualquier tipo de dato no personal, constituyen un requerimiento previo para el desarrollo de cualquier sistema de IA. Aunque nuestro marco de referencia sea la regulación de los sistemas de alto riesgo lo cierto es que los principios de gobernanza deberían ser comunes a cualquiera de ellos.
Con independencia de los requisitos específicos, a los que después aludiremos, la norma contempla una alta exigencia en la garantía de la calidad y la representatividad de los datos. Así, los conjuntos de datos de entrenamiento, validación y prueba serán pertinentes, representativos y en la mayor medida posible, carecerán de errores y estarán completos. Además, deberán tener las propiedades estadísticas adecuadas, también en lo que respecta a las personas o los grupos de personas en relación con los que se pretenda utilizar el sistema de IA. Por último, tendrán en cuenta, en la medida necesaria en función de su finalidad prevista, las características o elementos particulares del contexto geográfico, conductual o funcional específico en el que se pretende utilizar el sistema de IA de alto riesgo.
Para alcanzar estos objetivos es fundamental entender la metodología de protección de datos desde el diseño y por defecto. En la segunda dimensión el principio de minimización de datos deberá interpretarse como una regla de ajuste proporcional. Ni es tolerable la bulimia de los datos ni es admisible limitar el volumen, calidad o naturaleza de los datos de modo tal que se ponga en riesgo su calidad y se diseñen sistemas que ofrezcan resultados potencialmente discriminatorios. Desde el primer valor el enfoque de riesgos del RGPD, y particularmente en materia de derechos fundamentales y evaluación de impacto relativa a la protección de datos, deberían ofrecer una batería de medidas destinadas a prever y evitar los riesgos que se acaban de describir.
Por otra parte, y aunque AI Act se refiera a las categorías especiales de datos cabe considerar que la adopción de salvaguardias adecuadas para los derechos y las libertades fundamentales de las personas físicas, la utilización de las medidas de seguridad y las técnicas de tratamiento de datos personales ya sea en la anonimización, o especialmente cuando esta sea imposible, deberían ser reglas aplicables en todos los casos como buena práctica.
Por otra parte, la norma propone un conjunto de prácticas centradas en: a) la elección de un diseño adecuado; b) los procesos de recopilación de datos; c) las operaciones de tratamiento oportunas para la preparación de los datos, como la anotación, el etiquetado, la depuración, el enriquecimiento y la agregación; d) la formulación de los supuestos pertinentes, fundamentalmente…
Profesor en el Departamento de Derecho Constitucional, Ciencia Política y de la Administración y Director de la Cátedra de Privacidad y Transformación Digital. Doctor en Derecho por la Universitat de València. Miembro de la mesa de expertos en datos e Inteligencia Artificial de la Consejería de Innovación y Universidades de la Generalitat Valenciana. Miembro del grupo de expertos para la elaboración de una Carta de Derechos Digitales de la Secretaría de Estado de Digitalización e Inteligencia Artificial del Ministerio de Asuntos Económicos y Transformación Digital. Ha sido Presidente de la Asociación Profesional Española de la Privacidad y responsable del Área de Estudios de la Agencia Española de Protección de Datos.
Debe estar conectado para enviar un comentario.