ALTAI: la guía de evaluación para una IA confiable según la Comisión Europea

"ALTAI: la guía de evaluación para una IA confiable según la Comisión Europea" artículo de Juan Carlos Muria Tarazón en la sección "Diario de Una Tortuga Ninja" de la edición de Enero de 2025 de la Revista Tecnología y Sentido Común TYSC a Revista Líder de Audiencia de la Alta Dirección y los Profesionales en Gestión de Proyectos, Servicios, Procesos, Riesgos y por supuesto Gobierno de Tecnologías de la Información

Estimadas lectoras y lectores, es 2025, el futuro ya está aquí, así que bienvenidos y mientras van preparando sus propósitos de mejora, pónganse cómodos y disfruten del principio de todo.

Hace unos meses una persona me pidió consejo sobre cómo evaluar el uso ético de un sistema de Inteligencia Artificial(IA). Para evitar enfoques excesivamente académicos o comerciales, le remití a una publicación de la Comisión Europea que aborda esta evaluación desde siete perspectivas muy interesantes. Se trata de la Guía de evaluación para una IA confiable(ALTAI), una especie de cuestionario rápido que permite a cualquier organización identificar algunos riesgos que pueden surgir en la puesta en marcha y la utilización de un sistema de IA.

El cuestionario tiene 122 preguntas y subpreguntas agrupadas en 7 secciones, y además dice que se enfatiza la flexibilidad de uso, indicando que las organizaciones pueden “utilizar elementos relevantes para el sistema de IA particular de esta lista o añadir elementos a la misma según lo consideren oportuno, teniendo en cuenta el sector en el que operan”, por lo que no es una cosa que se haga en una tarde y tampoco da garantías de cubrir todos los aspectos necesarios para nuestra organización, pero puede ser un comienzo.

ALTAI aborda la agencia y la supervisión humana a través de varias preguntas, evaluando si el sistema de IA está diseñado para guiar o influir en la toma de decisiones humanas y si existe el riesgo de que los usuarios confundan las decisiones algorítmicas con las humanas. También se valora si el sistema de IA podría generar una excesiva dependencia. Evalúa también la necesidad de supervisión humana, aunque no contempla específicamente nuevos riesgos que están apareciendo como el exceso de confianza o el abuso de agencia de un sistema de IA…

Continuar leyendo…

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver
Privacidad