Estimadas lectoras y lectores, es 2025, el futuro ya está aquí, así que bienvenidos y mientras van preparando sus propósitos de mejora, pónganse cómodos y disfruten del principio de todo.
Hace unos meses una persona me pidió consejo sobre cómo evaluar el uso ético de un sistema de Inteligencia Artificial(IA). Para evitar enfoques excesivamente académicos o comerciales, le remití a una publicación de la Comisión Europea que aborda esta evaluación desde siete perspectivas muy interesantes. Se trata de la Guía de evaluación para una IA confiable(ALTAI), una especie de cuestionario rápido que permite a cualquier organización identificar algunos riesgos que pueden surgir en la puesta en marcha y la utilización de un sistema de IA.
El cuestionario tiene 122 preguntas y subpreguntas agrupadas en 7 secciones, y además dice que se enfatiza la flexibilidad de uso, indicando que las organizaciones pueden “utilizar elementos relevantes para el sistema de IA particular de esta lista o añadir elementos a la misma según lo consideren oportuno, teniendo en cuenta el sector en el que operan”, por lo que no es una cosa que se haga en una tarde y tampoco da garantías de cubrir todos los aspectos necesarios para nuestra organización, pero puede ser un comienzo.
ALTAI aborda la agencia y la supervisión humana a través de varias preguntas, evaluando si el sistema de IA está diseñado para guiar o influir en la toma de decisiones humanas y si existe el riesgo de que los usuarios confundan las decisiones algorítmicas con las humanas. También se valora si el sistema de IA podría generar una excesiva dependencia. Evalúa también la necesidad de supervisión humana, aunque no contempla específicamente nuevos riesgos que están apareciendo como el exceso de confianza o el abuso de agencia de un sistema de IA…