En el número anterior de la revista hablábamos del impacto de la inteligencia artificial (IA) en la sociedad, un artículo que generó bastante interés en nuestros lectores. En él ya anticipábamos ciertos aspectos éticos y también que la Unión Europea estaba elaborando un reglamento (la noticia ha sido que en el momento de escribir estas líneas ya se ha alcanzado un acuerdo y el reglamento entrará en vigor de forma íntegra en 2026).
Hoy vamos a hablar de los problemas éticos que surgen en el trabajo con sistemas de IA y los desafíos asociados, que no son pocos:
El primero es confundir indicios con evidencias. Denominamos indicios a lo que ocurre cuando los algoritmos, que en el fondo manejan probabilidades pero no certezas, muestran correlaciones que no deben confundirse con una relación “causa-efecto”. Es lo que en inglés denominamos “actionable insights”, indicios que podemos detectar y responder a ellos, pero que no debemos tomarlos como si fueran evidencias concluyentes. Deberíamos determinar la causalidad correctamente a través de un análisis de datos robusto, para asegurar que obtenemos los resultados deseados al actuar sobre determinada población.
Otro problema es la falta de escrutabilidad o transparencia. Dada la escala y la complejidad de la mayoría de modelos de IA es muy difícil en muchos casos entender el proceso de inferencia seguido para conectar los datos de entrada con un resultado. Esto es especialmente grave cuando estamos hablando de herramientas diagnósticas, por ejemplo. El reto aquí sería eliminar la opacidad de los algoritmos de IA. Al fin y al cabo, un algoritmo poco predecible o poco interpretable será muy difícil de controlar, monitorizar y corregir.
En cuanto a los sesgos por problemas de calidad la frase “si entra basura, sale basura”, muy utilizada en computación y en análisis de datos, define muy bien este problema. Nuestro sistema de IA es muy sensible a la calidad de los datos de entrada, por lo que sus conclusiones no pueden ser más válidas que los datos que lo han alimentado. El reto aquí sería la eliminación de sesgos. A menudo pensamos que las máquinas tienen mucho menos sesgo que los seres humanos, pero esto no siempre es así porque estos sistemas dependen de los datos con los que han sido entrenados, entre otros factores que también pueden introducir sesgos (programación, pesos de criterios, etc.). La inclusión y la equidad son aspectos a incorporar en los algoritmos para superar este reto.
También tenemos el problema de los resultados injustos. En ocasiones los algoritmos no aplican criterios éticos de igualdad de oportunidades, derechos humanos, diversidad, etc. Incluso en el caso de que no existan sesgos como los mencionados en el punto anterior, una acción propuesta o ejecutada por un sistema de IA puede resultar…
Licenciado en Informática y Doctor Cum Laude en Organización de Empresas por la Universidad Politécnica de Valencia. Con acreditación en Gestión de Datos para Investigación Clínica por la Universidad de Vanderbilt, ha sido profesor de marketing digital, big data e inteligencia de negocio, y ahora es profesor de Organización de Empresas en la Universidad Politécnica de Valencia. Miembro de la Junta Directiva de la Asociación Valenciana de Informáticos de Sanidad (AVISA), auditor CISA, CGEIT y profesional certificado en ITIL, COBIT 5 y PRINCE 2. Con casi 20 años de experiencia en el sector de la salud, ha dirigido proyectos de interoperabilidad, seguridad y big data, y actualmente es directivo en una importante multinacional de soluciones de TI para el sector de la salud.
Debe estar conectado para enviar un comentario.