A estas alturas, la Inteligencia Artificial parece que es onmipresente, y no cabe duda que sus avances en los últimos años han sido espectaculares. Y como ocurre con cualquier nueva tecnología o avance, sus luces y sus sombras se hacen patentes en cuanto comienza a ser utilizada, provocando debates y críticas en la sociedad. Sin embargo, en este caso, la ciberdelincuencia ha encontrado un nuevo filón en los diferentes sistemas de inteligencia artificial para llevar a cabo sus siniestras actividades.
En esta sección de Tecnología y Sentido Común nos hemos cuidado mucho, hasta ahora, de comentar, analizar, o incluso mencionar, a los sistemas de inteligencia artificial (IA), cuya irrupción en el gran público ha sido tan comentada en el último año y medio. La presentación mundial y popularización de sistemas de inteligencia artificial generativa, como ChatGPT o Dall-e, que rápidamente han sido integrados por organizaciones como Microsoft en sus productos de consumo, ha resultado sorprendente, cuanto menos.
Sin embargo, rápidamente estos sistemas han provocado la alerta a diferentes estamentos sobre aspectos como la ética de su uso, su impacto en el empleo, o los problemas de orden social y de seguridad que pueden suponer. Alumnos que piden a una IA que les elabore los trabajos para clase, evitándose el esfuerzo de tener que realizarlos por sí mismos, pero privándose con esta acción del objetivo primario del encargo de esas tareas, que no es otro que el aprendizaje. Abogados que preparan escritos ante los tribunales apoyándose tanto en la IA, que acaban usando referencias legales inexistentes, provocando daños a sus clientes y a ellos mismos, y no sólo en su reputación profesional. Mujeres que son víctimas de un nuevo tipo de acoso y violencia al ver sus caras integradas perfectamente en videos de contenido sexual, generados por una IA y publicados por descerebrados o personas vengativas. Basten estos tres ejemplos, de los que todos estamos al corriente, para hacer notar que esta tecnología requiere de un armazón legal nuevo, y de nuevas herramientas para la detección de este tipo de documentos, fotografías, audios o videos generados por la IA, que impidan que cualquiera de nosotros podamos vernos involucrados en una situación problemática por la acción combinada de una mala persona y una herramienta de IA mal utilizada…
Doctor en Informática por la Universitat Politècnica de València y Master en Dirección TIC de la UPM-INAP, dispone de varias certificaciones internacionales en Operación, Gestión y Gobierno de TI, tales como ITIL, FITSM, PRINCE2 y COBIT. Escritor técnico, es profesor asociado en la Universitat de València, y actualmente coordina el servicio de TI de una organización pública
Debe estar conectado para enviar un comentario.