Si el mes pasado hablábamos de la importancia que otorga Europa a la ciberresiliencia mediante la directiva NIS2, hoy hablamos de como el uso de la inteligencia artificial (IA) generativa está redefiniendo un nuevo frente de guerra en el ciberespacio.
En agosto OpenAI daba ya la noticia de que había desactivado varias cuentas de usuarios, ligadas a un grupo iraní, que habían usado ChatGPT para crear contenido online en inglés y en español como artículos o publicaciones en redes sociales para sembrar polémica entre los votantes estadounidenses (tanto en el sector conservador como progresista).
Una semana antes, Microsoft también anunció que había detectado noticias falsas destinadas a generar división entre la ciudadanía americana y también algunos ataques dirigidos a funcionarios del gobierno estadounidense. Según el responsable del Microsoft’s Threat Analysis Center, mientras que los grupos vinculados a Rusia intentan influir en el resultado de las elecciones, los grupos iraníes intentan que las elecciones no se celebren o que su resultado no sea considerado válido.
Esto, que no es nada nuevo porque ya ha ocurrido al menos en los tres últimos ciclos electorales americanos, es ahora más preocupante porque están utilizando la IA para generar esos contenidos y para realizar comentarios dirigidos a polarizar, consiguiendo que sean más creíbles y también más rápidos de crear, incluso utilizan la IA para plagiar artículos ya existentes pero dándoles la orientación deseada y publicándolos en medios locales creados por estos grupos, afianzando posiciones y credibilidad de cara a publicar luego contenidos falsos más afines a sus intereses. Recordemos que incluso desde el equipo de campaña de Trump afirmaban haber sido objetivo de un ataque de estos grupos donde se habrían obtenido documentos sensibles de carácter interno.
Otro uso que OpenAI afirma que se está dando a ChatGPT es el de realizar reconocimientos de sistemas de control industrial (controladores lógicos programables, etc.), explorando instalaciones y buscando vulnerabilidades para explotarlas. Esto habría provocado ya ataques a plantas de agua potable en Irlanda, Pensilvania, etc., si bien es cierto que al parecer estas instalaciones no estaban demasiado protegidas.
Aunque en los párrafos anteriores nos hemos centrado en la herramienta ChatGPT de OpenAI, en realidad, y como indicaba un post de Anthropic en marzo de 2023, “hasta ahora, nadie sabe cómo entrenar sistemas de IA realmente potentes para que sean útiles, honestos e inocuos de una manera consistente”.
De hecho, aunque según un análisis de Chatterbox Labs a los modelos LLM de Microsoft, Mistral, OpenAI, TII, Anthropic, Cohere y Meta, todos excepto el de Anthropic demostraban ser capaces de generar contenido violento…