IA generativa y ciberguerra: la nueva frontera

"IA generativa y ciberguerra: la nueva frontera" artículo de Juan Carlos Muria Tarazón en la sección "Diario de una Tortuga Ninja" de la edición de Noviembre de 2024 de la Revista Tecnología y Sentido Común TYSC a Revista Líder de Audiencia de la Alta Dirección y los Profesionales en Gestión de Proyectos, Servicios, Procesos, Riesgos y por supuesto Gobierno de Tecnologías de la Información

Si el mes pasado hablábamos de la importancia que otorga Europa a la ciberresiliencia mediante la directiva NIS2, hoy hablamos de como el uso de la inteligencia artificial (IA) generativa está redefiniendo un nuevo frente de guerra en el ciberespacio.

En agosto OpenAI daba ya la noticia de que había desactivado varias cuentas de usuarios, ligadas a un grupo iraní, que habían usado ChatGPT para crear contenido online en inglés y en español como artículos o publicaciones en redes sociales para sembrar polémica entre los votantes estadounidenses (tanto en el sector conservador como progresista).

Una semana antes, Microsoft también anunció que había detectado noticias falsas destinadas a generar división entre la ciudadanía americana y también algunos ataques dirigidos a funcionarios del gobierno estadounidense. Según el responsable del Microsoft’s Threat Analysis Center, mientras que los grupos vinculados a Rusia intentan influir en el resultado de las elecciones, los grupos iraníes intentan que las elecciones no se celebren o que su resultado no sea considerado válido.

Esto, que no es nada nuevo porque ya ha ocurrido al menos en los tres últimos ciclos electorales americanos, es ahora más preocupante porque están utilizando la IA para generar esos contenidos y para realizar comentarios dirigidos a polarizar, consiguiendo que sean más creíbles y también más rápidos de crear, incluso utilizan la IA para plagiar artículos ya existentes pero dándoles la orientación deseada y publicándolos en medios locales creados por estos grupos, afianzando posiciones y credibilidad de cara a publicar luego contenidos falsos más afines a sus intereses. Recordemos que incluso desde el equipo de campaña de Trump afirmaban haber sido objetivo de un ataque de estos grupos donde se habrían obtenido documentos sensibles de carácter interno.

Otro uso que OpenAI afirma que se está dando a ChatGPT es el de realizar reconocimientos de sistemas de control industrial (controladores lógicos programables, etc.), explorando instalaciones y buscando vulnerabilidades para explotarlas. Esto habría provocado ya ataques a plantas de agua potable en Irlanda, Pensilvania, etc., si bien es cierto que al parecer estas instalaciones no estaban demasiado protegidas.

Aunque en los párrafos anteriores nos hemos centrado en la herramienta ChatGPT de OpenAI, en realidad, y como indicaba un post de Anthropic en marzo de 2023, “hasta ahora, nadie sabe cómo entrenar sistemas de IA realmente potentes para que sean útiles, honestos e inocuos de una manera consistente”.

De hecho, aunque según un análisis de Chatterbox Labs a los modelos LLM de Microsoft, Mistral, OpenAI, TII, Anthropic, Cohere y Meta, todos excepto el de Anthropic demostraban ser capaces de generar contenido violento…

Continuar leyendo…

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver
Privacidad