
En el artículo de junio de 2023 de Tecnología y Sentido Común, nos planteábamos una serie de cuestiones relacionadas con la ciber(in)seguridad de los vehículos conectados, con especial preocupación con lo que pudiera ocurrir con los vehículos autónomos cuando se generalizasen. Un año y medio después, es momento de revisitar la cuestión y analizar si se ha producido algún “avance” en la materia.
A estas alturas de partido, ya todos nuestros lectores estarán al cabo de la calle sobre la cuestión básica que transmitimos siempre que podemos: ningún sistema es seguro al 100% y es sólo cuestión de que a los ciberdelincuentes les merezca la pena la inversión en recursos y riesgo para que un sistema sea violentado. Partiendo de esa idea-fuerza, ya transmitimos en el artículo de esta revista de junio de 2023 una serie de preocupaciones acerca de a qué riesgos se podían enfrentar los vehículos conectados, y los autónomos en particular.
En este tiempo, hemos visto como la Inteligencia Artificial Generativa aparecía en nuestras vidas, manifestando de forma muy visible los avances en el campo de la IA para el común de los mortales, avances, que por otro lado, son sólo un tipo de uso de estas tecnologías. Ya hacía bastante tiempo que se estaban usando sistemas de IA en otro ámbitos, como el diagnóstico médico, el análisis y mejora de imágenes, o los sistemas de decisión en diferentes ámbitos, como los mercados bursátiles o la conducción autónoma de vehículos. En este último ámbito, los sistemas de IA para vehículos autónomos no sólo se enfrentaban a las necesidades de funcionamiento en tiempo real y a altas necesidades de computación, sino también al necesario estudio de sus algoritmos de decisión en un marco ético, ya que las vidas de personas estaban en juego en dichas decisiones. Por ejemplo, en el caso de que una persona se cruzase inesperadamente frente al vehículo autónomo, y el accidente fuese inevitable, el coche deberá decidir en una fracción de segundo si da un volantazo, con el riesgo de que los viajeros del vehículo sufrieran daños o incluso la muerte, dependiendo de las circunstancias del impacto, o si debía reducir todo lo posible la velocidad antes de impactar con la persona que cruza la vía, como mal menor, resultado del análisis de todas la opciones posibles. Y ese mal menor, ¿dependerá de la edad o el sexo del peatón? ¿Será mejor opción el volantazo si quien cruza sin precaución es una mujer embarazada o con un carrito de bebé? ¿Y si es un anciano o un niño?
Observará el lector que existe un evidente riesgo de sesgo en ese algoritmo, por ejemplo, si un desarrollador racista decide (e implementa) que el vehículo tenga en cuenta la raza del peatón para tomar la decisión. O si un fabricante sin escrúpulos dirige el algoritmo hacia decisiones que provoquen daños al vehículo que le reporten más beneficios en su reparación. De ahí la necesidad de que los algoritmos de la IA deban ser analizados desde un punto de vista ético por entidades externas y, a ser posible, públicas, y que la IA tenga una regulación importante para evitar abusos y desmanes varios.
Además de los riesgos que la IA aporta al vehículo autónomo, como sistema de computación y comunicaciones, el vehículo inteligente, sea autónomo o no, está sujeto a los mismos tipos de amenazas que los sistemas IT (Information Technology) y OT (Operational Technology), y especialmente en este último ámbito, hay riesgos específicos en ataques de Denegación de Servicio…