A propósito de las prisas para la Inteligencia Artificial

Tecnología y Sentido Común es la Revista Líder de Audiencia de la Alta Dirección y los Profesionales en Gestión de Proyectos, Servicios, Procesos, Riesgos y por supuesto Gobierno de Tecnologías de la Información

Dos acontecimientos han sacudido el horizonte de la protección de datos personales en los últimos meses. En primer lugar, la investigación norteamericana a Tik-Tok, siguiente affaire en la linea de sucesión del asunto Huawei y la carta abierta solicitando la suspensión del desarrollo de la inteligencia artificial durante un periodo de seis meses. Uno y otro acontecimiento guardan un nexo común. Deberíamos preguntarnos qué grado de cumplimiento normativo y ético hace confiable una tecnología.

En el primer caso, se realiza una inferencia lógica, aunque no necesariamente demostrada o demostrable: si existe un riesgo de cualquier naturaleza en la provisión de un servicio de la sociedad de la información este debe ser auditado o analizado. En un mercado global los riesgos no sólo derivan del diseño y funcionamiento de las tecnologías de la información también es necesario valorar el riesgo geopolítico. Seamos sinceros, ¿almacenaría Vd. sus datos en una nube físicamente ubicada en un país política o socialmente inestable? La respuesta, por obvia, no merece ser escrita.

Los hechos demuestran la existencia de otro tipo de inestabilidad: el riesgo geopolítico. Los expertos en seguridad vienen advirtiendo desde hace años sobre los escenarios de riesgo asociados a las estrategias de ciberguerra. Y en este ámbito los hechos demuestran que no sólo hay que pensar en infraestructuras críticas. Ciertamente sui una compañía se posiciona en un mercado estratégico, como el de la provisión de tecnologías de red o el de infraestructuras críticas para los sistemas de salud debería estar sujeta a controles muy estrictos. También las nacionales, le patriotismo no tiene porque generar automáticamente confianza.

Por otra parte, el asunto Pegasus demostró sobradamente las vulnerabilidades de un smartphone. Y es evidente, que la aplicación más anodina del mundo, la más banal, la más infantil puede ser una puerta de entrada. Es más, los hechos muestran que las personas que pueden ser un objetivo en la infraestructura estratégica de defensa de un Estado se cuentan por miles. Si además el aplicativo, por si mismo puede ser un vehículo idóneo para la desinformación y la manipulación social todas las alertas deben estar encendidas.

En uno u otro caso, la comparecencia parlamentaria y la investigación pública pueden parecer una exageración, afectan a la reputación de las empresas y hacen crecer la desconfianza social. Por ello, este tipo de acción debería reservarse para casos muy claros y bajo condiciones muy precisas. Lo cual no impide que se tratase incluso de controles rutinarios. Por otra parte, lo que el sentido común indica es que la monitorización del riesgo es sistemática y sostenida en el tiempo. Y aunque el riesgo no lo genere la compañía o el producto, sino la legislación del país de origen o las malas prácticas de terceros, ello no excluye en absoluto una permanente atención.

El otro gran asunto en todos los medios de comunicación fue la alerta roja lanzada mediante carta abierta sobre los riesgos que la inteligencia artificial plantea para el futuro de la humanidad. No es algo con lo que se pueda o deba bromear, pero lo cierto es que la llegada de una IA de propósito general, amplias capacidades y autonomía decisional plena, está por llegar. Mientras esto ocurre la apertura de GPT4 ha maravillado y aterrado a partes iguales a la sociedad, a los expertos y a los políticos. Para un lego, los resultados que ofrece la máquina se acercan a la magia. Pero en realidad lo único que muestra es su capacidad para generar textos con un lenguaje coherente. De hecho,

Continuar leyendo…

Ricard Martínez

Profesor en el Departamento de Derecho Constitucional, Ciencia Política y de la Administración y Director de la Cátedra de Privacidad y Transformación Digital. Doctor en Derecho por la Universitat de València. Miembro de la mesa de expertos en datos e Inteligencia Artificial de la Consejería de Innovación y Universidades de la Generalitat Valenciana. Miembro del grupo de expertos para la elaboración de una Carta de Derechos Digitales de la Secretaría de Estado de Digitalización e Inteligencia Artificial del Ministerio de Asuntos Económicos y Transformación Digital. Ha sido Presidente de la Asociación Profesional Española de la Privacidad y responsable del Área de Estudios de la Agencia Española de Protección de Datos.

Todo lo que un Directivo debe saber...

Ha llegado la hora de formar a la Alta Dirección

Sesiones Directivas en Directo y en Remoto sobre todos aquellos aspectos que debe conocer la Alta Dirección sobre Gobierno y Gestión Organizacional.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver
Privacidad