Inteligencia Artificial ¿Responsable, gestionada y gobernada?

"Inteligencia Artificial ¿Responsable, gestionada y gobernada?" artículo de Manuel David Serrat Olmos en la sección "Futuro y Seguridad" de la edición de Septiembre de 2024 de la Revista Tecnología y Sentido Común TYSC a Revista Líder de Audiencia de la Alta Dirección y los Profesionales en Gestión de Proyectos, Servicios, Procesos, Riesgos y por supuesto Gobierno de Tecnologías de la Información

Tenemos a la Inteligencia Artificial hasta en la sopa. IAs que escriben textos, que desarrollan programas, que generan imágenes más o menos realistas, y hasta que son capaces de generar video con una calidad sorprendente. Pero ¿qué hay de sus usos no tan ‘productivos’? ¿Y cuáles son los límites que, si se superan, llevan a una IA a ser socialmente perjudicial. Para dar respuesta a estas cuestiones nace el concepto de Responsible AI o Inteligencia Artificial Responsable.

No cabe duda de que la Inteligencia Artificial (IA) ha transformado nuestra sociedad de maneras inimaginables hace solo unos pocos años. Recuerdo, cuando yo estudiaba la carrera de Informática, a principios de los años 90, que se hablaba de redes neuronales como algo supercomplejo y avanzado. Hoy en día se puede disfrutar de asistentes virtuales como Siri o Alexa, o de sistemas de diagnóstico médico avanzados, o de sistemas de IA generativa que construyen todo tipo de elementos digitales en base a lo que han aprendido. Incluso este artículo podría estar escrito por una IA. La IA es ya omnipresente. Sin embargo, con su crecimiento y adopción masiva, también ha surgido la necesidad de asegurarnos de que esta tecnología se utilice de manera ética y responsable, por no hablar de las consecuencias medioambientales del consumo eléctrico que los centros de proceso de datos donde se alojan estos sistemas. Y es en este punto donde entra en juego el concepto de Inteligencia Artificial Responsable.

Microsoft, propietaria de la empresa OpenAI, creadora de ChatGPT, ha elaborado un interesante documento sobre cómo entiende este concepto de IA Responsable. En dicho documento, se refiere a la IA Responsable como “la creación y uso de sistemas de inteligencia artificial que sean seguros, justos, transparentes y respetuosos con los derechos humanos y las normativas legales”. Todo un reto, que obviamente afecta únicamente a las IA ‘legales’. Y digo ésto porque no hace mucho tuve acceso a un sistema de IA. orientado a temas de ciberseguridad, en cuyo folleto de características se indicaba como gran ventaja que no estaba sujeta sesgos morales de ningún tipo. Con esa publicidad, queda claro cuál es el interés de sus desarrolladores y el posible nicho de mercado en el que se ubica el producto, alejado del concepto objeto de este artículo.

Para entender mejor este concepto de Responsible AI, es útil desglosarlo en varios de sus principios clave:

Transparencia: Uno de los principales desafíos de la IA es vencer esa barrera que representa la opacidad de su funcionamiento. Muchos algoritmos, especialmente los de aprendizaje profundo, son verdaderas cajas negras, difíciles de entender incluso para los expertos, y sujetos a férreas patentes de explotación…

Continuar leyendo…

Todo lo que un Directivo debe saber...

Ha llegado la hora de formar a la Alta Dirección

Sesiones Directivas en Directo y en Remoto sobre todos aquellos aspectos que debe conocer la Alta Dirección sobre Gobierno y Gestión Organizacional.

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Ver
Privacidad