Año nuevo, vida nueva. Mi propósito de año nuevo es comer más y hacer menos deporte. Seguro que este año lo consigo. También es mi propósito de año nuevo seguir investigando más sobre inteligencia artificial y sobre las consecuencias éticas de la inteligencia artificial. Para ello, interactué recientemente con ChatGPT de OpenAI, empresa dedicada a la investigación e implementación de inteligencia artificial. OpenAI declara que su misión es asegurar que la inteligencia general artificial beneficia a toda la humanidad.
Dr. P: “Escribe un artículo sobre ti mismo en español”.
ChatGPTL: “Hola a todos, mi nombre es Assistant y soy un modelo de lenguaje grande entrenado por OpenAI. Mi conocimiento está cortado en el año 2021 y no tengo acceso a internet, por lo que no puedo actualizar mi conocimiento más allá de ese punto.
Soy una entidad virtual y no tengo una existencia física en el mundo real, pero me han programado para poder interactuar con las personas y ayudarles a encontrar respuestas a sus preguntas y proporcionarles información sobre una amplia variedad de temas.
Mi principal objetivo es proporcionar un servicio útil y de alta calidad a todos aquellos que me soliciten ayuda. Estoy diseñado para ser capaz de comprender y responder a preguntas y consultas en una variedad de idiomas, incluyendo el español, y puedo adaptarme a diferentes contextos y situaciones.
Aunque soy solo una entidad virtual, estoy constantemente aprendiendo y me esfuerzo por mejorar mis habilidades y conocimientos para poder ofrecer un servicio cada vez mejor a mis usuarios. Si necesitas ayuda con algún tema o tienes alguna pregunta, no dudes en preguntarme. Estoy a tu disposición para ayudarte.”
¿De verdad entraña algún peligro la inteligencia artificial? Las mayores preocupaciones de quienes estudiamos el sector son la opacidad y la posible discriminación de los algoritmos, seguidas por la erosión de nuestra privacidad y el papel de los seres humanos en la toma de decisiones. Un buen ejemplo de discriminación fue el experimento del 2018 de la ACLU, American Civil Liberties Union, la Unión Estadounidense de Libertades Civiles.
ACLU procesó las fotos de los congresistas estadounidenses con el sistema Rekognition de reconocimiento facial de Amazon. El sistema confundió a 28 miembros del congreso con criminales que habían sido arrestados previamente. Entre los 28 había republicanos y demócratas, hombres y mujeres de diversas edades, de todo el país. Sin embargo, muchos de los errores ocurrieron con las fotos de congresistas de color, incluidos seis miembros del Caucus Negro del Congreso.
También en el 2018, Amazon abandonó un proyecto de inteligencia artificial, aprendizaje automático, cuyo propósito era leer curriculums y seleccionar los mejores. El algoritmo subestimaba el potencial de las mujeres solicitantes porque los curriculums históricos con los que había aprendido eran de hombres.
Para examinar estos y otros casos de interés, España cuenta con ODISEIA, observatorio del impacto social y ético de la inteligencia artificial. ODISEIA se autodefine como una asociación, sin ánimo de lucro, que promueve acciones concretas e influyentes para impulsar el uso responsable de la Inteligencia artificial en todas las áreas.
En Estados Unidos sirvo en el consejo de administración del Center for AI and Digital Policy, Centro de Inteligencia Artificial y Política Digital. Nuestra misión es promover una sociedad mejor, más justa, un mundo donde la tecnología promueva una inclusión social amplia basada en derechos fundamentales, instituciones democráticas, y el estado de derecho.
El Centro se dedica a formar nuevas generaciones de expertos en inteligencia artificial y políticas públicas. Además, publicamos cada febrero un informe muy interesante: Artificial Intelligence and Democratic Values Index, Índice de Inteligencia Artificial y Valores Democráticos. Siguiendo una metodología rigurosa, nuestros expertos globales evalúan las leyes, normas y políticas de inteligencia artificial de más de cincuenta países. Os invito a consultar el informe en https://www.caidp.org/reports/aidv-2021/ y observar en qué puesto figuran España, Estados Unidos y otros países.
Y mientras tanto sigo investigando. Leo sobre amigos artificiales por primera vez en la novela Klara and the Sun del premio Nobel de literatura Kazuo Ishiguro. Releo el tratato de Norvig y Russell, Artificial Intelligence: a Modern Approach. También veré de nuevo la película Ex Machina. Me pregunto cómo reaccionaré la primera vez que uno de mis estudiantes de la Universidad de Georgetown entregue un trabajo de investigación escrito en parte con inteligencia artificial.
Quienes nos dedicamos a la tecnología debemos aprender sobre inteligencia artificial y debemos preguntarnos cómo y cuándo es el mejor momento de usarla para resolver un problema u ofrecer nuevas oportunidades a nuestros clientes y a la sociedad. Al igual que adoptamos otros principios éticos en tecnología (privacidad por diseño, seguridad por diseño y computación responsable, por ejemplo) hemos de adoptar principios éticos para desarrollar y aplicar inteligencia artificial. Las declaraciones de Google, Microsoft, Meta y otras empresas no son suficientes. Mucho más elaborados son las Pautas Éticas para Inteligencia Artificial Confiable de la Comisión Europea, el Plano para una Declaración de Derechos de Estados Unidos y los Principios de Inteligencia Artificial de la Organización para la Cooperación y el Desarrollo Económicos.
El Dr. Pablo Molina es el VicePresidente Asociado y Chief Information Security Officer de Drexel University en Philadelphia. Es profesor en Georgetown University de ética y gestión tecnológica y de seguridad informática en la Universidad Rey Juan Carlos. Es Director Ejecutivo de la Asociación Internacional de Etica y Tecnología Aplicada. Es miembro del consejo directivo del Centro de Política Digital de Inteligencia Artificial. De joven, fundó una empresa de tecnología en Madrid, donde fue editor jefe de revistas informáticas, escribió varios libros sobre tecnología, y fue profesor de la Escuela de Hacienda Pública.
Debe estar conectado para enviar un comentario.