Escribo de nuevo sobre inteligencia artificial porque está de moda y porque hemos sido testigos de muchos acontecimientos en este campo en las últimas semanas. El 13 de marzo del 2023 OpenAI lanzó oficialmente ChatGPT Plus, un ente de inteligencia artificial conversacional disponible mediante el pago de una suscripción. Mientras tanto, la organización sigue ofreciendo gratuitamente la versión 3.5, aunque en realidad no se trate de una versión específica sino en evolución continua.
El 21 de marzo del 2023, Google lanzó su propia contraoferta bajo la marca Bard. El Bardo es el ápodo de William Shakespeare. De momento, la compañía sólo ha invitado a algunos usuarios a probarla, incluido un servidor. Mientras que ChatGPT funciona muy bien en inglés y razonablemente bien en español, Google Bard todavía no ha aprendido español. Todo se andará.
El uso de ChatGPT y otras herramientas similares ha suscitado muchas reacciones en todo el mundo. Para curarse en salud, OpenAI y Google ofrecen una retahíla de advertencias al conectarse. Entre otras advertencias, sus abogados explican que son plataformas de ensayo e investigación, avisan de que los controles son insuficientes para evitar respuestas ofensivas y sesgadas, no sirven para dar consejos, retienen y analizan las conversaciones, y no deben ser usadas con información confidencial.
Sin embargo, todavía no hay legislación ni regulación específica sobre la transparencia de los algoritmos o el uso responsable de la inteligencia artificial. Lo único que han hecho los gobiernos, dentro de un marco jurídico poco específico, ha sido recurrir a la autoridad de algunas de sus agencias para investigar periféricamente estas herramientas de inteligencia artificial. Primero fue la agencia de protección de datos italiana la que entró en el ruedo, seguida de la canadiense. Incluso la española se ha apuntado a esta movida. Estas agencias y otros supervisores estudian si estas plataformas pueden estar violando las reglas de privacidad de los ciudadanos en sus respectivas jurisdicciones.
Hay compañías que se han adelantado. Han investigado por su cuenta y tomado cartas en el asunto antes que los reguladores. La edición coreana de El Economista informó recientemente que los directivos de Samsung han prohibido a sus empleados usar ChatGPT. Esto se debe a que algunos empleados habían enviado información corporativa confidencial a la plataforma, incluidas instrucciones de programación.
El Dr. Pablo Molina es el VicePresidente Asociado y Chief Information Security Officer de Drexel University en Philadelphia. Es profesor en Georgetown University de ética y gestión tecnológica y de seguridad informática en la Universidad Rey Juan Carlos. Es Director Ejecutivo de la Asociación Internacional de Etica y Tecnología Aplicada. Es miembro del consejo directivo del Centro de Política Digital de Inteligencia Artificial. De joven, fundó una empresa de tecnología en Madrid, donde fue editor jefe de revistas informáticas, escribió varios libros sobre tecnología, y fue profesor de la Escuela de Hacienda Pública.
Debe estar conectado para enviar un comentario.