Nuria Oliver (Alicante, 1970) es una de las voces españolas más autorizadas para hablar de inteligencia artificial (IA). Ingeniera de telecomunicaciones y doctora por el Instituto Tecnológico de Massachusetts (MIT), lleva más de 25 años estudiando el uso y el impacto social de esta y otras tecnologías.
Experta en interacción humano-computadora que cuenta con más de 180 publicaciones científicas, Oliver ha sido investigadora en Microsoft, directora científica en multimedia en Telefónica y directora de Ciencia de Datos en Vodafone. También asesora al Gobierno, a la Generalitat Valenciana y a la Comisión Europea. Actualmente, es directora científica y cofundadora de ELLIS Alicante, una fundación sin ánimo de lucro que promueve la investigación de la IA.
Oliver protagonizará este viernes la última sesión de la 14a edición de Cornellà Creació Fòrum, un espacio de debate que este año ha reunido a 900 asistentes y que cuenta con la colaboración de EL PERIÓDICO.
ChatGPT cumplirá el sábado dos años de su lanzamiento. ¿Qué balance hace del impacto que está teniendo la IA generativa?
Uno de los aspectos positivos es que las herramientas de IA generativa desplegadas realmente han democratizado el acceso a esta tecnología y han desmitificado la imagen que había sobre ella. Sin embargo, también hay aspectos negativos como los dilemas éticos y retos sociales que plantean por sus limitaciones con la falta de veracidad, potenciales violaciones de la privacidad de las personas o de los derechos de autor, el impacto que tiene en el periodismo o en la educación… A eso se le suman otros riesgos que ya tenía la IA como los sesgos racistas, de género, la vulnerabilidad de los sistemas o la huella de carbono.
A pesar de esa falta de veracidad, desde grandes empresas a estudiantes confían en este tipo de chatbots.
Es importante conocer las limitaciones de estos sistemas para hacer un buen uso. Parte de la adopción de la IA generativa se debe a la excitación y a su apariencia mágica, pero hay que ser consciente de que le falta veracidad. Hasta ahora su uso no ha estado regulado, lo que ha permitido a las empresas hacer lo que quieran. Pero eso cambiará con la nueva normativa acordada en la Unión Europea.
¿Pueden la ética y la regulación avanzar al mismo ritmo que las empresas?
La normativa europea no regula la técnica, sino su uso de la IA. Así que podrán haber avances en los modelos, pero la regulación será independiente a esos para seguir mitigando el impacto que pueda tener el uso de la IA en la sociedad. Y eso aplica a todas las empresas, sean o no europeas.
La buena regulación puede ser una gran amiga de la innovación porque permite orientar el desarrollo tecnológico
Estados Unidos y China son un oligopolio que concentra el dominio de la IA. Europa ha optado por regular, pero ¿es una alternativa suficiente?
Se repite como un mantra que la regulación frena la innovación, pero una buena regulación puede ser una gran amiga de la innovación porque pretende orientar el desarrollo tecnológico. Ahora se están creando las normas del juego para que haya más certidumbre. La UE ha asumido el liderazgo regulatorio, pero cada vez más países como China, EEUU y de otras partes del mundo están creando normativas y miran a Bruselas como inspiración. Lo más complicado es cómo hacer que la regulación sea buena.
En pocas décadas, China se ha posicionado como una potencia en IA. ¿Qué deberíamos aprender de ellos?
La visión de Xi Jinping es que China sea la principal potencia del mundo y reconocen que para ello hay que controlar todos los ámbitos de la IA, desde la investigación a la innovación y al despliegue. El Gobierno está haciendo inversiones increíbles y muy ambiciosas de las que podemos aprender, pero también impulsa programas para atraer talento de todo el mundo.
También han introducido la IA como asignatura en los colegios.
Así es, esa inversión en IA también se da en todos los niveles de la educación, desde primaria a las universidades. Llevo 15 años o más proponiendo que en la educación obligatoria haya una asignatura de pensamiento computacional que permita a los jóvenes aprender a programar, pero también a tener conocimientos de datos o resolver problemas algorítmicos complejos. Saber pensamiento computacional es el equivalente para el siglo XXI de lo que en el siglo XX fue leer y escribir. No entiendes cómo funciona un móvil sacando fotos o mandando mensajes, hay que aprenderlo. Pero también hay que desarrollar muchas habilidades humanas cruciales para que nos quedemos limitados a interactuar únicamente con máquinas.
Saber pensamiento computacional es el equivalente para el siglo XXI de lo que en el siglo XX fue leer y escribir
Dos de los Premio Nobel de este año han estado marcados por la IA. ¿Es esta la nueva normalidad?
Estos premios Nobel reflejan la transversalidad de la IA y la equiparan al papel que tuvo el descubrimiento de la electricidad porque ambas son de uso general. La IA está revolucionando todas las disciplinas, desde las científicas a las no científicas. La IA es capaz de procesar un gran volumen de datos para extraer patrones y hacer predicciones que de otra forma sería imposible. Esto, aplicado al campo científico, es de gran utilidad. Así que probablemente en los próximos años veremos que se otorgarán otros Premio Nobel como el de medicina a descubrimientos alcanzados con esta tecnología.
¿Es la investigación científica el campo más fértil para la IA?
La mayor parte de la IA que se despliega de forma comercial no es generativa, sino que se usa en las empresas para analizar datos o hacer que los procesos logísticos sean más eficientes, pero también en la investigación científica. La IA generativa ha captado nuestra atención porque tiene una habilidad muy humana que es la de crear contenido. Creo que por eso tenemos esta fascinación. Pero aunque lo más popular sea generar textos o imágenes, ahí fuera hay muchas otras aplicaciones.
Decir que la IA superará la inteligencia humana es una maniobra de distracción para no hablar de problemas más urgentes como sus sesgos racistas y de género o su impacto climático
Grandes personalidades de la IA insisten en que nos acercamos a la singularidad tecnológica, el hipotético escenario en el que la máquina podría igualar o superar la inteligencia humana. ¿Hay motivos para creerlos o es una estrategia de exageración para atraer inversiones?
No hay evidencia alguna de ello, se trata de una maniobra de distracción para no hablar de problemas más urgentes como los sesgos racistas y de género de estos sistemas o su impacto climático. La IA puede usarse con fines tóxicos, pero de ahí a pensar que supone un riesgo para la existencia de la humanidad hay una brecha bastante grande. La mayoría de quienes hablan de singularidad han ido cambiando su definición de qué es la IA General para adaptarla a sus intereses. Es casi un insulto decir que ChatGPT se acerca a la inteligencia humana.