Publicador de contenidos

Nerea Luis: "A veces se percibe la inteligencia artificial como una amenaza mayor de lo que es"
LA MIRADA DE
NEREA LUIS
“A veces se percibe la inteligencia artificial como una amenaza mayor de lo que es”
NEREA LUIS
26/08/2021
ESCRITO POR:
ENTREVISTA POR:
Silvia Llorente
26/08/2021
ESCRITO POR:
ENTREVISTA POR:
Silvia Llorente
Doctora en Ciencias de la Computación y experta en Inteligencia Artificial

 

Nerea Luis es un referente en el campo de la tecnología y de la inteligencia artificial. A sus 30 años, esta Doctora en Ciencias de la Computación y Cofundadora de T3chFest, el evento de tecnología que se celebra en la Universidad que reúne cada año un centenar de ponencias y a más de 2.000 estudiantes y profesionales, ha recibido numerosos reconocimientos, entre ellos estar en el “Top 100 women leaders”, ganar el Innovadoras TIC Award o  o el premio Google Anita Borg y haber sido condecorada con la Medalla a la Orden del Mérito Civil. 

Su carrera ha estado ligada desde sus inicios a la investigación y al mundo académico. Le apasiona la divulgación, la docencia y la robótica. Actualmente es Ingeniera en el equipo de Inteligencia Artificial en Sngular. Nerea Luis  defiende que el sector tecnológico necesita más talento femenino y se ha propuesto, con su trabajo y su labor de divulgación, ayudar a cambiar estereotipos para que cualquier niña o adolescente vea la tecnología como una opción a tener en cuenta. 
 

FOTO: Fundación CajaCanarias

Eres experta en Inteligencia Artificial, ¿qué te llevó a dedicarte a esto? ¿Cómo supiste reconocer dónde estaba tu vocación?

Fue en el instituto, me di cuenta de que quería estudiar Ingeniería Informática. No había hecho ningún curso, nada más allá de alguna asignatura de Tecnología, pero me gustaba mucho Internet porque encontraba mucha información relacionada con magas, anime e información relacionada con la cultura japonesa. A raíz de ahí, empecé con mi primera web, y a partir de ahí, fueron los profesores los que me dijeron que eso, profesionalmente, se llamaba Ingeniería Informática.

Llego a la Universidad y en segundo de carrera teníamos una asignatura que nos hablaba, no solo de programar, sino de cómo las máquinas pueden aprovecharse de esa programación para desarrollar comportamientos inteligentes. Fue ese el momento que mi cabeza hizo ‘click’. Programar, ya de por sí mola, porque tiene mucho impacto lo que puedes hacer. Si encima eres capaz de crear esos algoritmos, darles forma y hacerlos inteligentes… era algo que me llamaba mucho la atención.

Mi carrera la empecé en la investigación porque todavía no se habría producido este boom de estos últimos años del machine learning y tecnologías relacionadas con la inteligencia artificial. La inteligencia artificial estaba en eso momentos en los laboratorios. A raíz del doctorado, de 2015 a 2019, empiezo a conocer cómo se investiga, qué es la inteligencia artificial desde un punto de vista más teórico, cosas más prácticas… siempre muy ligado a la robótica. Descubro que hay mundos increíbles dentro de la inteligencia artificial, y una vez termino el doctorado con todas las cosas que hago de divulgación, decidí quedarme en España. Es lo que me lleva hoy a estar en el mundo de la empresa haciendo cosas más aplicadas, aprovechando ese background sólido del área, y enseñando a otras empresas o clientes a cómo incorporarlo a sus propios procesos. 
 

También tuviste en esos años una experiencia internacional.

Sí. Durante la etapa de doctorado. Te ayuda a viajar y conocer gente a través de conferencias científicas y otras técnicas. Yo había hecho mucha divulgación,  organizaba el evento TechFest, Google me dio un premio y eso te da un empujón, un aval más. Gracias a eso empiezas a ir a otro tipo de conferencias, menos científicas, pero más de networking, y eso te enseña hasta dónde puedes llegar. Está muy ligado también a toda esta parte de empoderar a la mujer en el mundo tecnológico. Desde ese momento se te abren muchas puertas, y poco a poco, con ese trabajo diario, surgen nuevas oportunidades. El boca a boca funciona muy bien, cuanto más participas en eventos, más gente te escucha, y es a lo que me he dedicado en los últimos años en combinación con  esta actividad científica o empresarial. Llevo dos años en Sngular, liderando la parte de machine learning del equipo. 

¿Qué es la inteligencia artificial para ti?

La inteligencia artificial, desde el punto de vista del área de conocimiento, realmente no es otra cosa que tratar de utilizar la computación, los ordenadores, y aprovecharlos para utilizar esos datos y esos lenguajes de programación para que el ordenador, la máquina, o el robot, desarrolle comportamientos inteligentes (definiendo inteligencia como lo que asociaríamos a comportamientos humanos). De esa definición a lo que se ha ido desarrollando, surgen dos vertientes.

La inteligencia artificial surge con esa pregunta de ¿pueden las máquinas pensar? Esa parte tan teórica, tan cinematográfica, que se ha analizado tanto en novelas y demás, hay que aterrizarlo a lo que estamos viviendo. En los últimos 10 años, lo que se ha hecho es trabajar en una parte que se llama inteligencia artificial específica (y no la general, que trata ese problema más de la mente, de ese cerebro super inteligente), y lo que hacemos es trabajar con cosas que tienen un contexto muy acotado. Por ejemplo, un modelo inteligente que se dedique a detectar fisuras en radiografías de huesos; o dar un conjunto de información sobre usuarios y recomendarle el siguiente objeto que quieres comprar. Son cosas más pequeñitas, que combinándolas entre ellas, vas cogiendo cositas más grandes, que no dejan de estar dentro de ese contexto.  A veces se percibe la inteligencia artificial como una amenaza mayor de lo que es ahora mismo, y está bien que se haga esa separación de esa inteligencia artificial general de esa inteligencia artificial específica, que es en la que nos encontramos. 

Al final, dentro de toda esa inteligencia artificial, la rama que más se ha desarrollado en cuanto a aplicaciones en estos últimos 10 años, ha sido la rama del aprendizaje automático o machine learning. Ahí está todo centrado en la cantidad de datos que tengas, la tarea que quieras solucionar y cómo llevas a ese modelo a que detecte esos patrones que sean capaz de hacer esa tarea con éxito. Todo lo que es detección, clasificación, predicción en gráficas, por ejemplo, de espacios numéricos. Todo este tipo de tareas se engloban dentro de este aprendizaje automático y, por eso, ahora encontramos tantos casos de uso. Lo que hemos conseguido es poner el foco, que antes estaba en los activos de la empresa, ahora en los datos. Hay muchos casos y cada vez más se van a dar más. La clave es cuánto tardas en tener algo fiable. Empezamos a ver cositas en producción de grandes empresas, Google, Amazon, Facebook… pero la mayoría de empresas e instituciones están todavía en una fase muy primaria. Hay mucha prueba de concepto, pero no se lleva todavía a producción, sobre todo que impacte directamente en los humanos. 
 

¿En cuánto tiempo crees que veremos avanzar y materializarse todo esto? ¿Diez años?

Yo creo que en menos de una década. Empieza a haber cositas bastante interesantes. Hemos visto este auge de los deepfakes, que también utilizan la tecnología que tiene con ver con este machine learning. Esto nos va a permitir  ir acelerando que cada vez necesitemos menos ejemplos para darle a la máquina y que llegue al mismo nivel de acierto. Si tú quieres hacer esto, primero consigues los datos, los limpias, los ordenas, y luego ya trabajas en la parte más pura de algoritmía. Ahora los algoritmos son más potentes, se pueden reutilizar más, que era algo que antes no pasaba. Antes se tenía que construir todo desde cero. Ahora, sobre todo estas grandes compañías están obsesionadas en que cada vez más podamos reutilizar lo que hayamos entrenado para no partir de cero. Eso hace que no tengas que montarte todo desde un inicio. 

Una caso muy concreto. Yo entreno mi sistema para detectar distintos tipos de animales (por ejemplo, mamíferos o animales que viven en un zoo). Si ya he enseñado a detectar mamíferos y de repente surge una especie nueva, es mucho más sencillo si ya parto de esa base que si tengo que entrenarla desde cero. Ya habrá ciertos patrones que compartan. Todo esto nos ayuda a desarrollar todo más rápido, sobre todo cuando se trata de agrandar, en ese contexto, esa tarea de reconocimiento. Y ahora llega una parte nueva, que se está desarrollando desde hace muy poquito, unos dos o tres años, que tiene que ver con generadores de texto e imagen. Pasamos, no solo de hacer algo estático, a irnos directamente a generar nuevos ejemplos que antes no existían. Esto es lo que ha llegado con los deepfakes, ver esto de las caras que se ponen en otras personas, o ver que somos capaces de generar un artículo periodístico… toda esta rama nueva generativa es lo que va a hacer que vayamos cada vez más hacia ese objetivo de trabajar una inteligencia artificial general.

Lo que sucedes es que todo esto es muy caro, sobre todo la rama generativa es muy cara de entrenar y se necesita a personas con un background muy específico. Ahí volvemos otra vez a las dos ligas que hay, las grandes corporates que se están dedicando a trabajar en estos casos de uso, y el resto está importando todos esos modelos y mejorándolos en sus casos de uso más concreto. Esa es la dirección que va tomar todo esto. Y entre medias, la legislación y cómo aplicará en los distintos países. 
 

"ES CUESTIÓN DE TIEMPO QUE VEAMOS CÓMO PUEDE IMPACTAR LA INTELIGENCIA ARTIFICIAL EN LA SALUD"
FotoCita

Pasaremos, entonces, de una tecnología más centrada en clasificar y manipular datos a otra tecnología que está ya creándolos, ¿es así?

Claro, porque si tú creas, tú puedes enseñar a identificar nuevas categorías, también a corregir errores. Es curiosa esa vertiente generativa, igual no nos lo imaginamos desde la parte más creativa…. pero también es importante que la máquina sepa corregirse y mejorar todo lo que va generando.  Hay muchos casos de uso que son muy interesantes simplemente son dominios donde no tenemos tantos datos. Esto se puede aplicar a muchos ámbitos: enfermedades raras, lenguas muertas… Hay muchas cosas que se van a poder hacer y que antes era inviable. 

¿Cómo se podría avanzar en un asunto tan importante como el de las enfermedades raras?

Lo que se está haciendo es utilizar la tecnología de aprendizaje profundo. DeepMind ha sacado un avance que no sé si le darán el Nobel, pero si no, se quedará cerca. Se llama Alphafold, están prediciendo cómo cualquier proteína que esté asociada a un genoma que se pueda secuenciar, que podamos predecir cómo se van a plegar todos esos genes que componen la proteína. Esto era un problema abierto en el campo de la biología. Nunca se había superado. Había un ranking humano de predicción, pero no se había utilizado una máquina de este estilo, basada en la inteligencia artificial para resolver este problema. En cosa de dos años se ha conseguido superar por muchísimo el ranking que estaba en primera posición. Esto trae cola porque, si somos capaces de detectar cómo se va a plegar de proteína, también seremos capaces de detectar cuándo se pueden generar todas estas patologías… De aquí salen proyectos específicos. Es un entorno donde la computación estaba ahí, se utilizaban modelos estadísticos, pero entra la inteligencia artificial y acelera toda esta investigación de años y años a una ventana de tiempo mucho más pequeña. Y ahora, además, todo ese  conocimiento se ha liberado para que los biólogos puedan echar un vistazo a  los resultados y ver cómo utilizarlo en sus investigaciones. Si eres capaz de traducir este problema a una entrada de datos de sistemas inteligentes, eres capaz de aplicarlo casi a cualquier tarea que pueda ser automatizada.

¿Veremos muchos cambios en pocos años relacionados con esto?

Yo creo que sí, sobre todo en esta parte que tiene que ver con esa falta de datos. Yo creo que cada vez vamos a ver más. En cosa de tres años, hemos pasado de tener generadores de texto que funcionaban bastante mal a toda esta versión GP33, que es de lo más sonado que ha comprado Microsoft, y esto ya es capaz, no solo de generarte texto, sino de generarte texto con cierto estilo: texto dramático, un artículo periodístico, un resumen de un topic que tú le quieras poner al inicio… pero es que es también capaz de traducirte lenguaje natural a código de programación. Esto se presentó hace unas pocas semanas. Han pasado dos o tres meses de la primera versión, de ese modelo que empezaba a traducir ese lenguaje natural a programación. Esto te abre una ventana de nuevas herramientas. Se abren muchas vías y se ha conseguido en menos de dos años. 

Todo lo que va en esa línea, vamos a verlo mucho, pero tenemos que aprender a utilizarlo. Ya hemos visto muchas cosas  de inteligencia artificial en nuestro día a día: Google Maps, Amazon, Netflix… nadie usaría Netflix si no estuviese tan personalizado y aprendiese tan rápido de nuestros gustos. Es un producto que trata, puramente, en cómo trata esos datos del usuario final. Es cuestión de tiempo que veamos cómo puede impactar en la salud y en todos estos sectores más complicados, por cuestiones legales. 
 

"YA HEMOS VISTO MUCHAS COSAS DE INTELIGENCIA ARTIFICIAL EN NUESTRO DÍA A DÍA: GOOGLE MAPS, AMAZON, NETFLIX…"
FotoCita

Esto también entraña temas éticos. Hay profesiones que van a desaparecer porque lo van a hacer mejor y con más precisión las máquinas. ¿Cómo nos enfrentamos a este contexto cambiante teniendo en cuenta que hay cosas que van a desaparecer?

Yo no diría tanto desaparecer, sino que vamos a tener que integrar de alguna forma esta tecnología en nuestro día a día. En su día pasó con la revolución industrial o Internet. Es verdad que la ventana de tiempo se estrecha más y en ese sentido tenemos que aprender más deprisa. La inteligencia artificial está avanzando tan rápido que no sabes cuál es la ventana de tiempo de cuándo es viable aplicarlo. Universidades están publicando cosas, pero desde que se publica a que se pueda usar sin un coste excesivo, o que sea factible o que sea legal, pasa un tiempo. El problema es que esto cada vez se va empequeñeciendo. Hemos pasado de una inteligencia artificial de los medios, del cine… a una cosa más real.

Falta la parte de introducir todo esto en una educación  más reglada. Cómo enseñas a personas más mayores que esto también puede ayudarles como en su día lo hizo el ordenador, cómo hace tu día a día más llevadero y puedes aprovecharlo… La inteligencia artificial funciona un poco distinto. Puede llegar un momento, con la inteligencia generativa, que ante la misma entrada, se produzcan salidas  distintas. Toda esa parte no determinista no estamos acostumbrados a manejarla. Nos gustan las cosas en las que sabemos que va a suceder siempre lo mismo. Es cuestión de, según qué sector, ver, hasta qué punto nos convertimos en sujetos que supervisan. Es decir, antes, tú hacías toda la tarea, la máquina o el ordenador hacía parte, obviamente,  pero ahora en lenguaje natural te puedes comunicar directamente con ella y que haga mucha más parte de lo que era tu trabajo y tú simplemente dedicarte a hacer ese check. 

Esto tiene sentido en tareas efectivamente automatizables en las que te vas cansando con el tiempo, vas perdiendo concentración. Esto se ve muy bien en la parte de fabricación. También, por ejemplo en el sector salud. Lo médicos cuando miran un análisis de sangre o radiografías, de un vistazo saben que no es un caso grave… Si tú a ese médico le puedes dar a primera hora un informe con todo ese output que te ha generado el sistema indicándoles cuáles son los casos graves… Los análisis que están ok, puedes revisarlos, pero céntrate en estos donde hay un potencial peligro. Ese es el objetivo final. 

En la programación va a impactar igual. Si una persona que está ocho horas desarrollando código, se pasa cuatro en Internet preguntándole a google cómo hago esta función… Si tienes una guía que todo ese código básico te lo construye, tú te vas directamente a lo que es integración. No es algo necesariamente malo, la clave es en cómo se haga esa transición. Dependerá de cada país, de dónde tenga su core. Esta clase obrera media, los trabajos de alta cualificación y los más bajos van a ser los más estables. Luego hay una parte de sector público, salud, periodismo… vamos a ver muchos casos donde nos enfocaremos a tareas que sean más de personalización, más creativas, o simplemente de supervisión. Yo no creo que pase en un corto plazo. Todavía falta un periodo de cinco o seis años hasta que Europa se postule y se vea qué dirección se toma en muchos de estos sectores que se llaman de alto riesgo, como la educación, salud, banca… Ahora mismo lo que te encuentras son sistemas clásicos a los que cada vez se les va metiendo un poco más de inteligencia, pero no son necesariamente inteligencia artificial.
 

Ni la tecnología  ni la inteligencia artificial per se son malas o buenas. Somos las personas las que las utilizamos las que marcamos el rumbo y aquí hay un reto que pasa por la educación y la concienciación. Está en nuestra mano ver hacia donde se decanta.

Claro, toda esta tecnología a la que hemos llamado de aprendizaje automático es poco transparente, poco trazable. Es uno de los problemas por el que se está poniendo el warning. Son modelos matemáticos complejos, muy complejos de entender. Toda la investigación se había centrado en resolver el problema, pero no en explicarlo. El cómo llegas a esa solución es donde se está poniendo ahora el foco.

Otra parte importante es la concienciación. Cómo a la gente que está a cargo de montar estos sistemas, cómo la educas. Porque muchas de estas cosas acabarán afectando a personas. Tiene que haber una trazabilidad. Vamos a ver casos donde todo esto se irá demorando o habrá moratorias, como en lo que ha sucedido acerca del reconocimiento facial, que es una tecnología que se ha comprobado que no está lista. Con la moratoria se prohíbe ese uso y se pospone hasta que sea más estable. Vamos a vivir un proceso de educación y concienciación y de posponer el uso de esa tecnología por temas legales. Se irá auditando. Igual que desaparecerán algunos puestos de trabajo, aparecerán otros, como es el de auditoría de algoritmos. Nunca se nos hubiera ocurrido hace 20 años, y ahora seguramente sea necesario, porque queremos saber cómo funciona a futuro. 
 

Otro problema que afecta a la tecnología es la falta de diversidad. Los sesgos que a veces genera que el modelo predominante sea uno muy concreto y que se deja fuera a una parte muy importante de la humanidad, como las minorías. ¿Cómo se pueden romper esos sesgos que están ahí?

Es difícil. Se ha visto ahora porque nos hemos puesto a medir. Antes había certezas de que había sesgos, siempre los ha habido, pero no había datos para medirlos. Ahora sí los hay. Con la inteligencia artificial nos hemos dado cuenta de que si nosotros aprendemos, nos desarrollamos y tomamos decisiones, la inteligencia artificial también aprende igual que nosotros de los mismos datos y toma las mismas decisiones. Ahí nos damos cuenta que no es lo mismo detectar la cara de una persona de raza blanca o de raza negra. Si no le metes al sistema esa representatividad que tiene el planeta tierra, es muy difícil que funcione con la misma performance. 

Esto se investigó a raíz de un trabajo en 2016. Hay un documental en Netflix que lo cuenta. Cuando se empiezan a abrir estas cajas negras, estos algoritmos, nos damos cuenta de que lo primero que hemos hecho mal han sido los datos. Esto pasa a menudo. Todos queremos leer el periódico o ver el canal con que nos sentimos más identificados desde el punto de vista ideológico; y eso, si lo llevas a un sistema, es malo. No está tomando decisiones objetivas. A lo largo de todo el proceso de aprendizaje de producen sesgos. Desde quien lo monta y quien lo diseña, en los datos, en cómo se recogen esos datos, en cómo se procesan y en cómo el algoritmo al final está estableciendo patrones.

Hay que tener mucho cuidado de principio a fin. Ahora lo que estamos viendo son nuevas herramientas que están saliendo para analizar la diversidad de nuestros datos, el cómo están afectando todas esas características, cómo contribuyen a la decisión final dentro del algoritmo... Y todo esto nos ayudará con el tiempo a ir puliendo estos sistemas. A veces es sorprendente, porque todavía nos cuesta entender cómo aprenden esos sistemas inteligentes. 
 

Te has convertido en una de las mayores defensoras de la falta de mujeres en el ámbito de la tecnología, y animas a otras chicas a emprender su camino aquí. ¿Por qué crees que faltan más mujeres en el mundo tecnológico y cómo hacemos para que se acerquen a él?

Yo tengo claro que lo primero es contar otras historias relacionadas con la tecnología. Lo que hemos escuchado toda la vida es el auge de Sillicon Valley, figuras como Steve Jobs, Bill Gates, Marck Zuckeberg. Todo se repite en el tiempo. Aparecen nuevos referentes, pero siempre tienen la misma pinta, un poco más modernos, un poco más viejos, pero allí están. Hablar de otra manera. Hablar de esas mujeres que iniciaron toda esta fase primera de la computación, que las hay, y centrarnos en el presente. Si yo fuese pequeña, lo que me llamaría la atención sería descubrir una referente actual. Eso no existe y no lo vemos actualmente. 

Se podría enseñar programación en esa etapa de educación reglada, en coles, en institutos, desde un punto de vista que te ayuda a desarrollar ese pensamiento computacional para entender luego todos estos sistemas. Y eso no es tan complicado con la cantidad de recursos que hay. Hay que hacer inversión para, sobre todo, formar a profesores,  y luego también hay otra cosa importante, que es la perspectiva de género. Seguimos mucho con la mente arraigada en que la ingeniería es un campo difícil, las matemáticas se me dan mal o solo hay enfermeras, biólogas…. El campo de las profesiones más técnicas se sigue viendo como inalcanzable, porque solo ves a chicos, o te dicen vas a estar sola, o que va a ser muy difícil… Toleramos mal el fracaso, queremos encajar en la adolescencia, y hay que cambiar mucho el discurso. Cuando preguntas que es una ingeniería, te imaginas al que está construyendo puentes o carreteras, pero lo que vivimos, con la edad del software, es mucho más versátil. Es tan transversal que puedes trabajar prácticamente en cualquier sector. Es cuestión de que encuentres el camino. Yo creo que debería venderse así para entender el impacto social que tiene. Nunca se ha enseñado de esa manera, pero encaja más con el discurso que habitualmente escuchamos las mujeres. Creo que si se contase este potencial que tienen los datos, por ejemplo, en ramas como la biotecnología, el periodismo de datos… por ahí están entrando muchas mujeres a trabajar en tecnología y es precisamente porque son campos donde ya las hay. Es equitativo en cuanto a género, o incluso más a favor de la mujer, es cuestión de encontrar cómo reconvertir también la historia de otra manera. 
 


La pandemia nos ha hecho pensar mucho más en el papel de la ciencia y la tecnología, ¿crees que es importante impulsarla más en nuestro país?

Sí, todavía hace falta un empujón, tanto a nivel inversión económica, pero  sobre todo a nivel de estabilidad. Hay una cosa que pasa particularmente en España y que se da en la etapa primera donde te empiezas a formar como investigador. Es verdad que se necesitan mejorar los salarios, pero hay plazas, tú  puedes optar, puedes desarrollar tu carrera, pero es el qué pasa después. Cuando tú terminas esa etapa investigadora, tienes que estar mucho tiempo yéndote de país a país, con  contratos de dos años, sin ninguna garantía de volver. Eso hace que te quedes en otro país o que renuncies a la carrera investigadoras porque quieres algo más estable. Hablamos de personas que terminan con 28, 29 o 30 años su primera etapa científica. Eso se alarga muchas veces hasta los 40 y no todo el mundo ni quiere ni está dispuesto a sacrificar tanto. Con la pandemia hemos visto que los países que han invertido más en ciencia, generalmente son los que han encontrado vacunas más rápido, o  han tomado decisiones más basadas en evidencias científicas. En ese sentido, creo que esto nos va a ayudar. Ahora es cuestión de no olvidarlo.

Por lo menos se ha situado la ciencia en la opinión pública, que llevaba muchos años sin estar, en los debates, en la tele… y ahora lo que nos queda es meter la parte más tecnológica. Por lo que sea, la divulgación, la ciencia, nos la imaginamos siempre en un laboratorio, y como decía, la era de software tiene todavía poco protagonismo en las teles, en lo que es el público general. Sí que lo vemos en el smarpthone, pero no lo sentimos como algo donde podamos contribuir.  Espero que esto ayude a cambiar y girar hacia un panorama más tecnológico y científico. Yo soy optimista. 

Banner Home

LEE LO QUE TE INTERESA
Suscríbete a nuestra newsletter y descubre un millón de pequeñas historias