COMPARTIR
Generated with Avocode. Path Generated with Avocode. Rectangle Copy Rectangle Icon : Pause Rectangle Rectangle Copy

¿Puede la inteligencia artificial expresar emociones?

Nerea Luis

¿Puede la inteligencia artificial expresar emociones?

Nerea Luis

Doctora en IA


Creando oportunidades

Más vídeos sobre

Nerea Luis

Los comienzos de Nerea Luis en el área de la informática tienen que ver con sus recuerdos de infancia, cuando construía ordenadores de cartón con su hermana y era fiel seguidora de la serie de manga 'Sailor Moon', donde la guerrera Sailor Mercury salvaba el mundo con una pequeña computadora. El anime, la llegada de Internet y la creación de su propia página web en la época del instituto guiaron sus pasos hacia la Ingeniería Informática. Doctora en Inteligencia Artificial y Máster en Ciencia y Tecnología Informática, sus áreas de especialización van desde la IA a la robótica y realidad virtual, ámbitos en los que ha desarrollado su carrera profesional en los últimos años, en proyectos relacionado con Procesamiento del Lenguaje Natural y Visión Artificial. Su labor divulgadora, que ha desempeñado en programas de radio, televisión y conferencias, ha sido reconocida por Google, Casa Real o Forbes. En 2013 cofundó el evento gratuito de ciencia y tecnología T3chFest y desde 2017 ha formado parte de la Fundación COTEC y la iniciativa Ciencia en el Parlamento como experta en nuevas tecnologías y género. La doctora Luis es profesora en varias universidades, forma parte del equipo de Asesoramiento, Divulgación y Consultoría en Inteligencia Artificial de la Universidad Carlos III de Madrid y recientemente se ha unido al consejo asesor de Inteligencia Artificial de Ashoka.


Transcripción

00:15
Nerea Luis. Mi nombre es Nerea Luis Mingueza y soy doctora en Ciencias de la Computación o, más concretamente, en Inteligencia Artificial. Y lo primero que quería hacer antes de empezar a hablar con todos vosotros y vosotras era contaros un poquito mi historia, de dónde vengo y cómo terminé dedicándome a esta área que parece tan novedosa y tan futurista a la vez, pero que tiene que ver mucho con el presente. Yo, cuando era pequeña, a mí me encantaba dibujar, me encantaba dibujar manga, anime. La animación japonesa era una cosa que me volvía loquísima y, en concreto, me gustaba una serie que se llamaba «Sailor Moon». Quizás, los más jóvenes ya no la conozcáis, pero era una serie que iba sobre el empoderamiento femenino. Eran guerreras que lo que intentaban pues era como ayudar al mundo a que fuese un lugar mejor. Y una de ellas se llamaba Sailor Mercury, que, por cierto, es también mi nombre en redes, y entonces, se dedicaba a aportar su conocimiento, pero utilizando un pequeño ordenador. Y, echando la vista atrás, es el primer momento que yo recuerdo tener como esa sensación de decir: «Uy, igual yo quiero ser como ella». Pero era un dibujo animado.

01:30

Entonces, como me gustaba mucho dibujar y, cada vez, aprender mejor a hacer todo este tema, dibujar manga y tal, de repente, llegó internet. Y esto, pues no sé, tendría como unos 11 o 12 años, una cosa así. Recuerdo abrir internet, ver el buscador de Google, ahora es una cosa muy común, y tú, ahí, podías meter palabras. Entonces, imaginaos, la Nerea de ese momento lo primero que hizo fue poner «Sailor Moon» en el buscador y empezaron a salir un montón de cosas. Y esas cosas eran información que, en ese momento, yo no había conseguido encontrar de otra forma. Lo que pasa es que muchas también venían en inglés, ¿no? Quizá, ahora nos hemos acostumbrado a interactuar con los sistemas en nuestro propio lenguaje, pero es verdad que, en ese momento, había mucha información en inglés. Y, entonces, eso es lo que me hizo empezar un poco a indagar por qué la gente compartía información en internet, por qué, de repente, veías páginas web y estaba todo el contenido ahí gratuito. Yo, así, no tenía que ir al quiosco, comprar una revista… Entonces, bueno, pues empecé a indagar y para mí fue casi como un juego. Empecé a hacer mi primera página web, mi primera página web sobre «Sailor Moon», como no podía ser de otra manera, y empecé a compartir, bueno, pues las pocas cosas, realmente, que sabía. Lo que pasa es que aprendí una cosa mucho más interesante, que fue aprender a programar, sin darme cuenta, a través de lo que ahora conocemos como tutoriales. En su día eran «blogs» en internet. Pues conseguí, de alguna forma, estudiar: «Oye, ¿qué es esto del ‘HTML’? ¿Qué es esto de las capas que pone sobre las webs y demás?».

03:05

Y, entonces, ser capaz de publicarlo y que la gente lo leyese. De ahí, llega otra fase muy importante que es cuando le pones nombres a las cosas, y para eso está el instituto. Y, en el instituto, ya en los últimos años se notaba que esto de la informática a mí se me daba bien y, pues obviamente, ahí ya me dijeron: «Oye, esto es una carrera, lo puedes estudiar, te puedes dedicar a ello. Se llama Ingeniería Informática, más allá de otros ejemplos que puedas conocer». Y entonces, ahí fue cuando ya me decidí. Tenía bastante claro que quería dedicarme a la informática. Lo que no sabía era a qué parte de la informática, porque, quizá, la informática la asociemos a los ordenadores, pero, de repente, pues te encuentras asignaturas de todo tipo, ¿no?, del «hardware», que es la parte que tocamos, del «software», de internet, ahora mismo, también, aplicaciones móviles. Yo entré en la universidad en 2009 y recuerdo ese momento que era un poco esponja de todo lo que estaba pasando por allí, hasta que, pues un día, llegó a mis oídos esto de la inteligencia artificial. Teníamos una asignatura que se llamaba Inteligencia Artificial y, en ese momento, pues el profesor nos contaba que tenía que ver con una parte de la computación de la informática, tal y como lo conocemos, que intentaba mezclarnos datos, intentaba mezclar también la capacidad de las de las máquinas para tratar de hacerlas inteligentes. Y, claro, eso, obviamente, suena muy futurista, suena también muy atractivo para alguien que le gustaba la robótica, por ejemplo, o le llamaban la atención estos animes tan futuristas, esta animación japonesa.

04:42

Y entonces, decidí que, oye, que igual tenía que darle una oportunidad a ese campo. Obviamente, existían muchos otros: videojuegos, desarrollo puro y duro de webs, etcétera. Pero, en ese momento, como que algo hizo «clic» en mí con la inteligencia artificial. Claro, ¿qué pasa? Que, en ese momento, realmente si pensamos que era pues 2010, 2011, existía la inteligencia artificial, porque es un área que lleva ya muchos años en desarrollo, pero, quizá, no se la conocía tan popularmente como ahora, con ejemplos tan visuales. En este momento, cuando yo estoy aprendiendo todo esto que tiene que ver con la inteligencia artificial y a formarme, lo que decidí fue hacer un doctorado que me ayudase a especializar. Ya una vez terminé la carrera, decidí dedicarme al mundo de la investigación y ahí estuve, más o menos unos cinco años, donde intenté conectar, digamos, la parte más teórica de la inteligencia artificial, que, por cierto, tiene mucho que ver con el razonamiento, tiene mucho que ver con la planificación, con cómo pensamos, pero también tenía que ver con la aplicación. Y, entonces, empecé un poco a hilar esos dos mundos de la parte teórica menos visual, con la parte, digamos, de robótica, pues más física. Y sí que es verdad que, en toda la etapa del doctorado, pude conocer a muchísima gente, muchísimos investigadores, que te ayudan un poco a sentar esas bases, pero a mí me faltaba una parte que tenía que ver con la comunicación, y también creo que es una de las cosas por las que hoy también se me conoce en internet, y tiene que ver con cómo acercas la inteligencia artificial, ese concepto tan etéreo, a personas, a personas como vosotras y vosotros. Y yo también me he dedicado, sobre todo en estos últimos siete, ocho años, a la propia divulgación del campo de la inteligencia artificial. Cofundé un evento que se llama Tech Fest, también, en la Universidad Carlos III, y después ya me fui al mundo de la empresa, y ahí sí que ya tienes esa capacidad de trabajar con una inteligencia artificial un poquito más aplicada.

¿Puede la inteligencia artificial expresar emociones? Nerea Luis
Quote

“La IA nace con la intención de conseguir un supercerebro capaz de adaptarse y aprender en cualquier situación”

Nerea Luis

06:43

Entonces, retomando un poco el concepto de inteligencia artificial, si pensamos en qué significa, que, más o menos, ya lo he adelantado, y si pensamos también en el momento en el que vivimos, ha pasado algo. Sabemos que la inteligencia artificial está con nosotros. Pero, claro, si pensamos en la propia definición, la inteligencia artificial, cuando la definimos, tiene que ver con esos procesos, os decía, el cómo pensamos, el cómo razonamos. Al final, son cosas que nos hacen muy humanos. Si pensáis en qué nos diferencia de los animales, enseguida, seguramente, pensamos en la inteligencia, en la forma de pensar. No es casual, ¿no? No es casual tampoco que queramos intentar hacerlo con máquinas. Y, realmente, así nace el campo de la inteligencia artificial, y nace con esa ansia de conseguir lo que llamamos la «inteligencia artificial general», ese superrobot o ese supercerebro que es capaz de adaptarse a cualquier situación, incluso aprender de situaciones que no conoce, ¿vale?, que es algo parecido también a lo que hacemos nosotros cuando vamos cogiendo experiencia. Pero ¿qué pasa? Que, a día de hoy, todavía, cuando trabajamos en inteligencia artificial, ya sea investigación o en el mundo, digamos, de la aplicación, en el mundo de la empresa, de las organizaciones, al final, lo que buscamos es una «inteligencia artificial específica», es decir, aquella que, utilizando datos que, por sí solos, realmente no valen nada, si los empieza a conectar, ¿vale?, se convierten en información. Y, si los mantengo a lo largo del tiempo, empiezo a estudiar patrones y hago que se conviertan en conocimiento. Empiezo a ver, oye, cómo la gente se comporta de forma similar ante ciertas situaciones o cómo, de repente, pues una analítica comparada con miles de personas empieza a arrojar algún tipo de patrón. Eso es la inteligencia artificial del día a día, y a todo eso lo llamamos inteligencia artificial específica. Por último, claro, ¿qué es lo que ha sucedido en estos últimos años? Que, de repente, hemos dicho: «Ostras, si ya sabemos convertir los datos en conocimiento, ¿por qué no vamos a aprender a generar nuevos?». Si ya empezamos a trabajar también con imágenes, si empezamos a trabajar con texto, vamos a intentar, de alguna forma, generar datos nuevos, con los mismos algoritmos o con similares. Y, entonces, ahora estamos viviendo una nueva etapa, quizá, dentro de la inteligencia artificial, a la que llamamos «inteligencia artificial generativa», y es la que nos ha traído a que hoy estemos viviendo pues todo este «hype» descontrolado, y tan bonito a la vez, de que todo el mundo quiera hablar y quiera escuchar sobre inteligencia artificial.

09:29
Leo. Hola. Yo soy Leo y me preguntaba, en muchas pelis de ciencia ficción, hemos visto máquinas y robots con inteligencia artificial que intentaban destruirnos, como en «Terminator». Y yo me preguntaba si tú crees que esto es un problema que nos debería preocupar o no. ¿Cómo lo ves?

09:45
Nerea Luis. Es una muy buena pregunta, la verdad, es un buen punto de partida. ¿Cómo nos puede exponer la inteligencia artificial o los avances de la inteligencia artificial a encontrarnos en una situación en la que, de repente, pues un robot o directamente un ordenador quiere terminar con nosotros, ¿no? O, de repente, es más inteligente que nosotros. Te la voy a contestar, pero pensando también en los orígenes, de dónde viene la inteligencia artificial, porque yo creo que se va a entender mucho mejor. En los inicios, casi antes de que se acuñase el término de «inteligencia artificial», que, por si no lo sabéis, fue en 1965, o sea, realmente es un área que no lleva tanto tiempo en desarrollo si la comparamos con otros ámbitos científicos. Hubo un matemático un poco antes, considerado el padre de la computación, que se llama Alan Turing, y Alan Turing ya formuló en su día, más o menos, alrededor de 1950, el famoso test de Turing, o el juego de la imitación, que si no lo conocéis, hay una película que hicieron hace unos años al respecto, y ahí ya se formulaba este dilema de: «¿Podremos conseguir en una habitación, digamos, a oscuras, donde haya dos pantallas, que en un lado esté un humano y al otro lado pueda haber una máquina u otro humano?». Y el humano que está en el primer ordenador tenga que decidir mediante una interacción por teclado, sin hablar, si el que le está hablando a través de una conversación es una máquina o es otro humano. A eso se lo conoce como «el test de Turing» o «el juego de la imitación».

11:17

Se consideraba que, en el momento en el que una máquina fuese capaz de confundir al humano que está al otro lado haciéndose pasar por un verdadero humano, se consideraba que, entonces, la máquina era superinteligente. ¿Qué pasa con esto a día de hoy? Que la forma en la que nos comunicamos, el propio lenguaje, las propias sensaciones que tenemos, a veces, de incertidumbre, del momento de lo desconocido, nos hacen pensar que todavía estamos muy lejos de ese escenario «Terminator», vamos a llamarlo, de esa superinteligencia. ¿Por qué? Por cosas que son muy obvias, pero que, a veces, ni siquiera nos damos cuenta. A la máquina tenemos que enseñarle a hablar, tenemos que enseñarle, como decía, a planificar. Pero, por ejemplo, tenemos que enseñarle también a coger cosas. Si tuvieses un Terminator delante de ti, querrías que anduviese bien, que anduviese natural, que se moviese de forma ágil, y si piensas, por ejemplo, en la cantidad de decisiones que toma tu cerebro, si yo, por ejemplo, te lanzase… Imagínate que te lanzo una pelota, ¿no? El simple hecho de cómo coges la pelota, de cómo estimas cuánto va a pesar, de si te va a hacer daño o no te va a hacer daño, de si se te va a caer, es algo que los humanos lo hacemos tan rápido que eso, por ejemplo, para una máquina, si pensamos en la cantidad de objetos a los que te puedes exponer, la cantidad de personas con las que te puedes chocar y generar ahí algún tipo de conflicto, son situaciones que cuesta mucho exponerlas a la propia gestión del dato. Entonces, hasta que no trabajemos todas esas capas, por eso hablamos mucho de razonamiento, de planificación, hasta que no trabajemos todo ese intermedio que está ahí, desde la IA específica hasta llegar a esa inteligencia artificial general, va a ser muy difícil que nos veamos todavía expuestos a una situación de ese estilo. Lo que sí que estamos aprendiendo últimamente es a trabajar, sobre todo, con diferentes tipos de datos que hagan a los sistemas un poquito más flexibles, y a eso lo estamos llamando «multimodalidad». Pero, por resumir, nos podemos estar tranquilos. Todavía estamos lejos de ese escenario «Terminator».

13:21
Ana. Hola, Nerea. Me llamo Ana. Respecto a esto que estamos hablando, estás diciendo que hay formas de medir la inteligencia, ¿no?, luego el plano cognitivo, pero, muchas veces, yo creo que el miedo que nos da, o la incertidumbre, es por el plano emocional. Entonces, yo no sé si se puede ya o se podrá en un futuro educar a una inteligencia respecto a todo lo emocional: lo de las emociones, si puede sentir, si se le pueden programar recuerdos, como en «Blade Runner»… No sé. ¿Cómo lo ves?

14:00
Nerea Luis. Pues la verdad que la gestión de las emociones con las máquinas no se lleva muy bien, de base. Pero vamos a ver si ahondamos un poquito más en esto. Cuando, por ejemplo, estáis sintiendo cosas, cuando algo te gusta mucho o cuando algo te gusta poco, hay una parte de nosotros que, obviamente, es la cara, las expresiones visuales. Y ha habido mucho debate alrededor de esto, de decir: ¿somos capaces de detectar la emoción de una persona en cualquier parte del mundo? Y resulta que, tras años y años de estudios, parece que no hay una conclusión certera de que no todos expresamos… o la cantidad, digamos, de sonrisa que ponemos, el levantamiento de cejas y demás, que son mecanismos que se utilizan para este reconocimiento de emociones, resulta que no en todas las personas son iguales. Por ejemplo, tiene que ver mucho también con la cultura, con tu herencia también, de dónde vengas, de cómo te expreses. Entonces, ¿qué es lo que sucede con las emociones? Yo creo que hay que preguntarse otra cosa, que es si realmente las máquinas necesitan expresarlas. Yo creo que sí que hay una parte muy interesante en que las comprendan, que entiendan esos momentos en los que nosotros sentimos frustración, en los que sentimos cierto temor, porque sí que hay ciertas cosas que, a través del lenguaje, a través de estas microexpresiones, podemos llegar a detectar, con esfuerzo, pero se podría hacer a nivel tecnológico. Pero, sin embargo, ya si pensamos en utilizarlas dentro de una interacción a lo largo del tiempo, es decir, que la máquina estuviese en todo momento no solo procesando emociones, sino también respondiendo en consecuencia, que es algo que, quizá, podemos esperar de un humano que si yo me siento mal, la persona me diga «lo siento», y así. Eso creo que sería incluso dañino para nosotros. Entonces, hay una corriente bastante firme en no darle demasiado recorrido a todo este tema tanto el reconocimiento como la expresión de las emociones en la máquina. Y no termina de haber, ya te digo, un acuerdo, sobre todo, en la parte más académica, de si, de verdad, tiene sentido lanzar un producto, por ejemplo, alrededor del reconocimiento de emociones. Generalmente, no funcionan bien en muchos aspectos. Entonces, yo diría que es algo que quizá, a futuro, se le vuelva a dar una oportunidad, pero, a día de hoy, aunque la tecnología podría estar lista, es algo que, socialmente, no termina de estar muy bien aceptado. Hemos visto ejemplos, también, en ciencia ficción, pero se quedan, digamos, en la ciencia ficción.

16:38
Laura. Hola, Nerea. Soy Laura. Quería preguntarte, porque, en los últimos años, hay estudios que hablan sobre cómo los robots ayudan pues a la recuperación de pacientes, cuidan a personas mayores… Entonces, quería saber si podías darnos algún otro ejemplo de cómo los robots nos pueden ayudar en el día a día.

16:58
Nerea Luis. Los robots la verdad es que son elementos muy útiles si pensamos en cómo pueden ayudarnos, sobre todo, a complementar espacios donde, quizá, no puedes tener a tantos humanos como te gustaría por un tema de capacidad, sobre todo, y de atención. ¿Dónde hemos visto, sobre todo, muchos avances alrededor de ese tipo de robótica que mencionas, que es la robótica social? Pues, efectivamente, en salud, en entornos tanto de infancia, digamos, de niños pequeños, como de personas mayores, y tiene que ver también con en qué momento de la vida los pillas a este tipo de colectivos. Si pensamos en la infancia, hay un momento, que es el que te toque ir a hospitales, por ejemplo, que te toque hacer algún tipo de rehabilitación de pequeño, que son situaciones muy hostiles, que son entornos que, para el niño o la niña, pues se hacen muy complicados. Entonces, sí se ha visto cómo esta robótica social, que muchas veces consiste en poner un robotito que sea pequeñito y que el niño lo ve como su amigo, pues sí que es verdad que parece como que, al verlo de igual a igual, puede ayudar a que esa terapia o ese acompañamiento pues se realice de una forma un poquito más natural, más allá de que estén cerca de él los familiares, o de ella. Si pensamos en, digamos, en las personas mayores, en la tercera edad, sí que hay una parte… También te diré que, sobre todo, se ha desarrollado mucho en la cultura asiática, que tiene que ver con robots sociales, pero que se parecen más casi como a peluches. De hecho, hay un ejemplo, hace muchos años ya, como diez años o más, se lanzó Paro, que era una foquita así, de peluche, y se popularizó mucho en las residencias de la tercera edad en Japón.

18:40

Y, realmente, lo único que hacía esa foquita, porque, en ese momento, obviamente, los sistemas conversacionales no estaban tan desarrollados como ahora, pues era, bueno, el expresar cierto cariño a través de gesticular, pero gesticular muy poco. O sea, os podéis imaginar cómo es un… Imaginaos una foca animada, ¿no? Pues eso, si le ponemos formato de peluche, os podéis hacer una idea, más o menos, tenía como este tamaño, y el vínculo que se estrechó con esas personas fue exagerado, porque es que, de repente, claro, era como que tenían una especie de mascota. O sea, no era un vínculo como el del niño, que era de igual a igual, sino que era una especie de tener una mascota, y muchas veces tenía que ver con que ese tipo de animales no se puede tener en residencias por todo el tema higiénico, digamos, de acompañamiento, etcétera. Entonces, ahí, por ejemplo, la robótica social sí que ha ido desarrollándose de manera muy positiva. Y hay otro ejemplo que me gustaría compartir porque, además, tiene que ver con nosotros, con nuestro país, que es un… Marsi Bionics, no sé si lo conocéis, es una empresa que nace también de la universidad y su CEO, su presidenta, es Elena García Armada, y fue una de las pioneras en utilizar una cosa que llamamos exoesqueletos. No sé si os imagináis a Iron Man, pero una cosa parecida. Entonces, por ejemplo, esos esqueletos sirven para añadírselos al niño y, entonces, que esa persona que tiene, en este caso es un niño, problemas de movilidad, de repente, pueda hacer una rehabilitación un poco más fuerte, se pueda llegar a levantar y, en ese sentido, le cambie la vida.

20:17

Entonces, sí que estamos viendo una tendencia bastante fuerte de cómo la inteligencia artificial también está complementando esa fase, digamos, de la robótica. ¿Qué es otra cosa también muy buena que se ha visto en la inteligencia artificial? Que podemos utilizar la capacidad de trabajar con voces sintéticas para personas que tienen dificultades a la hora de hablar. O, por ejemplo, si pensamos en internet, toda la capa de accesibilidad, digamos, podemos trabajarla también con inteligencia artificial, generando descripciones automáticas, generando, sobre todo, contenido accesible para personas con discapacidad. Entonces, se empieza a abrir una amalgama de oportunidades que va, ya os digo, desde lo más aplicado hasta la parte más de investigación, como puede ser la última referencia, que querría compartir, sería AlphaFold, que fue un descubrimiento que hizo la empresa DeepMind, donde lo que pretendían era estudiar con inteligencia artificial cantidades ingentes de información sobre proteínas de nuestro cuerpo para intentar predecir cómo se desarrollaban, llegar a predecir cómo se desarrollan ciertas patologías. Al, digamos, al desarrollar, o sea, al estudiar cómo se desarrollan esas patologías en nuestro cuerpo, también podemos ayudar a predecir en qué momento suceden. Y eso se hace mediante ese estudio, lo que llaman el «pliegue de proteínas». Este trabajo, por ejemplo, ha hecho que se abra la mayor base de datos de proteínas, tanto reales como generadas de forma artificial, digamos, y que se esté trabajando ahora mismo en «deep learning» y biomedicina, bioquímica, en todo… en mogollón de sitios, quiero decir, de grupos de investigación.

21:55

Hay otra área, también en la salud, que tiene que ver con la salud mental, y ahí, la inteligencia artificial también estamos viendo cómo empieza a ayudarnos, sobre todo, a detectar algunos comportamientos que podemos observar, ya sea a través de conversaciones, por ejemplo, que estamos teniendo en redes sociales o, por ejemplo, con pacientes, en el caso de que estemos interactuando con ellos. Puede ser también en consulta, pero, generalmente, la inteligencia artificial sí que está tratando de cubrir ese espectro de atención, sobre todo, a través de internet. Y hay un proyecto muy interesante, que hizo también una investigadora española, por ejemplo, alrededor de la prevención del suicidio, de cómo estudiando grupos, digamos de comportamiento en redes sociales, grupos que tenían tendencias a hablar de estos temas, de suicidios, de anorexia, de, digamos, diferentes enfermedades mentales o temas de salud mental. Pues cómo, mediante ese tipo de algoritmos, cómo, mediante el estudio de los textos, de las expresiones que utilizaban, de los «hashtags», se puede ayudar, por ejemplo, a prevenir, pues algún tipo de consecuencia que se pueda llegar a dar, ¿no? Entonces, es un área, quizá, menos explorada, pero donde también, seguramente, veamos grandes avances utilizando la inteligencia artificial, eso sí, siempre, en este caso, protegiendo y anonimizando la fuente de origen. Todos estos sistemas y todos estos trabajos que se tratan tienen también un componente, digamos, de certificación, de poner en marcha, que no son tan rápidos, digamos, de funcionar como podría ser el algoritmo de películas de Netflix. Al final, lleva un proceso regulatorio mucho más extenso.

¿Puede la inteligencia artificial expresar emociones? Nerea Luis
23:39
Chica 1. Hola, Nerea. Yo quería preguntarte sobre algo que está muy a la orden del día, que son las noticias falsas, o «fake news», y, concretamente, lo difícil que es detectarlas. Yo quería saber si piensas que las nuevas tecnologías pueden entrañar algún riesgo de que nos terminen manipulando.

23:54
Nerea Luis. Las «fake news» son un tema que, sobre todo a raíz de la pandemia, bueno, y de las últimas elecciones que se dieron en Estados Unidos, como que no ha parado de emerger, en redes sociales, en un montón de rincones se ha empezado a hablar, incluso, dentro de la inteligencia artificial, tanto sí se está fomentando esa generación de contenido falso como si se puede utilizar la inteligencia artificial para detectarla. Sí que me gustaría empezar hablando de la manipulación. En las redes sociales, vemos, obviamente, el contenido al que nos sentimos más afines, damos «likes», tenemos formas de medir cómo la gente se comporta en internet, sobre todo, en estos espacios de conversación. No sé si habéis visto el documental «El dilema de las redes». Pues hablan de todas estas cosas. Pero sí que en uno de los temas que inciden es en cómo puedes llegar a conocer a la persona simplemente con la información que hay en internet, tanto para bien como para mal. Y luego también, el cómo las personas recibimos la información, ¿no? Entonces, a la hora de trabajar, por ejemplo, con temas de «fake news», hay una parte muy complicada que es intentar predecir la forma que tienen, porque los temas generalmente son de actualidad y las máquinas con la actualidad se llevan mal. Es decir, como os decía, son capaces de predecir situaciones que ya han conocido antes. Sí que podemos estudiar ciertos comportamientos. El famoso «clickbait», esa forma, digamos, de llamar la atención para que cliques. Sí se puede estudiar cómo una noticia puede parecer o puede tener cierto componente tendencioso antes, incluso, de leerla.

25:31

Y ahí sí que la inteligencia artificial está haciendo sus pinitos. Pero todo lo que tiene que ver con la validación de la información es algo que, a día de hoy, se escapa incluso de la propia inteligencia artificial. Nos puede ayudar, eso sí, a trazar, cómo se han difundido «fake news» en internet. Esto se ha hecho, sobre todo, con la red social Twitter o ahora llamada X, donde se ha visto cómo se puede utilizar, incluso para estudiar, la inteligencia artificial, los grupos que diseminan, en este caso, «fake news» a lo largo de internet, cómo se mueven, cómo se comportan. Ahí sí que es verdad que la inteligencia artificial nos aporta el poder extraer patrones ante una volumetría que no deja de crecer. Pero, a la hora de pararlas, es, al final, una cosa de cada uno, de cómo reaccionamos ante la información, cómo la verificamos. Sí que estamos viendo también nuevos mecanismos en internet que tratan de validar la fuente, la autoría. Quizá, algún día se cruce, incluso, con tecnología «blockchain» o con un tipo de firma electrónica donde puedas, de alguna forma, decir quién eres. Esto se ha planteado incluso en la generación de vídeo, pero siguen siendo tecnologías muy emergentes. Y, por otro lado, tenemos también poca regulación al respecto. Entonces, veremos cómo evoluciona, pero, a día de hoy, salvo que sabemos que nos ven y nos personalizan esas temáticas y esas cosas que queremos leer, no podemos aportar todavía más allá.

27:01
Chica 1. Al hilo de lo que comentas, se me viene a la mente un vídeo de Morgan Freeman, el actor, en el que dice: «Yo no soy Morgan Freeman y este vídeo no es real». ¿Qué tecnologías crees que se utilizan para hacer esto?

27:13
Nerea Luis. Pues ese tipo de vídeos que han ido emergiendo en internet, el de Morgan Freeman, o hemos visto también muchos otros, sobre todo con rostros famosos que, al final, son como el perfil idóneo porque los conoce mucha gente. Son, digamos, en este caso, «deepfakes» que llamamos, que es fácil tragártelo, parece que son muy reales. Ahí es verdad que utilizamos inteligencia artificial, por ejemplo, para hacer ese «match», esa conexión, entre el que está grabando el vídeo, que realmente es una persona como cualquiera de vosotros, y luego toda la recopilación de vídeo y de datos que se ha hecho alrededor de Morgan Freeman. Digamos que la inteligencia artificial lo que hace es cruzar ambas, la forma que tiene de expresarse el actor, y la capa visual, digamos, sería la de Morgan Freeman. Lo que pasa es que todavía, a día de hoy, es difícil ver esa tecnología funcionar en tiempo real. Es decir, aquí, por ejemplo, en este plató, sería muy difícil generar un «deepfake» de alguno de vosotros en cosa de segundos. Al final, son técnicas que todavía requieren tiempo de análisis, de, luego, producción del propio algoritmo que va haciendo toda esta relación entre una figura y otra y luego, en la mayoría de casos, sobre todo en vídeos que se viralizan en internet, que tienen muy alta definición, lo que ha habido también es algo de posproducción. ¿Vale? ¿Qué es lo que sí está haciendo la inteligencia artificial? Cada vez digerir mucho más rápido este tipo de dato y, cada vez, es verdad que hace falta menos posproducción. Pero, si estuviesen, por ejemplo, enfocándome a mí, la forma que tengo de gesticular, la forma que tengo de mover mis ojos, de hacer ciertos gestos que son muy míos, como sería otra persona, digamos, la que está grabando ese mensaje, sería una forma, en cierto modo, sencilla, o, al menos, sencilla a día de hoy, de detectar que podría estar expuesta a que me hayan impersonado, que es como llamamos a este tipo de ataques.

29:15

Por otro lado, también hay muchas veces que si no se ha hecho bien esa posproducción, que eso se hace con herramientas de edición digital, no se hace con inteligencia artificial, lo que podemos ver son como pequeñas imperfecciones o cambios que se pueden dar en el fondo, junto a la persona, sobre todo si nos movemos de perfil, se puede perder un poco de definición también, e incluso en los reflejos de las gafas, que esto ha sido muy sonado, los reflejos de las gafas, la forma en la que entrelazamos los dedos, de repente, puede ser que tengas algún plano en el que pierdas algún dedo o salga algún dedo de más. Entonces, eso son ventajas, quiero decir, también a la hora de diagnosticarlo y saber si nos estamos enfrentando a un «deepfake». Pero veremos en un futuro también cómo evoluciona este tema, porque es verdad que, sobre todo a nivel regulatorio, va a dar mucho que hablar, sin duda.

30:08
Sofía. Hola, Nerea. Soy Sofía. A mí me interesa mucho la capacidad de poder hacer fotografías a partir de palabras, frases. Por ejemplo, me gustaría hacer una fotografía de una niña con una caperuza roja, en un bosque, y que la persiga un lobo. ¿Tú crees que la inteligencia artificial tiene la capacidad de tener esa creatividad por sí misma? ¿O va a ser la creatividad la que nos diferencie a los humanos de las máquinas?

30:38
Nerea Luis. Es una muy buena pregunta, porque este ejemplo justo que has puesto sobre una caperuza roja, un lobo en el bosque… Seguro que todos habéis pensado en el cuento de «Caperucita Roja». ¿Qué pasa? Que esa es una de las cosas que, a veces, la máquina no entiende. Pero ahora, gracias a poder expresarnos con nuestro propio lenguaje natural y a toda la cantidad de datos, digamos, que vamos dándole a la máquina, resulta que si aparecen las palabras «Caperucita» o «Caperuza», «roja», «lobo», «bosque», seguramente haya por detrás ahí, en la inteligencia artificial, alguna asociación también a la palabra «cuento», ¿vale? Ese tipo de asociaciones las hace la inteligencia artificial. ¿Con esto qué quiero decir? Que cada vez más esa forma de hilar los distintos contextos, la información, nuestras referencias, hace que también se parezca ese proceso un poco a nuestro proceso creativo, en el que nos inspiramos. Cogemos referencias, decimos «este estilo me gusta», «este igual no tanto», «las sombras aquí quedan bien», ¿no? Y aportamos una coherencia dentro de la fotografía, dentro del cuadro que queramos hacer, que nos empieza a recordar mucho a ese «collage» que monta la inteligencia artificial y que ahora, pues parece que, a golpe de clic, ya tenemos un montón de opciones que incluso nos atrevemos a seguir editando con más lenguaje, como estamos viendo con las últimas herramientas. Entonces, a mí sí es verdad que yo era de las que pensaba hace unos años que la creatividad y las máquinas era una cosa que estaba superlejana. Hay vídeos, de hecho, de mí en 2017, por ahí, diciendo: «No, esto será algo que tardaremos mucho en conseguir».

32:17

Pero sí que es verdad que creo que hay una diferencia en cuanto a cómo nosotros percibimos esa creatividad, ese proceso, quizá, como lo consideramos más artesano más nuestro, más de cada uno, y en cómo percibimos la de la inteligencia artificial. Entonces, creo que son dos formas de hacer creatividad diferentes. Hay una parte que está más centrada, obviamente, en datos, que es la de la IA, y hay una parte más inspiracional nuestra, que es a la que llamamos arte, ¿no? ¿Qué es lo que pasa? Que creo que, no dentro de mucho, dejaremos de hablar de arte hecho por humanos o por inteligencia artificial. Creo que vamos a tender más a que el propio humano se aproveche de las características y de las plataformas que ofrece la inteligencia artificial para acelerar la parte del boceto, por ejemplo, y que, luego, pues podamos aportar ese toque nuestro en una fase de edición posterior y que, realmente, sea una obra que has hecho de forma colaborativa. Será algo, creo, que veremos no dentro de mucho.

33:20
Chica 2. Hola, Nerea. ¿Es posible que, si en algún futuro, nos implantan chips en los cerebros a los humanos, podamos ser más inteligentes? Es más, ¿crees que esta tecnología pueda tener algún riesgo para nosotros?

33:35
Nerea Luis. Chips inteligentes. No hemos tenido suficiente todavía con la inteligencia artificial, que pensamos en chips inteligentes. Fíjate, creo que es un tema que, obviamente, bebe mucho de la ciencia ficción, como pasaba hace muchos años con la inteligencia artificial y la robótica. ¿Os implantaríais algún tipo de chip sin que estuviese certificado, por ejemplo, por un organismo médico, o sin que estuviese, de alguna forma, testado en humanos como vosotros? Yo creo que nadie. Es un mundo, quizá, un poco todavía lejano. Sí que es verdad que se empiezan a ver los primeros prototipos, pero todavía tenemos poca información sobre el éxito de todos ellos. Veremos que es algo que se estudia, pero no necesariamente dentro del campo de la inteligencia artificial. Al final, es un área en la que combinamos la computación, en este caso, por la parte del chip, con el área, digamos, más bío, la que estudia pues el cómo toda esta tecnología se podría insertar dentro de nuestra propia piel, de nuestro propio sistema nervioso, y ver cómo reaccionamos a ello. Entonces, no creo que sea un área donde la inteligencia artificial vaya a tener mucho protagonismo. Sí que es verdad que creo que habrá un momento en el que veremos algún tipo de proliferación de ese tipo de sistemas, como el famoso Neuralink de Elon Musk. Veremos su desarrollo. No sé si llegarán a certificarse como tal. Sí se ha visto que hay, por ejemplo, algún mecanismo de pago que se estaba viendo, este «contactless», con el que pagamos con tarjeta o con el móvil.

35:13

Que sí que había gente que decía que se podía como meter un chip de ese estilo en la piel y, entonces, como pagar con tu muñeca. Pero, para mí, sigue siendo un área que miro con mucho respeto. Y de nuevo, un poco refiriéndome al momento en el que hemos hablado sobre las emociones, también me pregunto si es necesario, si realmente queremos llegar a ese momento. La inteligencia artificial quizá podría ayudar en cómo dotamos de información a ese tipo de chip. Sí que es verdad que, en el área de la salud, por ejemplo, se han hecho algunos estudios y se ha llegado a trabajar con algunas frecuencias que, por ejemplo, para pacientes de Parkinson, que, al final, tienen problemas, sobre todo, de vibración. Es un problema de sistema nervioso. Lo que intentan hacer es implantarle un pequeño chip donde estamos emitiendo la señal contraria a la vibración que hacen, o a esa misión, a esa señal que emite su cuerpo de forma constante. Con lo cual, pasamos… Si estudiáis cómo son las ondas, pasamos de estar haciendo así a hacer la señal contraria y nos quedamos en algo plano. Y, de repente, un paciente que no es capaz, igual, de coger una cuchara, los vemos emocionados porque, realmente, les estás cambiando su forma de vivir y, sobre todo, de desarrollarse de forma común. De nuevo, este tipo de sistemas quizás tome un tiempo más largo que veamos su funcionamiento y que se popularicen, precisamente, por ese sistema regulatorio. Porque también nos preguntamos: «Oye, ¿cómo de seguros son estos estudios y estos primeros análisis que se hacen con pacientes reales?».

36:55

Y ahí también entra un tema, sobre todo, bueno, regulatorio y, quizá, también inspiracional, ¿no?, en el que se empieza a hablar de neuroderechos, de si llegamos más allá de la era de internet y de la privacidad y de quiénes somos, y si pensamos en que vamos a necesitar tener algún tipo de protección, por ejemplo. Si pensamos a nivel biométrico, si pensamos a nivel de nosotros, de cómo somos cada uno, de nuestra huella, digamos única, que somos como humanos, ahí sí que se está hablando un montón de, oye, si tenemos que, de alguna forma, proteger al individuo. Y, sin duda, creo que es un tema que le va a interesar a mucho neurocientífico que, a día de hoy, está, igual, solo estudiando el cerebro, las emociones y demás y, seguramente, empiecen a converger esos temas de datos, inteligencia artificial y neuroderechos.

¿Puede la inteligencia artificial expresar emociones? Nerea Luis
37:46
Chica 3. Hola, Nerea. A mí me gustaría preguntarte sobre el reconocimiento facial que, por ejemplo, usamos para desbloquear el móvil, que si tiene algún tipo de riesgo.

37:55
Nerea Luis. El reconocimiento facial es otra de las áreas de estudio de la inteligencia artificial, de los algoritmos, en general, que ha generado bastante debate, la verdad. Porque, claro, por un lado, dices: «Voy a meter un mecanismo de identificación». Asociamos el reconocimiento facial a una forma de reconocernos de forma unívoca, de forma única. Todos tenemos una cara bastante diferenciada. Entonces, esto, a nivel tecnológico, está muy guay, mola mucho, pero, a nivel de protección del individuo, de cómo nos desarrollamos a lo largo del tiempo, quizá es algo que no nos gusta tanto, y voy a intentar poner algunos ejemplos. Cuando nos estamos identificando, por ejemplo, con el móvil, ahora que se han puesto muy de moda los «face ID» o el reconocimiento con huella, es un reconocimiento que hacemos biométrico, pero, generalmente, esa información sobre nuestra cara, la que utilizan para escanearnos antes de implementar ese sistema, de que lo podamos usar en nuestro dispositivo, se almacena todo en local, es decir, la información tuya biométrica está en tu móvil. Tu móvil hace esa validación y lo que le manda es una señal al servicio de terceros que estéis usando, la app del banco o a WhatsApp, a donde sea que tenéis puesto ese «face ID», para decirle que os ha validado, que ha visto que sois vosotros los que estáis en frente del teléfono. Entonces, por eso, este tipo de sistemas sí estamos viendo que prolifera a nivel de dispositivo que guardamos en el bolsillo, como digo yo. Sin embargo, no lo estamos viendo tanto en sistemas de espacios públicos, si pensamos en cámaras. ¿Por qué? Porque la información, ese reconocimiento facial que yo estaría haciendo de personas en un espacio público, tendría que ir a un servidor que yo no sé dónde está ni sé quién lo opera ni sé quién guarda esos datos.

39:44

Se está hablando mucho de cómo el reconocimiento videomédico también, con la nueva ley de Inteligencia Artificial, va a estar prohibido en espacios públicos, salvo que sea realmente necesario, si podemos pensar en entornos de búsqueda de menores, alguna investigación policial e, incluso, se habla también de entornos de guerra. Entonces, no es algo que vayamos a ver de forma muy popularizada en Europa, pero sí que, como os digo, es una tecnología que existe a día de hoy y que se puede utilizar y es segura, siempre que se haga en el dispositivo. Hay otro ejemplo que genera también mucha controversia y que se ha escuchado en los medios, que es una iniciativa, un proyecto, que lo que quiere es escanear tu iris. Entonces, imaginaros. Si, ya de por sí, os estoy diciendo que vuestras caras son únicas, si yo me quedo con la información de vuestro iris, que, por cierto, es una de las cosas que menos cambia en vuestro cuerpo, porque vuestra cara, más o menos, con los años, salvo ya cuando somos más adultos, pues ya empieza a dejar de cambiar. Pero el iris, por ejemplo, es una de las cosas que menos cambia y que más información contiene, también, de una persona, por lo visto, a nivel, también, genético y demás. Entonces, el escaneo del iris, por ejemplo, podría ser un mecanismo tal y como se está haciendo ahora mismo, que es seguro la forma de hacerlo, pero no la forma de almacenarlo. Hay mucha duda y mucho debate respecto a dónde se va a utilizar esa información, o, más bien, qué pasaría si, de repente, alguien ataca ese sistema que tiene almacenada toda esa información biométrica de tu iris.

41:17

¿Por qué? Porque tu iris no lo puedes cambiar. No es como una contraseña. No es como, quizá, tu cara o tu huella, donde se podría estudiar, quizá, meter algún tipo de modificación. Pero hacerte una operación de iris no creo que sea lo más fácil, a lo que nos queramos someter. Entonces, cuidado con eso. No es un tema de ahora, es decir, mi mensaje es que no es un problema de ahora. El riesgo es a futuro, porque, igual, tu iris dentro de diez años sigue siendo muy parecido y, entonces, podrían impersonarte, podrían hacerte algún tipo de ataque, no sé, malicioso, ¿no? Hay un documental muy interesante, creo que estaba en Netflix, que se llama «Sesgo codificado». Y, entonces, ahí lo que se plantea es otro tipo de dilema que también tiene que ver con ese reconocimiento facial, que es cuando yo hago un reconocimiento facial a nivel técnico, yo tengo que ser capaz de identificar cualquier tipo de cara. ¿Vale? Eso significa que soy capaz de reconocer a un niño, soy capaz de reconocer a un adulto, pero también soy capaz de reconocer diferentes etnias, por ejemplo. Si reconozco la piel blanca, que es lo que hacen la mayoría de sistemas productivos a día de hoy, pues, de repente, todos formáis parte del sistema. Pero no hace mucho, sobre todo alrededor de 2016, 2017, se empezó a ver, gracias a estudios hechos por diversas, sobre todo, investigadoras en inteligencia artificial, una de ellas es Buolamwini, Joy Buolamwini, estudió cómo ella misma, que era negra, se sentía muy fuera de este tipo de sistemas de reconocimiento biométrico facial porque, directamente, su cara no la detectaban los sistemas.

43:03

Con lo cual, también tenemos ahí un área de estudio donde tenemos que ponernos, nunca mejor dicho, en la piel del otro. Tenemos que intentar entender la diversidad de ejemplos a la que nos estamos exponiendo, sobre todo, si nos dedicamos a esa parte más técnica, como a la que me dedico yo, de construcción y diseño de algoritmos, pero también en cómo se van a sentir esas personas, porque, aunque estemos ahora debatiendo si es seguro o no es seguro, el no sentirte identificado, el no sentirte parte de un sistema, significa que estás obviando a parte de la población, que tiene el mismo derecho a desarrollarse dentro de un sistema de inteligencia artificial o fuera de él. Lo que se vio, sobre todo, en este tipo de sistemas, era que, según íbamos trabajando con diferentes etnias y también cuando cambiaba el género, por ejemplo, de hombre a mujer, también se percibía cómo el sistema iba bajando esa precisión en el reconocimiento. Y, de hecho, hay una imagen, un vídeo, dentro de ese documental, donde ella misma, en su tesis doctoral, se construye una máscara blanca que encaja con su cara, y en el momento en el que se la pone, hay muchísimos algoritmos de inteligencia artificial que, de repente, la identifican, a pesar de que están viendo una máscara, pero es una máscara con forma humana. Para que veáis hasta dónde llega. Otro ejemplo también muy parecido, similar, no necesariamente es un tema de inteligencia artificial, tiene que ver también con sensórica, es el cómo reconocemos la palma de la mano.

44:35

Y ahí también hemos visto casos donde, en dispensadores de jabón, por ejemplo, a una persona negra, de repente, no le detecta la mano el sensor. Es decir, que estamos hablando de que también hay un área de estudio, dentro de la inteligencia artificial, y, sobre todo, que toca mucho la perspectiva más social, y ahí se están metiendo también muchos perfiles humanistas y de ciencias sociales a estudiarlo, que es la inclusión, el cómo medir la inclusión de este tipo de sistemas y, sin duda, creo que va a ser uno de los grandes avances, sobre todo, para que la inteligencia artificial sea socialmente aceptada.

45:11
Chica 4. Hola, Nerea. Algunos expertos dicen que la inteligencia artificial y los robots van a eliminar muchos trabajos. En cambio, hay otros que dicen que van a crear otros nuevos. ¿Tú qué opinas acerca de esto?

45:22
Nerea Luis. El futuro del trabajo es otro de los grandes dilemas de la inteligencia artificial. Aunque yo creo que, al final, lo ha sido siempre. Si pensamos en las diferentes revoluciones que ha ido habiendo a lo largo de la historia, sí que vivimos cómo existen grandes cambios, grandes disrupciones. Si pensamos en las últimas, internet sería una de ellas. Los móviles podríamos pensar que son otra a la hora de cómo nos relacionamos y cómo nos comunicamos. Pero si pensamos en nuestro trabajo, claro, la inteligencia artificial trae algo nuevo que no había pasado antes, que es esa capacidad ahora de hablar como nosotros, porque, de repente, hemos pasado de utilizar inteligencia artificial solo con código, que era lo que hacíamos los ingenieros e ingenieras hasta no hace mucho, a, de repente, abrirlo a toda la población, e interactuar con el lenguaje natural. Entonces, ¿qué es lo que sucede con esto? Que nos levanta esa alerta de decir: «Ostras, empiezo a ver una máquina que está haciendo cosas parecidas a las que yo hago si sé cómo pedírselas», ¿no? Tengo que aprender a saber cómo pedírselas. Tengo que darle, seguramente, un contexto también de la tarea que quiero llegar a hacer, pero, de repente, la hace. Quizá no la hace tan perfecta, quizá no está tan expuesta a situaciones, como hemos comentado anteriormente, que tienen que ver con la incertidumbre, con los escenarios más desconocidos o con esa experiencia, pero si pensásemos en una persona que acaba de llegar un trabajo, que no tiene ese conocimiento, esa experiencia de la organización, o si pensamos en alguien como vosotros, los más jóvenes, que todavía os queda mucho por aprender y por descubrir, pues, jolín, igual, la inteligencia artificial, de repente, os puede ayudar a trabajar mucho más rápido, pero también hace que abramos el otro debate, que es: «Y, entonces, ¿cuánto va a valer mi trabajo?».

47:12

Alrededor de esto, yo sí que soy de las que defiendo que me resulta muy difícil pensar en una suplencia total, digamos, en un reemplazo total de la inteligencia artificial respecto a puestos de trabajo. Quizá, también, porque veo la parte en la que la inteligencia artificial no funciona bien y estoy muy expuesta a eso en mi día a día. Estoy viendo cómo la inteligencia artificial se confunde, cómo, a veces, no entiende bien la terminología de ciertas palabras, cierto contexto. Entonces, me resulta muy difícil que sea capaz de desenvolverse en cualquier tipo de profesión. Si pensamos, por ejemplo, en resumir, hacer actas, traducir, se han visto ejemplos de este estilo donde sí que parece que estos sistemas generativos empiezan a despuntar. Pero, de nuevo, creo que no tendríamos, digamos, la calidad que necesitamos si solo utilizásemos inteligencia artificial. Y luego está el trato humano. Al final, todo el mundo espera que, ante una situación, tengas algún tipo de atención humana que te ayude a cómo desenvolverte en, sobre todo, situaciones que no conoces o de atención al público. Con lo cual, creo que va a ser más seguro y más realista hablar de colaboración. Y algo que ahora distinguimos mucho si lo ha hecho un humano o una máquina, pues es que no va a ser tan raro, dentro de unos años, el decir: «Lo he hecho», y ya está. Dará igual que lo hayas hecho parcialmente con inteligencia artificial o con una herramienta que tenga un par de funcionalidades que utilizan inteligencia artificial. Me gusta pensar más en eso.

48:50

Y hay una frase, por ejemplo, de Sam Altman, del CEO de OpenAI, que es una de las empresas ahora mismo punteras en inteligencia artificial, que dice que «la inteligencia artificial es buena automatizando tareas, no trabajos». Hay escenarios, de todas formas, donde nos tenemos que preguntar también si no estamos exponiendo demasiado a los humanos, por peligrosidad que pueda tener esa tarea o ese tipo de trabajo. Y ahí sí que estamos viendo grandes avances en inteligencia artificial, sobre todo, si pensamos, por ejemplo, en la revisión de torres eléctricas. Hay una tarea que es: «Oye, yo tengo que ir a revisar el estado de una instalación, igual tengo que subirme a una torre de alta tensión». Entonces, ese tipo de tareas, pues ahora, mediante la combinación de drones y de inteligencia artificial para analizar las imágenes que graba ese dron, pues, de repente, son mucho más seguras de hacer y no estás exponiendo a esa persona a hacer ese tipo de tareas donde puede sufrir un accidente. Se está llamando, hay un área que se está denominando «seguridad activa», que tiene mucho que ver también con cómo, en sitios de difícil acceso, como puede ser en catástrofes, en incendios, podemos utilizar, de nuevo, esta combinación de drones, por imágenes aéreas, o vehículos, incluso, autónomos, que puedan tener un acceso un poquito más sencillo a determinados terrenos, sin involucrar que un humano esté conduciendo ese vehículo, pues nos ayuden a entender qué está sucediendo y, de nuevo, entre la máquina y el humano, pues intentar ver cuál es la forma más sencilla de actuar, pero siempre protegiendo nuestras vidas.

50:26

Yo creo que esa parte es, bueno, una muy buena noticia, una parte muy positiva del desarrollo de la inteligencia artificial. Y hay otro que se está viendo también, que es cómo, en instalaciones, si pensamos en industria, por ejemplo, donde hay mucha cadena de producción, donde hay mucha maquinaria, ahí se ha incorporado mucha sensórica, donde ya, por ejemplo, si hay un humano, la máquina no se activa, por ejemplo, una cortadora o máquinas así. Pero también se está intentando cruzar información que mezcla la imagen, o lo que está sucediendo en ese momento en la fábrica, en la refinería, en la industria que sea, con los procesos de revisión. Si somos capaces de combinar imagen con texto, si yo sé cuándo se han revisado esas máquinas, qué tipo de incidentes se han dado, en qué momentos del año, si había personal interno o externo. Son situaciones que nos pueden ayudar a reducir el número de incidentes humanos que se pueden dar, sobre todo, como os digo, en entornos donde hay personas más expuestas a maquinaria y pueden sufrir un accidente físico.

¿Puede la inteligencia artificial expresar emociones? Nerea Luis
51:32
Amelia. Hola, Nerea. Yo soy Amelia. Soy estudiante de bachillerato tecnológico. Cuando tú estabas en la carrera, erais tres o cuatro chicas en tu promoción. Me gustaría saber si crees que se necesitan más representantes femeninos en este sector.

51:47
Nerea Luis. Fíjate, yo creo que es algo que va cambiando poco a poco, no a la velocidad que nos gustaría y, por eso, también yo he hecho mucha divulgación y mucho activismo alrededor de la figura de la mujer. Desafortunadamente, en tecnología, hemos sido pocas, pero, además de las que hemos sido pocas, se han reconocido muy pocas figuras públicamente, ¿no? Y tiene que ver también con la evolución del campo, con el momento en el que, por ejemplo, llegan los ordenadores, las computadoras, los ordenadores personales, sobre todo, y, de repente, empezamos a ver publicidad en la que a nosotras se nos pone casi de accesorio, casi como cuando vemos los anuncios, o aquellos anuncios antiguos de coches, donde aparecía una modelo. Pues con los ordenadores sucedía igual. Los mensajes que se daban tenían que ver con: «La informática está dedicada a ser más productivo, a que estés más tiempo con tu familia». Pero la foto que salía era un hombre con traje, ¿no? Entonces, sí que hay una parte ahí, que es el cómo hablamos y cómo elaboramos otros discursos alrededor de la tecnología. A mí me hubiese gustado, quizá, escuchar más ejemplos de aplicación de impacto social que luego puedes hacer desde la ingeniería, sea informática o sea cualquier otra, pero también me hubiese gustado escuchar ejemplos como el de Elena García Armada construyendo ese exoesqueleto, ¿no?, O de otras mujeres que han sido partícipes pues en todo este desarrollo de la tecnología. Entonces, sí, éramos pocas.

53:18

Es verdad que las que estábamos éramos muy buenas, esto también lo tengo que decir, porque también, cuando vas quedándote, y te intentas poner al nivel de lo que ves alrededor, de nuevo, hay una parte de ti que se pone en alerta y lo que intenta es encajar y ponerse un poco a hablar como habla el resto. Y muchas veces no son conversaciones a las que tú estés habituada como mujer. Entonces, te expones más, trabajas más, estudias más. Y lo que sí que me gustaría también es lanzar un mensaje de ánimo. Quiero decir, yo estoy aquí. Quizá, soy un ejemplo de, bueno, muchas otras que igual no tienen este altavoz que yo tengo hoy, pero sí que creo que es importante que, cada vez más, entendamos que da igual realmente que seamos mujeres en lo que sea. Somos profesionales. Entonces, que también creo que es muy importante que se hable, aunque sea, de si faltan referentes femeninos, que se hable también del trabajo que hacemos, porque realmente es lo que va a cambiar y lo que va a hacer que, por ejemplo, personas como tú u otras chicas y mujeres que veo en la audiencia pues se decidan a estudiar este tipo de carreras o le den una oportunidad laboral porque quieren hacer un giro a nivel profesional, que también se puede, y, sobre todo, que normalicemos que no hay profesiones ni de hombres ni de mujeres. Si pensamos, por ejemplo, a la hora de trabajar con inteligencia artificial y con este tipo de equipos que te encuentras, en donde tú, quizá, eres la única mujer y estás rodeada de hombres, lo que sucede es una cosa muy particular, que es esa falta, digamos, de diversidad, ¿no?

54:58

Cuando estás abordando un proyecto, la forma de pensar que tenemos cada uno viene influida por cómo somos, cómo hablamos, cómo nos hemos relacionado, nuestro bagaje cultural, estudios, etcétera. Entonces, se han dado casos, en tecnología, precisamente, por esa alta tasa masculina, donde se ha llegado a diseñar… Yo recuerdo el ejemplo de un «smartwatch», hace años, donde la correa era muy ancha y, entonces, resulta que no lo compraba el público femenino y no sabían por qué, y andaban dándole vueltas y demás, y decían: «Hay un problema de diseño». Y en cuanto se lo enseñaron a la primera mujer que había en la empresa, les dijo: «Es que la correa es muy ancha. Nunca una mujer se va a comprar un reloj así». Desde ese caso más obvio, que tiene que ver con esa interfaz de los productos, a otros más graves, como el que no estemos igual de bien reconocidas en un reconocimiento facial, en un algoritmo, que se nos asocie, según qué palabras, por sesgos que haya en los históricos, en los datos históricos, donde quizá la mujer ha estado pues menos expuesta al trabajo, ha estado también menos estudiada en medicina. Todo eso hace que tengamos unos conjuntos de datos que, si ahora, de repente, les metemos inteligencia artificial, los patrones que saquemos de ahí… Puede ser que la sintomatología que yo tenga de una enfermedad sea, en realidad, la de un hombre, y yo tengo una sintomatología distinta, ¿no?

56:28

O, por ejemplo, en el caso de, digamos, de todos estos sistemas de dispositivos y demás, pues puede ser que no se me reconozca igual, que no se me reconozca bien mi voz por ser una voz femenina, porque es más aguda. Y entonces, en un sistema, si pensamos en un coche autónomo, resulta que igual no se me reconoce igual de bien que la voz de un hombre y me estoy poniendo en peligro. Entonces, estamos observando situaciones donde esto ya sí que llega un momento que tiene que estudiarse desde dentro. No podemos esperar a lanzar ese producto sin haber hecho un estudio, una evaluación de sesgos y una evaluación de diversidad de los datos y, luego, de las conclusiones que saca la inteligencia artificial para, sobre todo, en aquellos entornos donde vayamos a exponerlos a personas.

57:15
Carlota. Hola, Nerea. Soy Carlota. Soy estudiante de un grado que se llama Ciencia, Tecnología y Humanidades, y en la universidad podemos encontrar a profesores que están de dos posturas ante la inteligencia artificial. En primer lugar, que te animan a usar este tipo de herramientas y, por otro lado, que se niegan a que uses este tipo de tecnologías y lo ven como una especie de amenaza en la educación. ¿Cuál es tu perspectiva ante esto?

57:39
Nerea Luis. A ver, yo siempre creo que, en casi todos los casos, voy a estar a favor del uso de la inteligencia artificial. Es verdad que cuando te dedicas a la inteligencia artificial y has visto sus virtudes y sus defectos, puedes también relativizar el impacto al que estas herramientas nos pueden exponer, sobre todo, porque las has visto fallar, has visto dónde no funcionan bien. Yo creo que es bueno que, en la educación, se empiecen a utilizar este tipo de herramientas, ya no por estar más a favor o en contra, sino porque es que va a ser algo que os vais a encontrar en vuestro entorno laboral. Nadie pensaría a día de hoy en hacer una contabilidad a mano o nadie pensaría hoy en ir a la biblioteca a buscar algún tipo de referencia, cuando tienes internet. Entonces, para mí, la inteligencia artificial es, de nuevo, otro movimiento, otra disrupción en ese sentido, en que nos va a ayudar, sobre todo, no tanto ya a encontrar información, sino a, directamente, digerirla y prepararnos pues esos tipos de borradores que es verdad que podríamos, así, también hacer los deberes de clase, ¿no? Entonces, creo que la educación ahí sí que irá, poco a poco, integrando este tipo de sistemas. Es posible que no tenga sentido integrarlo en todo el espacio educativo, pero creo que sí que es interesante que, de alguna forma, se utilice esta herramienta como para decir: «Oye, aquí tienes como un punto de partida. Te dejo utilizar este tipo de herramientas generativas», estoy hablando de las herramientas generativas, «para que me hagas un resumen, digamos, de un tema equis», puede ser un libro, puede ser un tema que quieres debatir, lo que sea, y la inteligencia artificial te va a dar un borrador.

59:17

Pueden ser tres párrafos, pueden ser cuatro, le has podido pedir que lo haga en inglés, lo que sea. ¿Qué pasa? Que, a partir de ahí, es donde empieza tu labor, porque quizá no te ha gustado las referencias que te ha dado, quizá has notado que se ha equivocado en algo o quizá a ti, como estudiante, te toca contrastarlo con qué pone en internet. Entonces, ese trabajo se va a parecer mucho más al que vas a hacer en tu futuro, en tu puesto de trabajo dentro de unos años. Va a llegar un momento en el que, como decía anteriormente, la colaboración entre máquina y humano va a ser algo superhabitual, se va a convertir en clics, clics, clics, y tratar de iterar, iterar, iterar esa conversación. Con lo cual, cuanto antes, también, os expongáis a estas herramientas y veáis cuáles son sus puntos fuertes y débiles, mejor, ¿no? Y luego creo que también tiene una parte muy buena a la hora de hacer un poco de ese tutor personalizado. Y si no lo habéis utilizado de esta forma, os lo recomiendo, porque igual que, por ejemplo, yo estoy contestando a vuestras preguntas, yo también puedo utilizar la inteligencia artificial para que me dé sugerencias sobre cómo contestar a estas preguntas. «Oye, ¿cómo utilizarías este concepto, que es muy técnico, y lo llevarías a una audiencia que no sabe de este tema?». «Oye, ¿qué preguntas me podrían hacer en un examen que versa sobre esta tarea?». «¿Me prepararías un tipo test y me dices cuáles son las respuestas correctas?». Es decir, que ahí hay también una forma de interactuar como tutor, donde creo que la inteligencia artificial sí que va a tener un papel bastante protagonista, sobre todo en el momento en el que ya el estudiante quizá no está en clase, ya está más en casa y ya tiene su forma de trabajar, estudiar, lo que sea.

01:00:56
Charo. Hola, Nerea. Soy Charo. Muchísimas gracias por la conversación, porque ha estado superinteresante y no quería dejar pasar el momento para agradecértelo. Mi pregunta es la siguiente. Tú has hablado del «hype» que hay descontrolado con todo el bum de la inteligencia artificial generativa, pero es verdad que la gente se divide entre dos modelos, entre los que están fascinados con las respuestas que te da el ChatGPT y los que están horripilados y muertos de miedo. ¿Cuál sería la postura que tendríamos que tener delante ahora mismo de estos sistemas? ¿Qué podemos esperar?

01:01:29
Nerea Luis. De la inteligencia artificial generativa, podemos esperar grandes cosas y grandes avances. Es verdad que yo defiendo mucho el punto medio, que es donde dicen que está la virtud. Entonces, tenemos que ser optimistas respecto a estos avances y a cómo se han popularizado. Yo creo que eso es muy bonito, sobre todo para para mí, que me he dedicado a esto pues ahora llevo, más o menos, unos diez años, dedicada a la inteligencia artificial. Claro, el haber podido abrir tanta conversación con personas de tantas industrias… Es que no os imagináis. O sea, ha sido un año de hablar con periodistas, pero hablar con educadores, hablar con personas de industria farmacéutica, salud, logística… No sé, es que incluso humanistas, si pensamos en estudios de lenguas muertas… Bueno, un montón de cosas. Entonces, hay un punto ahí con la inteligencia artificial, que es el: ¿qué va a pasar a futuro, o a presente casi, si pensamos en los próximos cinco años? Sí que es verdad que yo creo que bajará un poco el «hype». Quiero decir, hay un momento, que es esa fascinación por todas estas herramientas nuevas, luego ya, como que las vamos integrando y ya, de repente, se nos olvidó casi en el momento en el que surgieron. Si pensamos… Eso ha pasado mucho con el teléfono móvil, por ejemplo. Nunca nos habríamos imaginado que el «smartphone» iba a ser también nuestra forma de guardar nuestra información más privada, como puede ser la cuenta del banco o como puede ser el comunicarnos con la gente más cercana a través de chat, o, directamente, buscar información a través de internet, que casi no utilizamos el teléfono ni siquiera para para llamar, para hacer llamadas.

01:03:01

Con la inteligencia artificial creo que va a pasar un poco igual, en el sentido de que empezaremos a encontrar verdaderamente aquellos sectores donde tienen una aplicación muy fuerte y sí que veremos, por ejemplo, tendencias alrededor de cómo interactuamos con nuestros dispositivos, y yo creo que ese sí que es un tema que a mí me fascina bastante, el pensar que, igual en unos años, los teclados, tal y como los conocemos, igual que se han integrado en las pantallas de nuestros móviles, que ya no tenemos teclados físicos, es que, igual, ni siquiera necesitamos para muchas cosas el teclado del ordenador, ¿no? Y todo viene porque, de repente, hemos sido capaces de romper la forma en la que interactuamos con los sistemas digitales, con lo cual, la voz puede ser que sea nuestro siguiente instrumento de cara a hablar con estos sistemas, entendernos y que vayan iterando de nuevo en esas tareas que queremos llevar a cabo. Creo que ese va a ser un punto muy interesante y que hará también que muchas más personas empiecen a trabajar también dentro de la inteligencia artificial con otros «backgrounds», digamos, con otro nivel, también, profesional. Y luego, creo que la burbuja quizá también baje un poquito por la perspectiva regulatoria, porque estamos viviendo un momento en el que la inteligencia artificial, claro, sacar un producto en internet, el sacar nuevos avances, parece que llegan superrápido, pero también, en la aplicación, en lo que es la adopción de esos sistemas dentro de las empresas, en los entornos de salud, entornos como la justicia, por ejemplo, vamos a ver cómo se van a regular aún más todos estos mecanismos de auditoría, de evaluación, de sesgos, por ejemplo, control de sesgos, control del dato…

01:04:42

Con lo cual, también hará que, digamos, empecemos a ponerle un poquito ese cinturón de seguridad o ese airbag a la inteligencia artificial, y también reposará, seguramente, ese tipo de avances, ¿no? Lo que sí que es verdad que no sabemos es la velocidad con la que va a suceder todo esto. Y aquí sí que hay un gran interrogante, porque venimos de dos, tres años, de avances muy locos y muy continuados de inteligencia artificial. Estábamos hablando en 2020 y yo me acuerdo del lanzamiento de GPT-3, que fue el padre de ChatGPT, y, a día de hoy, estamos hablando de generación de vídeo con Sora, que es uno de los últimos algoritmos que ha salido. Entonces, claro, llega un momento en el que dices: «¿Cuál es el uso que le voy a dar a esto, más allá del nivel regulatorio?». No lo sé. Creo que la velocidad con la que vayamos, digamos, incorporando estos sistemas en nuestro día a día, también nos dará la dirección. Pero ningún experto, creo, que ahora mismo, en inteligencia artificial o cercano a la misma va a ser capaz de decirte el momento temporal, porque nos ha pasado tan por encima, ahora mismo, estos tres años de avances y avances y avances, que necesitamos un poco asentar todo, dejar también… deslumbrarlos por el uso que le da el público y, ahí, pues quizá encontraremos nuevas colaboraciones o nuevas formas de pensar alrededor de la inteligencia artificial. Y, por último, sí que me gustaría también incidir en que seguimos, aun así, seguimos lejos de ser capaces de razonar con estas máquinas al nivel que lo hacemos nosotros.

01:06:21

Hemos hablado ya, a través de las distintas preguntas, de esto, pero sí que es verdad que la inteligencia artificial, la generativa, que es la que estamos viendo también que ha tenido un mayor éxito o mayor aceptación por parte del público, todavía son sistemas que no funcionan bien cuando tienen que hacer un razonamiento en el largo plazo, cuando tienen que hacer una toma de decisiones, digamos, en base a unos parámetros muy concretos de una situación que se pueda dar, pues si pensamos en un auto judicial, por ejemplo, si pensamos en cómo funciona una empresa. Con lo cual, ahí todavía falta mucho recorrido alrededor de nuevos avances que se irán publicando, sin duda, que aporten más capas, en este caso lógicas, a esta inteligencia artificial que, realmente, nació para generar contenido, para generar esos datos artificiales. Y ahí sí, en el momento en el que ya se empiece a conseguir eso, quizá empecemos a vislumbrar algún tipo de camino hacia esa inteligencia artificial general, si queremos realmente llegar a ella, que esa es otra de las preguntas abiertas con las que me gustaría cerrar, si, de repente, nos plantaremos en algún momento, como ya hay muchos movimientos científicos que dicen: «Oye, ¿realmente necesitamos llegar hasta ese supercerebro o basta, realmente, con el conocimiento que tenemos a día de hoy o en un futuro próximo de la inteligencia artificial? Así que eso es todo. Espero que os haya gustado toda esta explicación. Y nada, pues seguid. Espero que sigáis, sobre todo, pues muy fascinados por la inteligencia artificial y al día de todos los avances, que no son pocos. Gracias.