¿Puede la inteligencia artificial expresar emociones?
Nerea Luis
¿Puede la inteligencia artificial expresar emociones?
Nerea Luis
Doctora en IA
Creando oportunidades
Mitos y verdades del futuro de la inteligencia artificial
Nerea Luis Doctora en IA
Nerea Luis
Los comienzos de Nerea Luis en el área de la informática tienen que ver con sus recuerdos de infancia, cuando construía ordenadores de cartón con su hermana y era fiel seguidora de la serie de manga 'Sailor Moon', donde la guerrera Sailor Mercury salvaba el mundo con una pequeña computadora. El anime, la llegada de Internet y la creación de su propia página web en la época del instituto guiaron sus pasos hacia la Ingeniería Informática. Doctora en Inteligencia Artificial y Máster en Ciencia y Tecnología Informática, sus áreas de especialización van desde la IA a la robótica y realidad virtual, ámbitos en los que ha desarrollado su carrera profesional en los últimos años, en proyectos relacionado con Procesamiento del Lenguaje Natural y Visión Artificial. Su labor divulgadora, que ha desempeñado en programas de radio, televisión y conferencias, ha sido reconocida por Google, Casa Real o Forbes. En 2013 cofundó el evento gratuito de ciencia y tecnología T3chFest y desde 2017 ha formado parte de la Fundación COTEC y la iniciativa Ciencia en el Parlamento como experta en nuevas tecnologías y género. La doctora Luis es profesora en varias universidades, forma parte del equipo de Asesoramiento, Divulgación y Consultoría en Inteligencia Artificial de la Universidad Carlos III de Madrid y recientemente se ha unido al consejo asesor de Inteligencia Artificial de Ashoka.
Transcripción
Entonces, como me gustaba mucho dibujar y, cada vez, aprender mejor a hacer todo este tema, dibujar manga y tal, de repente, llegó internet. Y esto, pues no sé, tendría como unos 11 o 12 años, una cosa así. Recuerdo abrir internet, ver el buscador de Google, ahora es una cosa muy común, y tú, ahí, podías meter palabras. Entonces, imaginaos, la Nerea de ese momento lo primero que hizo fue poner «Sailor Moon» en el buscador y empezaron a salir un montón de cosas. Y esas cosas eran información que, en ese momento, yo no había conseguido encontrar de otra forma. Lo que pasa es que muchas también venían en inglés, ¿no? Quizá, ahora nos hemos acostumbrado a interactuar con los sistemas en nuestro propio lenguaje, pero es verdad que, en ese momento, había mucha información en inglés. Y, entonces, eso es lo que me hizo empezar un poco a indagar por qué la gente compartía información en internet, por qué, de repente, veías páginas web y estaba todo el contenido ahí gratuito. Yo, así, no tenía que ir al quiosco, comprar una revista… Entonces, bueno, pues empecé a indagar y para mí fue casi como un juego. Empecé a hacer mi primera página web, mi primera página web sobre «Sailor Moon», como no podía ser de otra manera, y empecé a compartir, bueno, pues las pocas cosas, realmente, que sabía. Lo que pasa es que aprendí una cosa mucho más interesante, que fue aprender a programar, sin darme cuenta, a través de lo que ahora conocemos como tutoriales. En su día eran «blogs» en internet. Pues conseguí, de alguna forma, estudiar: «Oye, ¿qué es esto del ‘HTML’? ¿Qué es esto de las capas que pone sobre las webs y demás?».
Y, entonces, ser capaz de publicarlo y que la gente lo leyese. De ahí, llega otra fase muy importante que es cuando le pones nombres a las cosas, y para eso está el instituto. Y, en el instituto, ya en los últimos años se notaba que esto de la informática a mí se me daba bien y, pues obviamente, ahí ya me dijeron: «Oye, esto es una carrera, lo puedes estudiar, te puedes dedicar a ello. Se llama Ingeniería Informática, más allá de otros ejemplos que puedas conocer». Y entonces, ahí fue cuando ya me decidí. Tenía bastante claro que quería dedicarme a la informática. Lo que no sabía era a qué parte de la informática, porque, quizá, la informática la asociemos a los ordenadores, pero, de repente, pues te encuentras asignaturas de todo tipo, ¿no?, del «hardware», que es la parte que tocamos, del «software», de internet, ahora mismo, también, aplicaciones móviles. Yo entré en la universidad en 2009 y recuerdo ese momento que era un poco esponja de todo lo que estaba pasando por allí, hasta que, pues un día, llegó a mis oídos esto de la inteligencia artificial. Teníamos una asignatura que se llamaba Inteligencia Artificial y, en ese momento, pues el profesor nos contaba que tenía que ver con una parte de la computación de la informática, tal y como lo conocemos, que intentaba mezclarnos datos, intentaba mezclar también la capacidad de las de las máquinas para tratar de hacerlas inteligentes. Y, claro, eso, obviamente, suena muy futurista, suena también muy atractivo para alguien que le gustaba la robótica, por ejemplo, o le llamaban la atención estos animes tan futuristas, esta animación japonesa.
Y entonces, decidí que, oye, que igual tenía que darle una oportunidad a ese campo. Obviamente, existían muchos otros: videojuegos, desarrollo puro y duro de webs, etcétera. Pero, en ese momento, como que algo hizo «clic» en mí con la inteligencia artificial. Claro, ¿qué pasa? Que, en ese momento, realmente si pensamos que era pues 2010, 2011, existía la inteligencia artificial, porque es un área que lleva ya muchos años en desarrollo, pero, quizá, no se la conocía tan popularmente como ahora, con ejemplos tan visuales. En este momento, cuando yo estoy aprendiendo todo esto que tiene que ver con la inteligencia artificial y a formarme, lo que decidí fue hacer un doctorado que me ayudase a especializar. Ya una vez terminé la carrera, decidí dedicarme al mundo de la investigación y ahí estuve, más o menos unos cinco años, donde intenté conectar, digamos, la parte más teórica de la inteligencia artificial, que, por cierto, tiene mucho que ver con el razonamiento, tiene mucho que ver con la planificación, con cómo pensamos, pero también tenía que ver con la aplicación. Y, entonces, empecé un poco a hilar esos dos mundos de la parte teórica menos visual, con la parte, digamos, de robótica, pues más física. Y sí que es verdad que, en toda la etapa del doctorado, pude conocer a muchísima gente, muchísimos investigadores, que te ayudan un poco a sentar esas bases, pero a mí me faltaba una parte que tenía que ver con la comunicación, y también creo que es una de las cosas por las que hoy también se me conoce en internet, y tiene que ver con cómo acercas la inteligencia artificial, ese concepto tan etéreo, a personas, a personas como vosotras y vosotros. Y yo también me he dedicado, sobre todo en estos últimos siete, ocho años, a la propia divulgación del campo de la inteligencia artificial. Cofundé un evento que se llama Tech Fest, también, en la Universidad Carlos III, y después ya me fui al mundo de la empresa, y ahí sí que ya tienes esa capacidad de trabajar con una inteligencia artificial un poquito más aplicada.
“La IA nace con la intención de conseguir un supercerebro capaz de adaptarse y aprender en cualquier situación”
Entonces, retomando un poco el concepto de inteligencia artificial, si pensamos en qué significa, que, más o menos, ya lo he adelantado, y si pensamos también en el momento en el que vivimos, ha pasado algo. Sabemos que la inteligencia artificial está con nosotros. Pero, claro, si pensamos en la propia definición, la inteligencia artificial, cuando la definimos, tiene que ver con esos procesos, os decía, el cómo pensamos, el cómo razonamos. Al final, son cosas que nos hacen muy humanos. Si pensáis en qué nos diferencia de los animales, enseguida, seguramente, pensamos en la inteligencia, en la forma de pensar. No es casual, ¿no? No es casual tampoco que queramos intentar hacerlo con máquinas. Y, realmente, así nace el campo de la inteligencia artificial, y nace con esa ansia de conseguir lo que llamamos la «inteligencia artificial general», ese superrobot o ese supercerebro que es capaz de adaptarse a cualquier situación, incluso aprender de situaciones que no conoce, ¿vale?, que es algo parecido también a lo que hacemos nosotros cuando vamos cogiendo experiencia. Pero ¿qué pasa? Que, a día de hoy, todavía, cuando trabajamos en inteligencia artificial, ya sea investigación o en el mundo, digamos, de la aplicación, en el mundo de la empresa, de las organizaciones, al final, lo que buscamos es una «inteligencia artificial específica», es decir, aquella que, utilizando datos que, por sí solos, realmente no valen nada, si los empieza a conectar, ¿vale?, se convierten en información. Y, si los mantengo a lo largo del tiempo, empiezo a estudiar patrones y hago que se conviertan en conocimiento. Empiezo a ver, oye, cómo la gente se comporta de forma similar ante ciertas situaciones o cómo, de repente, pues una analítica comparada con miles de personas empieza a arrojar algún tipo de patrón. Eso es la inteligencia artificial del día a día, y a todo eso lo llamamos inteligencia artificial específica. Por último, claro, ¿qué es lo que ha sucedido en estos últimos años? Que, de repente, hemos dicho: «Ostras, si ya sabemos convertir los datos en conocimiento, ¿por qué no vamos a aprender a generar nuevos?». Si ya empezamos a trabajar también con imágenes, si empezamos a trabajar con texto, vamos a intentar, de alguna forma, generar datos nuevos, con los mismos algoritmos o con similares. Y, entonces, ahora estamos viviendo una nueva etapa, quizá, dentro de la inteligencia artificial, a la que llamamos «inteligencia artificial generativa», y es la que nos ha traído a que hoy estemos viviendo pues todo este «hype» descontrolado, y tan bonito a la vez, de que todo el mundo quiera hablar y quiera escuchar sobre inteligencia artificial.
Se consideraba que, en el momento en el que una máquina fuese capaz de confundir al humano que está al otro lado haciéndose pasar por un verdadero humano, se consideraba que, entonces, la máquina era superinteligente. ¿Qué pasa con esto a día de hoy? Que la forma en la que nos comunicamos, el propio lenguaje, las propias sensaciones que tenemos, a veces, de incertidumbre, del momento de lo desconocido, nos hacen pensar que todavía estamos muy lejos de ese escenario «Terminator», vamos a llamarlo, de esa superinteligencia. ¿Por qué? Por cosas que son muy obvias, pero que, a veces, ni siquiera nos damos cuenta. A la máquina tenemos que enseñarle a hablar, tenemos que enseñarle, como decía, a planificar. Pero, por ejemplo, tenemos que enseñarle también a coger cosas. Si tuvieses un Terminator delante de ti, querrías que anduviese bien, que anduviese natural, que se moviese de forma ágil, y si piensas, por ejemplo, en la cantidad de decisiones que toma tu cerebro, si yo, por ejemplo, te lanzase… Imagínate que te lanzo una pelota, ¿no? El simple hecho de cómo coges la pelota, de cómo estimas cuánto va a pesar, de si te va a hacer daño o no te va a hacer daño, de si se te va a caer, es algo que los humanos lo hacemos tan rápido que eso, por ejemplo, para una máquina, si pensamos en la cantidad de objetos a los que te puedes exponer, la cantidad de personas con las que te puedes chocar y generar ahí algún tipo de conflicto, son situaciones que cuesta mucho exponerlas a la propia gestión del dato. Entonces, hasta que no trabajemos todas esas capas, por eso hablamos mucho de razonamiento, de planificación, hasta que no trabajemos todo ese intermedio que está ahí, desde la IA específica hasta llegar a esa inteligencia artificial general, va a ser muy difícil que nos veamos todavía expuestos a una situación de ese estilo. Lo que sí que estamos aprendiendo últimamente es a trabajar, sobre todo, con diferentes tipos de datos que hagan a los sistemas un poquito más flexibles, y a eso lo estamos llamando «multimodalidad». Pero, por resumir, nos podemos estar tranquilos. Todavía estamos lejos de ese escenario «Terminator».
Y, realmente, lo único que hacía esa foquita, porque, en ese momento, obviamente, los sistemas conversacionales no estaban tan desarrollados como ahora, pues era, bueno, el expresar cierto cariño a través de gesticular, pero gesticular muy poco. O sea, os podéis imaginar cómo es un… Imaginaos una foca animada, ¿no? Pues eso, si le ponemos formato de peluche, os podéis hacer una idea, más o menos, tenía como este tamaño, y el vínculo que se estrechó con esas personas fue exagerado, porque es que, de repente, claro, era como que tenían una especie de mascota. O sea, no era un vínculo como el del niño, que era de igual a igual, sino que era una especie de tener una mascota, y muchas veces tenía que ver con que ese tipo de animales no se puede tener en residencias por todo el tema higiénico, digamos, de acompañamiento, etcétera. Entonces, ahí, por ejemplo, la robótica social sí que ha ido desarrollándose de manera muy positiva. Y hay otro ejemplo que me gustaría compartir porque, además, tiene que ver con nosotros, con nuestro país, que es un… Marsi Bionics, no sé si lo conocéis, es una empresa que nace también de la universidad y su CEO, su presidenta, es Elena García Armada, y fue una de las pioneras en utilizar una cosa que llamamos exoesqueletos. No sé si os imagináis a Iron Man, pero una cosa parecida. Entonces, por ejemplo, esos esqueletos sirven para añadírselos al niño y, entonces, que esa persona que tiene, en este caso es un niño, problemas de movilidad, de repente, pueda hacer una rehabilitación un poco más fuerte, se pueda llegar a levantar y, en ese sentido, le cambie la vida.
Entonces, sí que estamos viendo una tendencia bastante fuerte de cómo la inteligencia artificial también está complementando esa fase, digamos, de la robótica. ¿Qué es otra cosa también muy buena que se ha visto en la inteligencia artificial? Que podemos utilizar la capacidad de trabajar con voces sintéticas para personas que tienen dificultades a la hora de hablar. O, por ejemplo, si pensamos en internet, toda la capa de accesibilidad, digamos, podemos trabajarla también con inteligencia artificial, generando descripciones automáticas, generando, sobre todo, contenido accesible para personas con discapacidad. Entonces, se empieza a abrir una amalgama de oportunidades que va, ya os digo, desde lo más aplicado hasta la parte más de investigación, como puede ser la última referencia, que querría compartir, sería AlphaFold, que fue un descubrimiento que hizo la empresa DeepMind, donde lo que pretendían era estudiar con inteligencia artificial cantidades ingentes de información sobre proteínas de nuestro cuerpo para intentar predecir cómo se desarrollaban, llegar a predecir cómo se desarrollan ciertas patologías. Al, digamos, al desarrollar, o sea, al estudiar cómo se desarrollan esas patologías en nuestro cuerpo, también podemos ayudar a predecir en qué momento suceden. Y eso se hace mediante ese estudio, lo que llaman el «pliegue de proteínas». Este trabajo, por ejemplo, ha hecho que se abra la mayor base de datos de proteínas, tanto reales como generadas de forma artificial, digamos, y que se esté trabajando ahora mismo en «deep learning» y biomedicina, bioquímica, en todo… en mogollón de sitios, quiero decir, de grupos de investigación.
Hay otra área, también en la salud, que tiene que ver con la salud mental, y ahí, la inteligencia artificial también estamos viendo cómo empieza a ayudarnos, sobre todo, a detectar algunos comportamientos que podemos observar, ya sea a través de conversaciones, por ejemplo, que estamos teniendo en redes sociales o, por ejemplo, con pacientes, en el caso de que estemos interactuando con ellos. Puede ser también en consulta, pero, generalmente, la inteligencia artificial sí que está tratando de cubrir ese espectro de atención, sobre todo, a través de internet. Y hay un proyecto muy interesante, que hizo también una investigadora española, por ejemplo, alrededor de la prevención del suicidio, de cómo estudiando grupos, digamos de comportamiento en redes sociales, grupos que tenían tendencias a hablar de estos temas, de suicidios, de anorexia, de, digamos, diferentes enfermedades mentales o temas de salud mental. Pues cómo, mediante ese tipo de algoritmos, cómo, mediante el estudio de los textos, de las expresiones que utilizaban, de los «hashtags», se puede ayudar, por ejemplo, a prevenir, pues algún tipo de consecuencia que se pueda llegar a dar, ¿no? Entonces, es un área, quizá, menos explorada, pero donde también, seguramente, veamos grandes avances utilizando la inteligencia artificial, eso sí, siempre, en este caso, protegiendo y anonimizando la fuente de origen. Todos estos sistemas y todos estos trabajos que se tratan tienen también un componente, digamos, de certificación, de poner en marcha, que no son tan rápidos, digamos, de funcionar como podría ser el algoritmo de películas de Netflix. Al final, lleva un proceso regulatorio mucho más extenso.
Y ahí sí que la inteligencia artificial está haciendo sus pinitos. Pero todo lo que tiene que ver con la validación de la información es algo que, a día de hoy, se escapa incluso de la propia inteligencia artificial. Nos puede ayudar, eso sí, a trazar, cómo se han difundido «fake news» en internet. Esto se ha hecho, sobre todo, con la red social Twitter o ahora llamada X, donde se ha visto cómo se puede utilizar, incluso para estudiar, la inteligencia artificial, los grupos que diseminan, en este caso, «fake news» a lo largo de internet, cómo se mueven, cómo se comportan. Ahí sí que es verdad que la inteligencia artificial nos aporta el poder extraer patrones ante una volumetría que no deja de crecer. Pero, a la hora de pararlas, es, al final, una cosa de cada uno, de cómo reaccionamos ante la información, cómo la verificamos. Sí que estamos viendo también nuevos mecanismos en internet que tratan de validar la fuente, la autoría. Quizá, algún día se cruce, incluso, con tecnología «blockchain» o con un tipo de firma electrónica donde puedas, de alguna forma, decir quién eres. Esto se ha planteado incluso en la generación de vídeo, pero siguen siendo tecnologías muy emergentes. Y, por otro lado, tenemos también poca regulación al respecto. Entonces, veremos cómo evoluciona, pero, a día de hoy, salvo que sabemos que nos ven y nos personalizan esas temáticas y esas cosas que queremos leer, no podemos aportar todavía más allá.
Por otro lado, también hay muchas veces que si no se ha hecho bien esa posproducción, que eso se hace con herramientas de edición digital, no se hace con inteligencia artificial, lo que podemos ver son como pequeñas imperfecciones o cambios que se pueden dar en el fondo, junto a la persona, sobre todo si nos movemos de perfil, se puede perder un poco de definición también, e incluso en los reflejos de las gafas, que esto ha sido muy sonado, los reflejos de las gafas, la forma en la que entrelazamos los dedos, de repente, puede ser que tengas algún plano en el que pierdas algún dedo o salga algún dedo de más. Entonces, eso son ventajas, quiero decir, también a la hora de diagnosticarlo y saber si nos estamos enfrentando a un «deepfake». Pero veremos en un futuro también cómo evoluciona este tema, porque es verdad que, sobre todo a nivel regulatorio, va a dar mucho que hablar, sin duda.
Pero sí que es verdad que creo que hay una diferencia en cuanto a cómo nosotros percibimos esa creatividad, ese proceso, quizá, como lo consideramos más artesano más nuestro, más de cada uno, y en cómo percibimos la de la inteligencia artificial. Entonces, creo que son dos formas de hacer creatividad diferentes. Hay una parte que está más centrada, obviamente, en datos, que es la de la IA, y hay una parte más inspiracional nuestra, que es a la que llamamos arte, ¿no? ¿Qué es lo que pasa? Que creo que, no dentro de mucho, dejaremos de hablar de arte hecho por humanos o por inteligencia artificial. Creo que vamos a tender más a que el propio humano se aproveche de las características y de las plataformas que ofrece la inteligencia artificial para acelerar la parte del boceto, por ejemplo, y que, luego, pues podamos aportar ese toque nuestro en una fase de edición posterior y que, realmente, sea una obra que has hecho de forma colaborativa. Será algo, creo, que veremos no dentro de mucho.
Que sí que había gente que decía que se podía como meter un chip de ese estilo en la piel y, entonces, como pagar con tu muñeca. Pero, para mí, sigue siendo un área que miro con mucho respeto. Y de nuevo, un poco refiriéndome al momento en el que hemos hablado sobre las emociones, también me pregunto si es necesario, si realmente queremos llegar a ese momento. La inteligencia artificial quizá podría ayudar en cómo dotamos de información a ese tipo de chip. Sí que es verdad que, en el área de la salud, por ejemplo, se han hecho algunos estudios y se ha llegado a trabajar con algunas frecuencias que, por ejemplo, para pacientes de Parkinson, que, al final, tienen problemas, sobre todo, de vibración. Es un problema de sistema nervioso. Lo que intentan hacer es implantarle un pequeño chip donde estamos emitiendo la señal contraria a la vibración que hacen, o a esa misión, a esa señal que emite su cuerpo de forma constante. Con lo cual, pasamos… Si estudiáis cómo son las ondas, pasamos de estar haciendo así a hacer la señal contraria y nos quedamos en algo plano. Y, de repente, un paciente que no es capaz, igual, de coger una cuchara, los vemos emocionados porque, realmente, les estás cambiando su forma de vivir y, sobre todo, de desarrollarse de forma común. De nuevo, este tipo de sistemas quizás tome un tiempo más largo que veamos su funcionamiento y que se popularicen, precisamente, por ese sistema regulatorio. Porque también nos preguntamos: «Oye, ¿cómo de seguros son estos estudios y estos primeros análisis que se hacen con pacientes reales?».
Y ahí también entra un tema, sobre todo, bueno, regulatorio y, quizá, también inspiracional, ¿no?, en el que se empieza a hablar de neuroderechos, de si llegamos más allá de la era de internet y de la privacidad y de quiénes somos, y si pensamos en que vamos a necesitar tener algún tipo de protección, por ejemplo. Si pensamos a nivel biométrico, si pensamos a nivel de nosotros, de cómo somos cada uno, de nuestra huella, digamos única, que somos como humanos, ahí sí que se está hablando un montón de, oye, si tenemos que, de alguna forma, proteger al individuo. Y, sin duda, creo que es un tema que le va a interesar a mucho neurocientífico que, a día de hoy, está, igual, solo estudiando el cerebro, las emociones y demás y, seguramente, empiecen a converger esos temas de datos, inteligencia artificial y neuroderechos.
Se está hablando mucho de cómo el reconocimiento videomédico también, con la nueva ley de Inteligencia Artificial, va a estar prohibido en espacios públicos, salvo que sea realmente necesario, si podemos pensar en entornos de búsqueda de menores, alguna investigación policial e, incluso, se habla también de entornos de guerra. Entonces, no es algo que vayamos a ver de forma muy popularizada en Europa, pero sí que, como os digo, es una tecnología que existe a día de hoy y que se puede utilizar y es segura, siempre que se haga en el dispositivo. Hay otro ejemplo que genera también mucha controversia y que se ha escuchado en los medios, que es una iniciativa, un proyecto, que lo que quiere es escanear tu iris. Entonces, imaginaros. Si, ya de por sí, os estoy diciendo que vuestras caras son únicas, si yo me quedo con la información de vuestro iris, que, por cierto, es una de las cosas que menos cambia en vuestro cuerpo, porque vuestra cara, más o menos, con los años, salvo ya cuando somos más adultos, pues ya empieza a dejar de cambiar. Pero el iris, por ejemplo, es una de las cosas que menos cambia y que más información contiene, también, de una persona, por lo visto, a nivel, también, genético y demás. Entonces, el escaneo del iris, por ejemplo, podría ser un mecanismo tal y como se está haciendo ahora mismo, que es seguro la forma de hacerlo, pero no la forma de almacenarlo. Hay mucha duda y mucho debate respecto a dónde se va a utilizar esa información, o, más bien, qué pasaría si, de repente, alguien ataca ese sistema que tiene almacenada toda esa información biométrica de tu iris.
¿Por qué? Porque tu iris no lo puedes cambiar. No es como una contraseña. No es como, quizá, tu cara o tu huella, donde se podría estudiar, quizá, meter algún tipo de modificación. Pero hacerte una operación de iris no creo que sea lo más fácil, a lo que nos queramos someter. Entonces, cuidado con eso. No es un tema de ahora, es decir, mi mensaje es que no es un problema de ahora. El riesgo es a futuro, porque, igual, tu iris dentro de diez años sigue siendo muy parecido y, entonces, podrían impersonarte, podrían hacerte algún tipo de ataque, no sé, malicioso, ¿no? Hay un documental muy interesante, creo que estaba en Netflix, que se llama «Sesgo codificado». Y, entonces, ahí lo que se plantea es otro tipo de dilema que también tiene que ver con ese reconocimiento facial, que es cuando yo hago un reconocimiento facial a nivel técnico, yo tengo que ser capaz de identificar cualquier tipo de cara. ¿Vale? Eso significa que soy capaz de reconocer a un niño, soy capaz de reconocer a un adulto, pero también soy capaz de reconocer diferentes etnias, por ejemplo. Si reconozco la piel blanca, que es lo que hacen la mayoría de sistemas productivos a día de hoy, pues, de repente, todos formáis parte del sistema. Pero no hace mucho, sobre todo alrededor de 2016, 2017, se empezó a ver, gracias a estudios hechos por diversas, sobre todo, investigadoras en inteligencia artificial, una de ellas es Buolamwini, Joy Buolamwini, estudió cómo ella misma, que era negra, se sentía muy fuera de este tipo de sistemas de reconocimiento biométrico facial porque, directamente, su cara no la detectaban los sistemas.
Con lo cual, también tenemos ahí un área de estudio donde tenemos que ponernos, nunca mejor dicho, en la piel del otro. Tenemos que intentar entender la diversidad de ejemplos a la que nos estamos exponiendo, sobre todo, si nos dedicamos a esa parte más técnica, como a la que me dedico yo, de construcción y diseño de algoritmos, pero también en cómo se van a sentir esas personas, porque, aunque estemos ahora debatiendo si es seguro o no es seguro, el no sentirte identificado, el no sentirte parte de un sistema, significa que estás obviando a parte de la población, que tiene el mismo derecho a desarrollarse dentro de un sistema de inteligencia artificial o fuera de él. Lo que se vio, sobre todo, en este tipo de sistemas, era que, según íbamos trabajando con diferentes etnias y también cuando cambiaba el género, por ejemplo, de hombre a mujer, también se percibía cómo el sistema iba bajando esa precisión en el reconocimiento. Y, de hecho, hay una imagen, un vídeo, dentro de ese documental, donde ella misma, en su tesis doctoral, se construye una máscara blanca que encaja con su cara, y en el momento en el que se la pone, hay muchísimos algoritmos de inteligencia artificial que, de repente, la identifican, a pesar de que están viendo una máscara, pero es una máscara con forma humana. Para que veáis hasta dónde llega. Otro ejemplo también muy parecido, similar, no necesariamente es un tema de inteligencia artificial, tiene que ver también con sensórica, es el cómo reconocemos la palma de la mano.
Y ahí también hemos visto casos donde, en dispensadores de jabón, por ejemplo, a una persona negra, de repente, no le detecta la mano el sensor. Es decir, que estamos hablando de que también hay un área de estudio, dentro de la inteligencia artificial, y, sobre todo, que toca mucho la perspectiva más social, y ahí se están metiendo también muchos perfiles humanistas y de ciencias sociales a estudiarlo, que es la inclusión, el cómo medir la inclusión de este tipo de sistemas y, sin duda, creo que va a ser uno de los grandes avances, sobre todo, para que la inteligencia artificial sea socialmente aceptada.
Alrededor de esto, yo sí que soy de las que defiendo que me resulta muy difícil pensar en una suplencia total, digamos, en un reemplazo total de la inteligencia artificial respecto a puestos de trabajo. Quizá, también, porque veo la parte en la que la inteligencia artificial no funciona bien y estoy muy expuesta a eso en mi día a día. Estoy viendo cómo la inteligencia artificial se confunde, cómo, a veces, no entiende bien la terminología de ciertas palabras, cierto contexto. Entonces, me resulta muy difícil que sea capaz de desenvolverse en cualquier tipo de profesión. Si pensamos, por ejemplo, en resumir, hacer actas, traducir, se han visto ejemplos de este estilo donde sí que parece que estos sistemas generativos empiezan a despuntar. Pero, de nuevo, creo que no tendríamos, digamos, la calidad que necesitamos si solo utilizásemos inteligencia artificial. Y luego está el trato humano. Al final, todo el mundo espera que, ante una situación, tengas algún tipo de atención humana que te ayude a cómo desenvolverte en, sobre todo, situaciones que no conoces o de atención al público. Con lo cual, creo que va a ser más seguro y más realista hablar de colaboración. Y algo que ahora distinguimos mucho si lo ha hecho un humano o una máquina, pues es que no va a ser tan raro, dentro de unos años, el decir: «Lo he hecho», y ya está. Dará igual que lo hayas hecho parcialmente con inteligencia artificial o con una herramienta que tenga un par de funcionalidades que utilizan inteligencia artificial. Me gusta pensar más en eso.
Y hay una frase, por ejemplo, de Sam Altman, del CEO de OpenAI, que es una de las empresas ahora mismo punteras en inteligencia artificial, que dice que «la inteligencia artificial es buena automatizando tareas, no trabajos». Hay escenarios, de todas formas, donde nos tenemos que preguntar también si no estamos exponiendo demasiado a los humanos, por peligrosidad que pueda tener esa tarea o ese tipo de trabajo. Y ahí sí que estamos viendo grandes avances en inteligencia artificial, sobre todo, si pensamos, por ejemplo, en la revisión de torres eléctricas. Hay una tarea que es: «Oye, yo tengo que ir a revisar el estado de una instalación, igual tengo que subirme a una torre de alta tensión». Entonces, ese tipo de tareas, pues ahora, mediante la combinación de drones y de inteligencia artificial para analizar las imágenes que graba ese dron, pues, de repente, son mucho más seguras de hacer y no estás exponiendo a esa persona a hacer ese tipo de tareas donde puede sufrir un accidente. Se está llamando, hay un área que se está denominando «seguridad activa», que tiene mucho que ver también con cómo, en sitios de difícil acceso, como puede ser en catástrofes, en incendios, podemos utilizar, de nuevo, esta combinación de drones, por imágenes aéreas, o vehículos, incluso, autónomos, que puedan tener un acceso un poquito más sencillo a determinados terrenos, sin involucrar que un humano esté conduciendo ese vehículo, pues nos ayuden a entender qué está sucediendo y, de nuevo, entre la máquina y el humano, pues intentar ver cuál es la forma más sencilla de actuar, pero siempre protegiendo nuestras vidas.
Yo creo que esa parte es, bueno, una muy buena noticia, una parte muy positiva del desarrollo de la inteligencia artificial. Y hay otro que se está viendo también, que es cómo, en instalaciones, si pensamos en industria, por ejemplo, donde hay mucha cadena de producción, donde hay mucha maquinaria, ahí se ha incorporado mucha sensórica, donde ya, por ejemplo, si hay un humano, la máquina no se activa, por ejemplo, una cortadora o máquinas así. Pero también se está intentando cruzar información que mezcla la imagen, o lo que está sucediendo en ese momento en la fábrica, en la refinería, en la industria que sea, con los procesos de revisión. Si somos capaces de combinar imagen con texto, si yo sé cuándo se han revisado esas máquinas, qué tipo de incidentes se han dado, en qué momentos del año, si había personal interno o externo. Son situaciones que nos pueden ayudar a reducir el número de incidentes humanos que se pueden dar, sobre todo, como os digo, en entornos donde hay personas más expuestas a maquinaria y pueden sufrir un accidente físico.
Es verdad que las que estábamos éramos muy buenas, esto también lo tengo que decir, porque también, cuando vas quedándote, y te intentas poner al nivel de lo que ves alrededor, de nuevo, hay una parte de ti que se pone en alerta y lo que intenta es encajar y ponerse un poco a hablar como habla el resto. Y muchas veces no son conversaciones a las que tú estés habituada como mujer. Entonces, te expones más, trabajas más, estudias más. Y lo que sí que me gustaría también es lanzar un mensaje de ánimo. Quiero decir, yo estoy aquí. Quizá, soy un ejemplo de, bueno, muchas otras que igual no tienen este altavoz que yo tengo hoy, pero sí que creo que es importante que, cada vez más, entendamos que da igual realmente que seamos mujeres en lo que sea. Somos profesionales. Entonces, que también creo que es muy importante que se hable, aunque sea, de si faltan referentes femeninos, que se hable también del trabajo que hacemos, porque realmente es lo que va a cambiar y lo que va a hacer que, por ejemplo, personas como tú u otras chicas y mujeres que veo en la audiencia pues se decidan a estudiar este tipo de carreras o le den una oportunidad laboral porque quieren hacer un giro a nivel profesional, que también se puede, y, sobre todo, que normalicemos que no hay profesiones ni de hombres ni de mujeres. Si pensamos, por ejemplo, a la hora de trabajar con inteligencia artificial y con este tipo de equipos que te encuentras, en donde tú, quizá, eres la única mujer y estás rodeada de hombres, lo que sucede es una cosa muy particular, que es esa falta, digamos, de diversidad, ¿no?
Cuando estás abordando un proyecto, la forma de pensar que tenemos cada uno viene influida por cómo somos, cómo hablamos, cómo nos hemos relacionado, nuestro bagaje cultural, estudios, etcétera. Entonces, se han dado casos, en tecnología, precisamente, por esa alta tasa masculina, donde se ha llegado a diseñar… Yo recuerdo el ejemplo de un «smartwatch», hace años, donde la correa era muy ancha y, entonces, resulta que no lo compraba el público femenino y no sabían por qué, y andaban dándole vueltas y demás, y decían: «Hay un problema de diseño». Y en cuanto se lo enseñaron a la primera mujer que había en la empresa, les dijo: «Es que la correa es muy ancha. Nunca una mujer se va a comprar un reloj así». Desde ese caso más obvio, que tiene que ver con esa interfaz de los productos, a otros más graves, como el que no estemos igual de bien reconocidas en un reconocimiento facial, en un algoritmo, que se nos asocie, según qué palabras, por sesgos que haya en los históricos, en los datos históricos, donde quizá la mujer ha estado pues menos expuesta al trabajo, ha estado también menos estudiada en medicina. Todo eso hace que tengamos unos conjuntos de datos que, si ahora, de repente, les metemos inteligencia artificial, los patrones que saquemos de ahí… Puede ser que la sintomatología que yo tenga de una enfermedad sea, en realidad, la de un hombre, y yo tengo una sintomatología distinta, ¿no?
O, por ejemplo, en el caso de, digamos, de todos estos sistemas de dispositivos y demás, pues puede ser que no se me reconozca igual, que no se me reconozca bien mi voz por ser una voz femenina, porque es más aguda. Y entonces, en un sistema, si pensamos en un coche autónomo, resulta que igual no se me reconoce igual de bien que la voz de un hombre y me estoy poniendo en peligro. Entonces, estamos observando situaciones donde esto ya sí que llega un momento que tiene que estudiarse desde dentro. No podemos esperar a lanzar ese producto sin haber hecho un estudio, una evaluación de sesgos y una evaluación de diversidad de los datos y, luego, de las conclusiones que saca la inteligencia artificial para, sobre todo, en aquellos entornos donde vayamos a exponerlos a personas.
Pueden ser tres párrafos, pueden ser cuatro, le has podido pedir que lo haga en inglés, lo que sea. ¿Qué pasa? Que, a partir de ahí, es donde empieza tu labor, porque quizá no te ha gustado las referencias que te ha dado, quizá has notado que se ha equivocado en algo o quizá a ti, como estudiante, te toca contrastarlo con qué pone en internet. Entonces, ese trabajo se va a parecer mucho más al que vas a hacer en tu futuro, en tu puesto de trabajo dentro de unos años. Va a llegar un momento en el que, como decía anteriormente, la colaboración entre máquina y humano va a ser algo superhabitual, se va a convertir en clics, clics, clics, y tratar de iterar, iterar, iterar esa conversación. Con lo cual, cuanto antes, también, os expongáis a estas herramientas y veáis cuáles son sus puntos fuertes y débiles, mejor, ¿no? Y luego creo que también tiene una parte muy buena a la hora de hacer un poco de ese tutor personalizado. Y si no lo habéis utilizado de esta forma, os lo recomiendo, porque igual que, por ejemplo, yo estoy contestando a vuestras preguntas, yo también puedo utilizar la inteligencia artificial para que me dé sugerencias sobre cómo contestar a estas preguntas. «Oye, ¿cómo utilizarías este concepto, que es muy técnico, y lo llevarías a una audiencia que no sabe de este tema?». «Oye, ¿qué preguntas me podrían hacer en un examen que versa sobre esta tarea?». «¿Me prepararías un tipo test y me dices cuáles son las respuestas correctas?». Es decir, que ahí hay también una forma de interactuar como tutor, donde creo que la inteligencia artificial sí que va a tener un papel bastante protagonista, sobre todo en el momento en el que ya el estudiante quizá no está en clase, ya está más en casa y ya tiene su forma de trabajar, estudiar, lo que sea.
Con la inteligencia artificial creo que va a pasar un poco igual, en el sentido de que empezaremos a encontrar verdaderamente aquellos sectores donde tienen una aplicación muy fuerte y sí que veremos, por ejemplo, tendencias alrededor de cómo interactuamos con nuestros dispositivos, y yo creo que ese sí que es un tema que a mí me fascina bastante, el pensar que, igual en unos años, los teclados, tal y como los conocemos, igual que se han integrado en las pantallas de nuestros móviles, que ya no tenemos teclados físicos, es que, igual, ni siquiera necesitamos para muchas cosas el teclado del ordenador, ¿no? Y todo viene porque, de repente, hemos sido capaces de romper la forma en la que interactuamos con los sistemas digitales, con lo cual, la voz puede ser que sea nuestro siguiente instrumento de cara a hablar con estos sistemas, entendernos y que vayan iterando de nuevo en esas tareas que queremos llevar a cabo. Creo que ese va a ser un punto muy interesante y que hará también que muchas más personas empiecen a trabajar también dentro de la inteligencia artificial con otros «backgrounds», digamos, con otro nivel, también, profesional. Y luego, creo que la burbuja quizá también baje un poquito por la perspectiva regulatoria, porque estamos viviendo un momento en el que la inteligencia artificial, claro, sacar un producto en internet, el sacar nuevos avances, parece que llegan superrápido, pero también, en la aplicación, en lo que es la adopción de esos sistemas dentro de las empresas, en los entornos de salud, entornos como la justicia, por ejemplo, vamos a ver cómo se van a regular aún más todos estos mecanismos de auditoría, de evaluación, de sesgos, por ejemplo, control de sesgos, control del dato…
Con lo cual, también hará que, digamos, empecemos a ponerle un poquito ese cinturón de seguridad o ese airbag a la inteligencia artificial, y también reposará, seguramente, ese tipo de avances, ¿no? Lo que sí que es verdad que no sabemos es la velocidad con la que va a suceder todo esto. Y aquí sí que hay un gran interrogante, porque venimos de dos, tres años, de avances muy locos y muy continuados de inteligencia artificial. Estábamos hablando en 2020 y yo me acuerdo del lanzamiento de GPT-3, que fue el padre de ChatGPT, y, a día de hoy, estamos hablando de generación de vídeo con Sora, que es uno de los últimos algoritmos que ha salido. Entonces, claro, llega un momento en el que dices: «¿Cuál es el uso que le voy a dar a esto, más allá del nivel regulatorio?». No lo sé. Creo que la velocidad con la que vayamos, digamos, incorporando estos sistemas en nuestro día a día, también nos dará la dirección. Pero ningún experto, creo, que ahora mismo, en inteligencia artificial o cercano a la misma va a ser capaz de decirte el momento temporal, porque nos ha pasado tan por encima, ahora mismo, estos tres años de avances y avances y avances, que necesitamos un poco asentar todo, dejar también… deslumbrarlos por el uso que le da el público y, ahí, pues quizá encontraremos nuevas colaboraciones o nuevas formas de pensar alrededor de la inteligencia artificial. Y, por último, sí que me gustaría también incidir en que seguimos, aun así, seguimos lejos de ser capaces de razonar con estas máquinas al nivel que lo hacemos nosotros.
Hemos hablado ya, a través de las distintas preguntas, de esto, pero sí que es verdad que la inteligencia artificial, la generativa, que es la que estamos viendo también que ha tenido un mayor éxito o mayor aceptación por parte del público, todavía son sistemas que no funcionan bien cuando tienen que hacer un razonamiento en el largo plazo, cuando tienen que hacer una toma de decisiones, digamos, en base a unos parámetros muy concretos de una situación que se pueda dar, pues si pensamos en un auto judicial, por ejemplo, si pensamos en cómo funciona una empresa. Con lo cual, ahí todavía falta mucho recorrido alrededor de nuevos avances que se irán publicando, sin duda, que aporten más capas, en este caso lógicas, a esta inteligencia artificial que, realmente, nació para generar contenido, para generar esos datos artificiales. Y ahí sí, en el momento en el que ya se empiece a conseguir eso, quizá empecemos a vislumbrar algún tipo de camino hacia esa inteligencia artificial general, si queremos realmente llegar a ella, que esa es otra de las preguntas abiertas con las que me gustaría cerrar, si, de repente, nos plantaremos en algún momento, como ya hay muchos movimientos científicos que dicen: «Oye, ¿realmente necesitamos llegar hasta ese supercerebro o basta, realmente, con el conocimiento que tenemos a día de hoy o en un futuro próximo de la inteligencia artificial? Así que eso es todo. Espero que os haya gustado toda esta explicación. Y nada, pues seguid. Espero que sigáis, sobre todo, pues muy fascinados por la inteligencia artificial y al día de todos los avances, que no son pocos. Gracias.