COMPARTIR
Generated with Avocode. Path Generated with Avocode. Rectangle Copy Rectangle Icon : Pause Rectangle Rectangle Copy

“La inteligencia artificial necesita perfiles de humanidades”

Cristina Aranda

“La inteligencia artificial necesita perfiles de humanidades”

Cristina Aranda

Filóloga experta en IA


Creando oportunidades

Más vídeos sobre

Cristina Aranda

¿Qué es la inteligencia artificial y cómo funciona? ¿Nos quitarán las máquinas el trabajo? ¿Qué papel jugará la ética en el futuro de la tecnología? ¿Cómo se puede aplicar la inteligencia artificial a la educación? ¿Por qué la inteligencia artificial necesita perfiles de humanidades? Todas estas preguntas, y muchas más, las responde Cristina Aranda, filóloga experta en inteligencia artificial. Según afirma: “La inteligencia artificial no te va a quitar el trabajo, pero sí lo hará una persona que entienda cómo funciona la inteligencia artificial”. Y añade: “La inteligencia artificial está en nuestro día a día, depende de nosotros cómo utilizarla de forma positiva en todos los ámbitos, como el de la educación”.

Cristina Aranda es doctora en Lingüística Teórica y Aplicada por la Universidad Autónoma de Madrid y el Instituto Universitario de Investigación Ortega y Gasset. Se licenció en Filología Hispánica en la Universidad Autónoma de Madrid. ¿Y qué hace una lingüista en el mundo de la tecnología más avanzada? Su trabajo se centra en el llamado “Procesamiento del lenguaje natural”, que se basa en hacer entender a las máquinas “nuestro maravilloso, complejo y bello sistema de comunicación: el lenguaje humano”, explica. También es cofundadora y líder de ‘MujeresTech’,​ una entidad sin ánimo de lucro que promueve la presencia de mujeres en el ámbito digital; y cofundadora de Big Onion, un equipo de solucionadores de tecnología disruptiva (Data, Inteligencia Artificial y Blockchain, entre otras). Es especialista en soluciones tecnológicas aplicadas de Lingüística, innovación y transformación cultural de empresas.


Transcripción

00:14
Cristina Aranda. Hola, soy Cristina Aranda. Soy cofundadora de MujeresTech, de Big Onion y de Spain AI Aragón, y soy, de formación, lingüista, doctora en Lingüística, filóloga y me dedico a la tecnología. Y diréis: «¿Y qué hace una chica como tú, una lingüista como tú, trabajando en un sector como este, como la tecnología?». Pues ahora lo vamos a ver. Así que, ¿quién quiere formularme alguna pregunta?

00:41
Héctor. Hola, Cristina. Tú, que eres un referente en el mundo de la tecnología, ¿cómo explicarías a alguien como mi madre, por ejemplo, que no tiene absolutamente ni idea, qué es la inteligencia artificial?

00:53
Cristina Aranda. Bueno, pues la inteligencia artificial consiste… Hay muchas definiciones, pero la mayoría coinciden en que es dotar de funciones cognitivas a una máquina, funciones cognitivas semejantes a las de las personas, como el cómputo matemático, la lógica lingüística, etc. Y para ello necesitamos datos. Los datos son la materia prima. Esto es como: ¿para una paella, qué se necesita? El arroz, ¿no? Pues para hacer inteligencia artificial necesitamos datos y, entonces, con esos datos ya entrenamos a la máquina para determinadas funciones, como robotizar un proceso. Imaginemos en la industria de los automóviles, para hacer toda la producción en cadena. O para predecir: predecir ya sea una rotura de un componente en una industria o predecir cuándo me van a consumir determinado producto. Automatizar un proceso, resumir cosas, resumir información y todo lo que eso conlleva. O, también, para hacer predicciones o personalizaciones. En todas estas plataformas de entretenimiento que nos van diciendo… Por cierto, si tenéis tiempo y conocimiento, determinadas plataformas os dan un millón de dólares si les mejoráis el algoritmo de recomendación. Ahí lo dejo. Entonces ya tenemos funcionalidades. ¿Pero qué tipos de inteligencias artificiales existen? Hay dos tipos. Según Russell y Norvig, que son dos referentes en la inteligencia artificial, hay una inteligencia artificial que es persona – máquina, que son sistemas que actúan y piensan como las personas, y máquina – máquina. Pensemos en un coche autónomo donde siete ordenadores a bordo se están comunicando. Se comparten información y toman decisiones. Entonces ya lo tenemos. Ahora bien, hemos dicho que hacen funciones, hacen tareas. Según la tarea que haga la inteligencia artificial, hablamos de diferentes tipos de inteligencia artificial. Está la inteligencia artificial estrecha, que solamente hace una tarea concreta.

“La inteligencia artificial necesita perfiles de humanidades”. Cristina Aranda, filóloga experta en Inteligencia Artificial
02:52

Oye, solamente juega la inteligencia artificial… La entrenamos para jugar al ajedrez. ¿Sabrá jugar al guiñote? No, sabe jugar solo al ajedrez. Si la hemos entrenado para leer o extraer la información de la factura, ¿sabrá luego cantarte una chirigota? No, porque la hemos entrenado solamente para extraer la información de una factura. Eso es la inteligencia artificial estrecha. La siguiente inteligencia artificial es la que se llama «inteligencia artificial general». Se procesa de forma multimodal. No sé si habéis visto la película «Her», donde un chaval se compra una inteligencia artificial multidispositivo y se acaba enamorando de esa inteligencia artificial. No voy a hacer «spoiler», pero es muy similar. Esa conversación es natural, espontánea, etc. Es igual. Y luego está lo que se llama la «superinteligencia», que es con lo que juegan las series, los titulares de prensa… «Los robots asesinos», ¿no? Pero yo siempre digo que aquí: «Tranquilicémonos todas y todos, porque nunca va a superar a la estupidez humana». O sea, eso es ilimitado. Eso es ilimitado. Entonces yo os pregunto: ¿en dónde creéis que está hoy en día la inteligencia artificial: estrecha, general o superinteligencia? Estamos entre la estrecha y general. Porque general, vemos estas soluciones… Como dice Yejin Choi en una maravillosa charla TEDx, estas inteligencias son increíblemente inteligentes pero asombrosamente tontas. Les falta muchísimo porque no llegan a nuestro nivel de cognición. Pensad el ser humano la capacidad asociativa que tiene, la capacidad de las dislocaciones semánticas, de captar la ironía, la metáfora… Sé que hay personas que… Pero la capacidad de ironía, semántica… Luego, el conocimiento del mundo.

04:49

Todo esto, que tenemos de forma tan brillante las personas y que lo hemos adquirido poco a poco, no lo tienen las máquinas a día de hoy.

05:00
Icnelli. Hola, ¿qué tal, Cristina? Soy Icnelli y me gustaría preguntarte: al inicio mencionaste que eres lingüista y, ahora que hablas un poco más acerca de la inteligencia artificial, me gustaría entender esa relación y, sobre todo, que nos dieras un ejemplo.

05:13
Cristina Aranda. Claro, y muchos ejemplos te voy a dar. Antes yo preguntaba en foros: «¿Quién de aquí usa la inteligencia artificial?». E igual dos personas levantaban la manita. Ahora, con determinadas herramientas que la gente ha empezado de forma directa a utilizar, pues ya la gente es más consciente. La inteligencia artificial está presente de forma silenciosa en nuestros días: en las aplicaciones con las que ligamos, en nuestra geolocalización, en nuestras redes sociales, en los «emails»… En múltiples aplicaciones tenemos inteligencia artificial. Y dentro de la inteligencia artificial hay diferentes áreas. Está el área de «machine learning», «deepeep learning», que es cómo entrenamos a las máquinas, que son técnicas muy de tecnología, ¿no? Luego está lo que se llama «procesamiento del lenguaje natural», que es un área… Todos habremos utilizado un traductor automático, el audio de voz… Desde aquí, doy el agradecimiento a la persona que inventó el «2x», la aceleración del audio, porque incumplen una máxima de conversación que se llama la «máxima de cantidad». Esas personas que graban y graban y… Maravilloso el «2x». Desde aquí, mi agradecimiento. Y muchas aplicaciones. Tenemos el procesamiento del lenguaje natural y también está lo que se llama «computer vision». Me diréis: «¿Y también tiene relación con el lenguaje?». Pues sí, porque, si estamos trabajando en la automatización de un proceso… Pensemos que yo me quiero dar de alta en la cuenta de un banco y me piden DNI, nota de poder si soy una empresa, una PYME. Notas de poder, mi constitución, etc. Entonces yo hago fotos y extrae la máquina la información. Eso sería «vision». Luego también tenemos «robotics», la robotización, que me diréis: «Bueno, si son robots de estos…». Vale, pero si son robots que asisten a personas con discapacidad o a personas que… O los asistentes virtuales, ¿no?

07:06

Y el área del procesamiento del lenguaje natural es en la que entrenamos a las máquinas para que entiendan nuestro increíble, complejo, asombroso, sistema de comunicación que es el lenguaje natural. Ahora bien, ¿dónde está el reto? Porque las máquinas hablan en «techiano», hablan en ceros y unos. ¿Tú puedes querer en ceros y unos? ¿Puedes decir «Yo te quiero un cero coma…»? Ahí empiezan muchas cosas. ¿Por qué? Porque los datos son datos no estructurados de naturaleza lingüística. Entonces, si nosotros tenemos que trabajar con eso… Hemos dicho que las máquinas hablan en ceros y unos, y solamente hablan en un formato que se llama «texto». Las máquinas no… Aunque yo les hable, hay un «software» detrás, unos programas que pasan la voz a texto. Antes hemos dicho la visión. Si trabajo con un JPG, con imágenes, voy a utilizar unas herramientas que lo pasan a texto, con lo cual la riqueza de la comunicación no verbal… Imagínate que yo te hago… Eso está en texto, eso la máquina no lo interpreta, es ceros y unos. O la voz, el tono de voz, que es muy relevante en la comunicación humana. Incluso el silencio, ¿no? Eso lo pasamos a ceros y unos y ahí ya estamos quitando un poquito, un poquito bastante, de información, pero lo tenemos que pasar a ceros y unos, que es estructurar la información. Entonces, se utilizan herramientas, redes neuronales, sistemas complejos, para vectorizar la información. ¿Qué hacíais vosotras y vosotros, cuando hacíais los exámenes de lengua, comentarios de texto, cuando os daban un texto? ¿Qué hacíais lo primero de todo?

08:55

Venga. Leerlo, ¿y luego qué hacíais? Una vez después de leerlo, ¿qué hacíais? Subrayar, extraer determinados elementos. Pues esto es lo que hacemos también. Es lo que se llaman «tokens». Seguimos un determinado proceso de entrenamiento a la máquina. El entrenamiento del lenguaje tiene que ser muy supervisado, muy supervisado. Que me podréis decir: «Pues yo todavía utilizo una herramienta generativa a la que le pongo palabricas…», un «prompt» que se llama, «…y me da». Sí, pero si tenemos que trabajar en determinados entornos… Pensad en farma, salud, o incluso videojuegos, donde tienen que pasar toda la información del videojuego y adscribirla a determinados países y no pueden meter la pata porque es un impacto muy económico y reputacional, tienen que traducirlo muy bien y tienen que supervisar que eso esté muy bien, el lenguaje, ¿no? Imaginaos en detección del fraude. Si estamos trabajando con detección de fraude, no me puedo equivocar, porque… Hay un término que se utiliza mucho en inteligencia artificial, que es «accuracy», que es el ratio, el porcentaje de acierto. Entonces, el porcentaje de acierto en el lenguaje hay que entrenarlo de forma supervisada. ¿Por qué? Porque lo que nos diferencia… En su maravilloso discurso, Nuria Oliver, en su acceso como académica de la Real Academia de la Ingeniería Española, que os recomiendo, que lo deberíais leer, y es «Inteligncia Artificial: Ficción, realidad y… sueños», ella expuso cuáles son las diferencias entre la inteligencia artificial e inteligencia humana. Bueno, pues estábamos varias lingüistas en la sala, nos miramos, nos agarramos y dijimos: «¡Las lingüistas y los lingüistas vamos a salvar a la humanidad!».

10:43

¿Por qué? Porque el primer punto que ella señalaba era la semántica y los sistemas de procesamiento del lenguaje natural. Luego también señalaba… ¿Os acordáis de las dubitativas, las desiderativas, las causativas? La capacidad de pronta asociación de un concepto con el conocimiento del mundo. Eso las máquinas no lo tienen. Las máquinas son muy tontas, son loros, son loritos. Extraen patrones, pero no tienen la capacidad, la genialidad, que tenemos los seres humanos, los hablantes, para rápidamente crear redes léxico-semánticas o adquirir, por ejemplo, las palabras nuevas. Entonces, la rama de la inteligencia artificial, o una de las ramas, que más potencial tiene, y que ya lo veíamos venir las lingüistas, es esta, la del procesamiento del lenguaje natural. ¿Y los lingüistas qué podemos hacer? Ayudar a las máquinas a entender nuestro sistema complejo. Porque ya os he dicho que, una vez que ya estructuramos estos datos, lo que haríamos es ya empezar a utilizar lo que se llaman «sistemas expertos». Un sistema experto puede ser una ontología. Una ontología es… Sé que lo sabéis, pero vamos a repasar, ¿eh? ¿Qué son las ontologías? Nosotros el mundo lo clasificamos de forma conceptual a través de conceptos. ¿Y dónde tenemos el glosario de las palabras? En el diccionario. Pues oye, ahí están las palabras alojadas, pero no hay relación entre unas y otras. Luego estarían las «tags», las etiquetas. No sé si habéis trabajado con determinados formatos… Es una forma de categorizar las cosas. No hay ninguna relación entre las palabras, pero sí que están categorizadas. Y el siguiente nivel ya serían los tesauros, donde ya tienen relación léxico-semántica esas palabras. Vale, pero esas relaciones son de sinonimia, antonimia…

12:41

Y el siguiente nivel ya serían esos «thesaurus» inteligentes que se llaman «ontologías». Y entonces en una ontología estaría un usuario que tiene determinados atributos y tiene determinadas funciones y que hace cosas, con lo cual la máquina va mucho más rápido en procesamiento. Ya lee el usuario, pero está viendo toda la red de capacidades que puede hacer ese usuario. Y ahí entrenamos a la máquina. El procesamiento del lenguaje natural sirve para esto, para desambiguar, que es el gran reto que tenemos. Porque, imaginaos, entre los humanos nos cuesta entendernos muchas veces… Imaginaos que la máquina entienda nuestro sistema tan complejo, que es el lenguaje.

13:24
Lola. Hola, Cristina. Soy Lola, profesora. En el ámbito educativo, institutos, colegios, hay ahora incertidumbre, agobio, sobre el uso de la inteligencia artificial. ¿Cuál es tu opinión sobre los pros, contras, oportunidades, de la inteligencia artificial en la educación?

13:44
Cristina Aranda. Bueno, en primer lugar, muchas gracias y enhorabuena. Se os valora poco al profesorado y, además, como decía María Moliner, la educación es la clave del progreso. Entonces, enhorabuena en primer lugar. Yo sé que genera mucha incertidumbre y mucha… “a ver la que se avecina”. Pero a mí me parece fascinante porque implica un período de reflexión, como cuando apareció la imprenta o cuando apareció internet. Y esta tecnología lo está cambiando todo y una de las áreas que más está impactando es la educación. El otro día me decía un profesor de universidad: «Me han amargado la vida». Igual ese sentimiento lo deberías corregir porque es que está aquí, es que se va a utilizar y se está utilizando. Entonces aquí la reflexión es que igual habría que cambiar nuestra forma de transmitir el conocimiento y también la forma de adquirir el conocimiento, porque hoy en día, sobre todo en secundaria, ¿dónde se va a la gente a adquirir el conocimiento? A redes sociales, a una determinada red social. Van ahí y se está adquiriendo ya el conocimiento desde ahí. ¿Por qué no utilizar esas herramientas para el propósito final, que es que alguien sepa, por ejemplo, de determinado movimiento literario? Cualquier cosa, determinada fórmula matemática, ¿no? El origen de… Muchas cosas. Cambiar la forma de hacer las cosas. Primero, conocer la herramienta, porque esta herramienta me permite muchas cosas. Esta herramienta me permite primero que el alumnado se estimule en conocer, porque pensemos que nuestro sistema educativo no ha cambiado casi nada. Seguimos… Ya Baltasar Gracián, mi paisano, en el siglo xvii en Huesca, en la universidad, impartía de la misma forma que se imparte ahora en muchos sitios: una persona vomita contenido, alguien recepciona ese contenido y luego yo lo vomito.

15:41

Igual no. Igual esta herramienta me permite ahora… Igual el contenido, el objeto de estudio, hay que adquirirlo de formas diferentes. Entonces, el profesorado tendrá que ir guiando, conduciendo, al alumnado en ese descubrimiento, generando esa ansia por conocer, y el alumnado tendrá que utilizar las herramientas que va a tener que utilizar el día de mañana en cualquier trabajo. Entonces, para mí aquí hay que… Siempre, en todo este momento, cuando implica que tengo que cambiar… Esto es como el momento de las crisálidas, el momento en que las orugas pasan a mariposas. Exige un esfuerzo, pero aquí el esfuerzo es más por parte de la comunidad educativa. El conocer estas herramientas. Estas herramientas me pueden dar un potencial maravilloso y tengo que saberlo integrar en mi día a día. Por ejemplo, puedo utilizar estas herramientas generativas de producción lingüística para generar «fakes», a ver si mis alumnos y alumnas detectan qué está hecho por una inteligencia artificial y qué no, porque es muy enlatado. El estilo es muy enlatado. O, por ejemplo: «Genérame esto y destaca lo que quieras, determinado…». «Introduce un “prompt”, mándale una instrucción a la maquinita y, ahora, en el texto que has extraído, señálame los sustantivos, los adjetivos…». Y tenemos millones de aplicaciones. Incluso para ayudar al propio profesorado a plantear la clase desde otro punto de vista y agilizar todo esto.

17:23
Nuria. Hola, Cristina, ¿qué tal estás? Mi nombre es Nuria y me encantaría conocer tu opinión acerca de la creatividad. Es decir, ¿la aparición de estos programas de inteligencia artificial crees que la potencian o pueden, por el contrario, frenarla?

17:37
Crsitina Aranda. Muchísimas gracias, Nuria, por la pregunta. Fascinante cuestión, porque además ahora todo el mundo está ahí diciendo: «¿Qué va a pasar? ¿Qué va a pasar?». Tranquilicémonos de nuevo, respiremos. Las máquinas no son tan creativas como nosotros, como los seres humanos. En primer lugar, estas tecnologías se nutren de lo ya creado. O sea, la creatividad… Yo siempre me imagino si la inteligencia artificial sería capaz de generar lo que hizo Cecilia en Borja con el «Ecce homo»… ¿Os acordáis? Yo creo que una inteligencia artificial sería incapaz de generar eso porque implica muchas cosas, ¿no? La creatividad. Primero, abordemos qué es la creatividad. Yo en mi tesis la abordé porque trabajé la tesis doctoral sobre cómo generamos nuevos nombres. Y hay… Pues, como siempre: hay muchas formas, muchas definiciones, de creatividad, pero todos distinguimos quién es una persona creativa de la que no. Y la creatividad, según Gardner, es dar con soluciones ingeniosas e innovadoras, algo no creado. Sí que te fundamentas en lo anterior. Y pensemos en nuestro día a día. En nuestro día a día resolvemos problemas a través del conocimiento del mundo, de nuestra propia experiencia como personas, con nuestra interacción con el entorno, nuestra interacción social y nuestro propio conocimiento. El conocimiento del mundo, pero nuestro propio conocimiento adquirido. Y muy importante: la sensibilidad, la emoción, que no la tienen las máquinas. Hemos hablado antes de ceros y unos, ¿no? ¿Cómo van a tener emoción? La empatía. Esa capacidad de que cuando oímos una música, por ejemplo, se te suba el vello de pavo y sientes… O lees un poema o cualquier cosa, ¿no?

“La inteligencia artificial necesita perfiles de humanidades”. Cristina Aranda, filóloga experta en Inteligencia Artificial
19:22

Es muy complejo que estas máquinas, que sí que están generando de forma audiovisual… Lo estamos viendo de diferentes formas generativas. O bien crea imágenes, audio, música, etc. Y nos puede parecer creativo, pero esto es como lo de las inteligencias artificiales, que nos puede sorprender en medida de la capacidad de la inteligencia del usuario. Si tú te crees… Claro, haces así y dices: «Hala…». Como cuando escribimos… Tú lo podías redactar perfectamente. Lo que pasa es que eres un ser vago o vaga y estás utilizando esta herramienta como el Rincón del Vago. Entre el Rincón del Vago… Y, vamos… Estas herramientas nos potencian. Quienes trabajan en este ámbito de la inteligencia artificial y la creatividad… Por ejemplo, Estado Latente, que trabajan codo con codo con Silicon Valley, ayudando a desarrollar y mejorar estas técnicas, siempre dicen que la creatividad es inherentemente humana. Ahora bien, estas son herramientas que me van a permitir trabajar de forma más eficiente. Una dupla, lo llaman «duplas creativas», pero no nos olvidemos de que con todas estas herramientas generativas tiene que trabajar la persona e introducir la instrucción. O sea que, en mi cerebro, en mi creatividad, yo he ideado un mundo mágico de color, de unicornios, como quieras, y he introducido ese «input», ese «prompt», para hacer que la máquina genere toda esa creatividad. Luego, ¿quién tiene la creatividad: la máquina o las personas?

21:00
Nuria. Las personas, cien por cien, apoyadas por las máquinas.

21:04
Cristina Aranda. Gracias, Nuria. Bueno, uno de los grandes retos que tiene la inteligencia artificial es la desinformación. Nos puede informar, pero también puede manipular nuestro propio sistema de creencias. Porque me diréis: «Bueno, Cristina, siempre ha existido la propaganda». Claro, muy bien. Pero ahora es que se afina mucho. Ahora la propaganda es tan sutil, permea tanto que yo no me doy cuenta y se genera una noticia donde saben… Y van precisamente a Cristina Aranda, que tiene cuarenta y seis años, aunque no lo aparenta, que es de Huesca y que le gusta esto, esto y esto, y opina esto, esto y esto. Entonces ya se genera la información hacia mí para permearlo. Esto lo hemos visto… No sé si os suena Cambridge Analytica y cómo compraron datos a Meta e impactaron en lo que hoy conocemos como «Brexit». ¿Sabéis cuál fue la palabra más buscada, la «query» más buscada después del Brexit en Gran Bretaña después de salir? «¿Qué es la Unión Europea?». O sea, guay. Estamos votando que no sin saber lo que es. Y así están. Y esto tiene mucho impacto, la desinformación. Podemos manipular a las personas, podemos manipular que un gobierno cambie, impactar en una democracia. Entonces, esta es una de las grandes cuestiones y grandes preocupaciones no solamente de la Comisión Europea, sino de muchos gobiernos. ¿Por qué? Porque no se controla toda la información que se produce y no todo el mundo tiene espíritu crítico. De aquí que sea tan importante que en las aulas y en todos los ámbitos y niveles educativos se empiece a desarrollar en profundidad el espíritu crítico, la filosofía, la reflexión.

22:53

El que yo diga: «Vale, yo he recibido esta información. ¿Pero de dónde viene la fuente? ¿Por qué me ha llegado así, tan rapidito y tan bien?». El cuestionarme que no toda la información es verdadera y también contrastar estas fuentes. Y es una misión que ya es netamente humana, que tenemos que supervisarlo con esta herramienta, que es simplemente la reflexión y el cuestionarse las cosas.

23:24
Lidia. Hola, Cristina, soy Lidia. Esta relación que nos estás describiendo máquina-persona, que es apasionante pero desde luego todavía da un poquito de vértigo, ¿cuáles crees que serán las habilidades humanas más importantes para aprovechar la inteligencia artificial?

23:41
Cristina Aranda. Pues me encanta esta pregunta, porque esto es lo fascinante que tiene esta tecnología, que no la tienen otras, como por ejemplo el «blockchain». Os sonará el «blockchain». O la cuántica, que es algo mucho más técnico. En cambio, como tú misma, en la propia pregunta, me decías: persona–máquina. Es que primero hay que entender muy bien a la persona, pero no solamente cómo hemos abordado en el lenguaje. Lo complejo que es el lenguaje y hacer que la máquina entienda todo, sino también en abordar la privacidad de esos datos con los que se entrena a las máquinas. Hemos hablado de las «fake news», la desinformación, cómo impacta. Muy importante: la ética. La ética, el uso. Porque la inteligencia artificial no es mala. Es buena o mala depende del uso. Esto es como un tenedor. Un tenedor es muy útil, pero te lo puedo clavar en el ojo, ¿no? Pues esto de la inteligencia artificial es lo mismo, necesitamos ética. Pero claro, la ética no te viene así… «Venga, sed buenos». Si vamos al equipo de desarrollo, no le decimos: «Venga, sed buenos, haced el bien». No, necesitamos un decálogo, pero no existen decálogos a la hora de entrenar a la máquina. De hecho, hay una herramienta del MIT, que se llama Moral Machine, donde se nos sitúa para entrenar un coche autónomo y se nos ponen varios escenarios en el caso de que el coche se quede sin frenos. Y tenemos que entrenar a la máquina en virtud de nuestro sistema de creencias. Entonces es muy complejo. Necesitamos ética. Claro, ¿a quién atropellas? ¿A la niña, al niño, a la persona embarazada? Luego hay empresas… Aquí, un inciso. Hay empresas de coches autónomos en que, si tú te has comprado el coche, tú eres la que te salvas. Haberte comprado otro coche. ¿No? Para algo has comprado el coche.

25:35

Muy importante incorporar esa ética, esa regulación, en las primeras fases del diseño y el diseño. Todos habremos utilizado alguna herramienta, no voy a decir el nombre, donde es tedioso utilizarlo, vuelves para atrás, al final tienes que dejar ese proceso de compra que es agónico… Y muchas más cosas. El diseño.Yy os podría mencionar muchas más cuestiones donde… La psicología. ¿Dónde va a apretar el botón o cómo va a usar…? O si vamos a utilizar… Fijaos, el tono de voz en un asistente virtual: ¿qué voy a utilizar, masculino o femenino, una voz femenina? «No, es que es de cuidados». Ya, pero ahí están los estereotipos. Y, si atiendes una urgencia en la carretera, ¿un hombre? ¿Las mujeres no sabemos cambiar las ruedas? ¿No? Ahí hay muchas… De hecho, hay un maravilloso libro sobre la personalidad de los asistentes virtuales. Muchas cuestiones, que aborda la inteligencia artificial y que necesitan perfiles de humanidades. Pero, claro, es que va muy rápido todo esto. Y ahí necesitamos que estos perfiles de humanidades seamos autodidactas, porque sabemos que en la formación reglada no tenemos esto. Es muy complejo que haya estas formaciones híbridas, tenemos las formaciones por silos. «Yo soy de Matemáticas. Yo, de Ingeniería. Yo, de Filología Clásica». ¿Y por qué no empezamos a generar esta convivencia en los planes de estudio? Pero como no hay convivencia, pues te va a tocar, como hice yo, descubrir paso a paso. Ir formándome. Y todos los perfiles de humanidades somos necesarios. François Chollet, que es un experto de Google que generó una librería que se llama Keras, que he hecho eso ha dado… La gente que sabe de esta tecnología sabe lo que es TensorFlow, que ha ayudado mucho a ayudar a las máquinas a entrenarse.

27:31

Bueno, pues él decía, fíjate, en un tuit de 2017: «Antes me preocupaba que la gente no supiera de matemáticas. Ahora, lo que realmente me preocupa es que la gente no sepa de humanidades». Y a la inversa, necesitamos esa convivencia de ambos conocimientos. Y aquí se requiere humildad. Se requiere humildad porque también hay que hackear estereotipos en cuanto al conocimiento. José Antonio Marina, en su maravilloso libro «La inteligencia fracasada» habla de esto. Que normalmente, por estereotipos, los más inteligentes… Ingeniería. «¡Hizo Ingeniería año a año!». Y la gente hace… «¡Hizo Filología año a año!». «Pues vale». Por eso es necesario no ser nadie más que nadie. La cooperación. De hecho, es un principio de la inteligencia artificial. La beneficencia. Hacer el bien. La de no maleficencia. De que ese uso no sea para cosas y casos que estamos viendo. Y el principio de la cooperación. Necesitamos cooperar diferentes perfiles y hacer equipos diversos.

28:38
Begoña. Hola, Cristina, soy Begoña. Un lujo escucharte, de verdad. Yo tengo una pregunta. Cuando pensamos en personas famosas relacionadas con la tecnología, siempre se nos vienen a la cabeza hombres. Steve Jobs, Bill Gates… ¿Tú podrías darnos el nombre de mujeres que hayan sido importantes para el avance de la tecnología?

28:59
Cristina Aranda. Pues la primera ingeniera informática.La primera ingeniera informática fue Ada Byron, Ada Lovelace. Ella, junto a Babbage, desarrolló una máquina. Y ella dijo: «Tranqui, que yo te voy a ayudar a comunicarnos con la máquina, a desarrollar el primer lenguaje de programación». El algoritmo, ella lo creó. De hecho, fíjate, esta señora a finales del siglo xix ya dijo que las máquinas iban a generar todas estas cosas que nos fascinan. Ella ya lo dijo: «Las máquinas van a generar música, van a generar imágenes…». Porque ella ya era una visionaria. Esto a través de la comunicación. Luego, los años cuarenta fue una época prolija, y encontramos a Hedy Lamarr, con el wifi. ¿Quién de aquí utiliza el wifi? Como dice un amigo mío: «Mientras haya wifi, hay esperanza». A los jóvenes les quitamos el wifi y hay un «digital drama», como lo titulo yo. Pues el wifi lo creó también una señora, Hedy Lamarr, que era actriz e ingeniera. Y, en colaboración con Antheil, que era un músico, a través de las partituras ella le expuso el problema de compartir esas ondas y dijo: «Ah, pues mira». Y entre los dos generaron este sistema de comunicación. Pero es que además lo generaron y regalaron la patente al gobierno de los Estados Unidos, que no les hizo ni caso y no se les reconoció. Y os recomiendo un maravilloso documental, «Bombshell», donde ella termina con un maravilloso monólogo que dice que la gente mediocre te va a decir, te va a cuestionar, pero tú hazlo de todas maneras. La gente te va a decir: «¿Pero eres capaz…?». Hazlo de todas maneras. Es maravilloso. Luego también el GPS. ¿El GPS lo utilizáis? ¿Qué haríamos hoy sin los Maps? Pues eso también.

30:55

Gladys West, una señora afroamericana. Ella genera el GPS. Y muchas, muchas… El eBook. Ángela Ruiz. De hecho, los premios nacionales de España de informática llevan su nombre. Ángela Ruiz, una maestra de León que creó una enciclopedia automática y la patentó gracias a su marido, porque en aquella época el marido tenía que autorizar que esa patente se hacía. Pero vayámonos a nada, a ayer. ¿A que nos suena supergaláctico, o supercomputacional, el reconocimiento de la córnea? Pues lo desarrolló Celia Sánchez, una catedrática de oftalmología, y lo desarrolló, lo patentó, ganó una patente y ganó un premio internacional de inventora. Y el año pasado la gran Elena García Armada, con su exoesqueleto, permite a niños en silla de ruedas, a niños y a niñas, que puedan andar y desarrollar su musculatura. Y podría seguir y seguir. El gran drama es que la historia está hecha por hombres blancos, judeocristianos, heterosexuales y sin discapacidad. Entonces, ¿qué pasa? Que nos encontramos en los libros de texto un ocho por ciento de mujeres solo. Fíjate, ninguna filósofa aparece aquí en el plan de estudios de España en secundaria, en segundo de bachillerato. En Wikipedia. Hay un once por ciento de mujeres. Quienes trabajan como editoras te dirán que es más difícil introducir los datos en un perfil de una mujer que es referente que en un jugador de tercera regional de fútbol. Es más dramático, te cuestionan más. Ya puede ser Nuria Oliver, Nerea Luis, Pilar Manchón, eminencias de la inteligencia artificial, que te van a cuestionar.

32:52

Y es dramático. Tenemos que hackear estos estereotipos y también dar el reconocimiento que merecen a estas mujeres.

33:05
Sara. Hola, Cris, mi nombre es Sara. Encantada y un placer escucharte. Tengo una pregunta que hacerte, que es: desde tu experiencia y como fundadora de Mujeres Tech, ¿cuáles son las principales barreras que se encuentra una mujer y cómo puede superarlas?

33:16
Cristina Aranda. Pues empezamos por la educación. Por la educación. De hecho, hay muchos estudios que dicen que a las niñas antes de cumplir seis años les preguntan: «¿Quién de aquí quiere ser presidenta del país?». Levantan la mano. Y a partir de los cinco o seis años ya hacen así, como diciendo: «No voy a molestar, no voy a dar la nota». Y esto también se ve con muchas cosas. Esto tiene que ver con los estímulos que recibimos. Hay un maravilloso documental de Chus Gutiérrez que se llama «Rol & Rol», donde se exponen los estímulos que recibimos, pero también cómo somos educadas. De hecho, hay un estudio muy curioso que es un bebé al que le ponen ropita rosa y entonces graban a personas interactuando con él. Y luego el mismo bebé, con ropita azul. ¿Cómo creéis que interacciona la gente cuando está con el bebé vestido de rosa? ¿Qué hace la gente? ¿Qué tonito de voz utilizan? En cambio, cuando entran e interactúan con el bebé de azul: «¡Hombre, campeón!». Esto tiene mucho que ver con muchas cosas que recibimos con los estímulos. Tenemos, como decimos en Mujeres Tech, que hackear estos estereotipos. A mí, cuando estoy hablando… «Es que esta niña es una mandona». Perdona, es una líder. O sea, es una líder porque a un chico no lo vas a llamar «mandón». Igual que a los chicos cuando lloran, cuando expresan esas emociones, no hay por qué hacerlos de menos. «Pareces una chica». No, al revés. «Llora, expresa. Expulsa esa ira, gestiona tu frustración». Para que luego, el día de mañana, sepan gestionar todo eso. Entonces empezamos ya por la educación, por esos primeros niveles. Yo cuando voy a mesas redondas y dicen: «¡Es que las mujeres…! ¡Es nuestra culpa, que nos lo tenemos que creer más!».

35:12

Perdona, tú no vas a un país donde hay hambruna, coges a un niño o a una niña y le dices: «Tienes que comer más». No, no, es que todo parte de la educación y de los estímulos y de lo que la sociedad espera de ti. ¿Qué cosas se espera que las mujeres hagamos? ¿Qué tareas? Cuidados, atención… ¿Y cómo tenemos que ser? Calladitas, educaditas. Y las mujeres que somos asertivas o que tenemos liderazgo siempre hemos oído: «Es que pareces un tío». O incluso cuando hemos asumido puestos de responsabilidad: «¿Pero tú serás capaz?». Perdona, yo voy a ser capaz de todo. O sea, ¿no? Y muchas más cosas que oímos y que, claro, van mermando. ¿Cómo yo me voy a presentar a liderar un equipo dentro de mi empresa si continuamente recibo estímulos? Entonces, primero hay que hackear esos estereotipos, hacer educación, sobre todo en este sentido, tanto a chicos como chicas. Y aquí hay una maravillosa canción que la hicieron dos colegios del Alto Pirineo, de Huesca, que no sé si la habéis escuchado, que es: «Fuerte, valiente, inteligente, no tienen masculino, no tienen femenino. Es cuestión de dos. Feliz, alegre, independiente. No tienen masculino, no tienen femenino. Es cuestión de dos». Empieza por la base, por la educación, y también por casa, por los valores que vemos. Luego dentro de las empresas. Hay algunos hombres que se piensan que les van a quitar ese centro de poder. O cuando hablamos de cuotas, por ejemplo: las mujeres que llegan muy alto en empresas han tenido que pasar una maratón X-Trial o como queráis llamarlo, han tenido que pasar muchas cosas y justificar continuamente qué están haciendo ahí. Entonces, hay que trabajar en ese sentido y hay que cumplir los planes de diversidad de forma real, de forma real, que no sea un feminismo «fake».

“La inteligencia artificial necesita perfiles de humanidades”. Cristina Aranda, filóloga experta en Inteligencia Artificial
37:10

No, hay que hay que cumplir esos planes y dar los permisos de paternidad y la misma igualdad de oportunidades. Y empezaría por, en la empresa, dar formación, que todo el mundo fuera consciente de eso. Yo cuando doy formación, que impartimos en Mujeres Tech formación en empresas, muchas veces se acercan y me dicen: «Jo, tía, no lo había visto así, me has tocado». Claro, incluso me acuerdo yo en Woman Tech, que es un evento referente en Huesca, al que vino Chus Gutiérrez a presentar Rol & Rol. Pues vino un periodista y me dijo: «Tía, me he quedado en shock, estoy aún… Porque, claro, nunca había visto de forma tan clara lo que pasáis las mujeres». Pero esto es cuestión de dos, como dice la canción. Necesitamos, por un lado, a las mujeres darle esa autoestima. El «cree en ti». Yo cuando le digo a mi sobrina: «Venga, ¿qué eres?». «Guapa». «No, tú eres lista». Lista. Vale. ¿Y a él? «Llora». Cuando ves a alguien: «Llora, llora, no pasa nada». Decía Rojas-Marcos que las mujeres vivimos más porque hablamos más. Entonces, claro, en esto hay que trabajar de forma igualitaria y, como dice la gran Rosa Luxemburgo, tenemos que construir entre todas y todos una sociedad donde seamos socialmente iguales, humanamente diferentes y totalmente libres.

38:45
Patricia. Hola, Cristina. Como usuaria de inteligencia artificial diariamente, hay algo que me preocupa y es que has comentado que la inteligencia artificial se alimenta de datos y lo que me preocupa es que estos datos pueden estar sesgados. Entonces, ¿nos podrías comentar un poco qué son los sesgos y cuáles crees que son los más comunes?

39:04
Cristina Aranda. Muchísimas gracias por la pregunta, porque es una cuestión que hay que abordar. Una vez que se habla de inteligencia artificial, es una de las cuestiones clave. Hemos dicho que los datos, como bien decías… A la máquina hay que entrenarla, ¿no? ¿Y qué pasa? Que muchas veces cogemos todo lo que hay en internet, que muchas veces es machista, homófobo, racista, etc., y lo peor, y cogemos esa información y la insertamos como «input», que se llama, a la máquina, y la máquina procesa esa información y hace un «output» y me da un resultado de esa información. Con lo cual, por ejemplo, ponemos nombres de trabajos en inglés que no tienen marca flexiva de género masculino y femenino, las ponemos en el traductor español… ¡Oh, sorpresa! Las mujeres no podemos ser ni juezas ni ingenieras. Limpiadoras, sí, y enfermeras, sí. Entonces dices: «Uh…». Pero, si nos vamos, por ejemplo, a herramientas, como una señora demostró hace poco, hace dos años: subió su propio currículum en masculino y en femenino a un portal de búsqueda de empleo. Juana y Juan, imaginaos. Lo mismo, ¿eh? ¿La información más relevante del currículum cuál es? Lo que se ha hecho y dónde se ha estudiado y el potencial que tienes, no quién eres. Esas variables de identidad. ¡Oh, sorpresa! ¿Qué resultado le dio? Pues, si eres mujer, te proponía y te propone puestos de trabajo menos remunerados y menos cualificados. Claro, dices tú: «Bueno, tenemos sesgos en los datos». La máquina no tiene ética. La máquina, si tú le introduces basura, saca basura. Si el dato viene limpio, viene analizado y con calidad del dato, te va a generar cosas limpias, de calidad. Vale, los datos ya tienen sesgos, pero pensemos en la ética, la regulación… No hay.

41:03

Es más fácil lanzar una inteligencia artificial al mercado que un juguete, por ejemplo. Según Daniel Kahneman, uno de los grandes premios Nobel de Economía, cuando tienes que tomar decisiones a la hora de, en este caso, entrenar a la máquina, vas a tomar esas decisiones en virtud de tu sistema de creencias, de tu intuición. Claro, pensemos que, si en esos equipos no hay personas de color, no hay personas negras, no hay personas asiáticas, no hay personas musulmanas, pues pasa lo que pasa. A GPT-3 lo denunciaron porque introducías un «input», un «prompt», que ponía: «Dos musulmanes entran…», «…en una iglesia y hacen de todo menos el bien». ¿Pasaría lo mismo si pusiéramos «Dos cristianas, dos personas cristianas…»? Y muchas soluciones. Joy Buolamwini, que es una activista de inteligencia artificial que denuncia… A ella le dieron una beca para hacer su doctorado en el MIT. ¿Cuál fue su sorpresa? Que llegó al reconocimiento facial y, como era negra, no la reconocía. Se puso una máscara blanca y ya la reconocía. Esto lo podéis ver en un documental maravilloso, que se llama «Coded Bias», sesgos codificados. Y os podría contar un montón de cosas. Claro, es que los equipos que desarrollan esa inteligencia artificial no son diversos, todos piensan lo mismo. Entonces, a la hora de programar no toman conciencia de la diversidad que hay en la sociedad. Entonces, ¿cómo se hackean esos sesgos? A la hora de desarrollar, en el momento inicial de desarrollo del producto, cuestionándote cosas: «Oye, ¿qué datos estoy empleando yo? ¿Están bien hackeados?». De hecho, hay soluciones de «open source», de código abierto, donde tú subes los datos y te dice si están sesgados.

43:00

«¿Por qué estás utilizando esta variable y no otra?». Y aquí llegamos a una cuestión muy importante que van a tener que trabajar las empresas, instituciones públicas, que utilizan algoritmos para tomar decisiones, que se llama XAI, «explainable artificial intelligence». O sea, tienes que explicar por qué, si estás utilizando un algoritmo para tomar decisiones que impactan en personas, ¿qué variables estás tomando? Porque bastaría, en este caso, por ejemplo, de los currículums, anonimizar las variables de identidad. «Algoritmo, no tengas en cuenta “mujer”… No lo tengas en cuenta». Y muchas soluciones que se podrían tener en esa etapa inicial de desarrollo de producto. Y aquí es necesaria otra vez la diversidad. Hay una herramienta que yo suelo recomendar, que es el Data Ethics Canvas, desarrollada por Tim Berners-Lee de Open Data Institute. El «model canvas» es un lienzo donde hay diferentes recuadros, donde diferentes perfiles intervienen en la creación del producto. Un cuadro, un cuadradito, sería «fuentes de datos», de dónde yo recojo los datos. ¿Qué tipo de datos? Datos relacionados con la identidad, datos de la geolocalización de las personas. ¿Dónde tienes alojados los datos? Privacidad. Ahí ya estarían las personas de Legal y empezaría a trabajar con personas de Regulación, con personas de Diseño, con personas de Marketing. ¿Qué pasa si la inteligencia artificial que yo he lanzado está sesgada? Luego puedo tener una crisis de reputación. Pues ya estarían esas personas. De forma cooperativa, estamos produciendo o intentando minimizar esos sesgos de la inteligencia artificial.

44:54
Jacobo. Hola, Cristina. ¿Qué tal? Soy Jacobo. Se habla mucho de cómo las herramientas basadas en inteligencia artificial pueden ayudarnos a solucionar algunos de los grandes desafíos actuales de la humanidad, como son el cambio climático o la erradicación de la pobreza. ¿En qué medida crees que esto es así, que esto es posible? ¿Y puedes darnos ejemplos de cómo esto se puede conseguir?

45:18
Cristina Aranda. Muchísimas gracias, Jacobo, por tu pregunta. Esto es un poco complejo, ¿porque qué ocurre? Estos sistemas de inteligencia artificial necesitan una computación, una serie de máquinas que procesen todo eso. Cuando pensamos en la nube, en nuestro móvil, pensamos que eso viene de la nada. Y eso son una serie de máquinas, granjas de máquinas, que consumen mucha energía. Eso para empezar. Con lo cual estamos hablando de cómo aplicar la inteligencia artificial. Y, de hecho, hay propios modelos de inteligencia artificial que consumen más energía que otros. Entonces, a la hora del diseño de estas inteligencias artificiales… Pero sí la aplicación al clima y a muchas soluciones. Por ejemplo, en los Objetivos de Desarrollo Sostenible tiene un alto impacto. Pensemos que todos estos objetivos de la ONU, por ejemplo, el cambio climático, la abolición de la pobreza o ayudar a minimizar la pobreza… Todo esto muchas veces es gestionado con datos o los datos nos pueden ayudar a gestionar tareas. Por ejemplo, se utiliza la inteligencia artificial en campos de refugiados para repartir de forma ecuánime los diferentes alimentos, que muchas veces ahí hay tretas, hay mafias internas. Ahí ayuda, por «computer vision», a ver dónde está el reparto equitativo. O en el cambio climático, por ejemplo. hay una plataforma de la ONU que se llama AI for Good, porque a todas estas herramientas de inteligencia artificial que tienen un impacto positivo en la sociedad, se las conoce como AI for Good, donde lanzan retos. La ONU lanza retos. Hay un reto maravilloso que me encanta de unas abejas, que son las responsables del ochenta por ciento de la polinización. Pero también la inteligencia artificial puede predecir, ayudar a predecir, una plaga en determinadas cosechas, lo que se llama SAT, sistema de alerta temprana.

47:15

Pueden detectar a través de la humedad, los dispositivos, los sensores, que es el internet de las cosas. Puede decirme: «Oye, mira, ten cuidado, que puede aparecer tal plaga». Y, respecto al cambio climático, le he preguntado a mi socio, Paul Van Branteghem, que él es físico y que sabe mucho. Porque el clima es el sistema más caótico y el generador, fuente de datos… o sea, el volumen de datos mayor… La gente se piensa que son las redes sociales. No, es el clima. «Las redes sociales». No, es el clima, es muy caótico. Claro, por eso muchas veces consultamos… «Me ha dicho que iba a hacer sol, pero iba a llover y luego llueve. Y ahora no». Es que es muy complejo gestionar todo eso, pero esta herramienta es de unos canadienses, de un equipo canadiense, que es: tú le haces una foto a tu casa… Imagínate, idílico, con tu coche guay y, a través de una inteligencia artificial, te hace un escenario caótico con el impacto del clima: inundado… Todo para que tomemos conciencia del impacto de no cuidar nuestro clima.

48:17
Andrés. Hola, Cristina. Hay bastante gente que tiene miedo a todo lo que está por llegar. ¿Cómo se podría regular todo el potencial positivo de la inteligencia artificial para que absolutamente toda la gente se pueda aprovechar de ella?

“La inteligencia artificial necesita perfiles de humanidades”. Cristina Aranda, filóloga experta en Inteligencia Artificial
48:37
Cristina Aranda. Pues gracias, porque es el gran… Lo que oyes. Muchas veces que voy a foros, digo: «Ya estamos con el “que vamos a morir”, “van a acabar con nuestros puestos de trabajo”». Estos estímulos que oímos. A ver, el progreso, es lo que tiene. O sea, cuando apareció la locomotora, la gente se pensaba que se iba a desintegrar porque iba a treinta kilómetros por hora. Ahora nos parece… Y ahora estamos todo el mundo soñando con coger el Hyper Loop y plantarte de Huesca a Málaga en un pispás, ¿no? ¿Y qué pasa? La inteligencia artificial es una herramienta. Es una herramienta. La inteligencia artificial no te va a quitar el puesto de trabajo, te lo va a quitar alguien que sepa utilizar esa inteligencia artificial. Eso sí, habrá puestos de trabajo que desaparezcan. Por ejemplo, como pasó con la aparición de la electricidad. En la industria, hubo una reestructuración económico-social… Pues hay determinados puestos de trabajo que ya no trabajan en cadena, que ya es un robot el que lo hace. Vale, pues muy bien. En la época de mis padres había serenos aquí por la calle y ahora son telefonillos. Y ese telefonillo lo diseña alguien, lo instala alguien, el mantenimiento lo hace alguien… Y muchas cosas. Y tiene luego un impacto. El Fondo Monetario Internacional calcula que se van a destruir ochenta y siete millones de puestos de trabajo, pero es que se van a generar ciento noventa y tres. Y muchos de estos puestos de trabajo no se sabe cuáles son. El «prompt engineer», esto que ahora se habla de las personas que saben dar instrucciones a la máquina, esto hace cinco años no se sabía. Y encima aquí las personas que sepan, que sean muy buenas en la descripción lingüística, en dar la instrucción a la máquina humana, van a ganar bastante dinero. Entonces, esto es un ejemplo de la cantidad de oportunidades que tenemos. Es necesario que sepamos qué es esta tecnología y el potencial que tiene.

50:28

Y pensemos también… Os he hablado un montón de las limitaciones que tienen a día de hoy estas herramientas, estas tecnologías. Atienden solo a una cosa específica, no tienen esa capacidad de la emoción, la empatía. Yo a un robot lo puede entrenar para que me diga… Que le diga yo con unas FAQ, con unas preguntas de respuestas fáciles. Pero no implica que tenga empatía, simplemente que ha sido entrenado y por esos patrones me va a decir… Si yo le digo: «Estoy triste». «Anda, Cristina, anímate, toma esta música que es la que a ti te da subidón». Ay, qué majo, qué empático es el sistema. No, es que me lo he programado yo. O sea, no es empático. Claro, abordamos temas… La inteligencia artificial… De hecho, un profesor de Stanford, Thorne, dice que habría que incluirla en el ámbito de las humanidades porque implica reflexión, implica el cuestionarnos a nosotros como personas e implica también hablar de esa reflexión de la conciencia, que es percibirse a uno mismo y percibir el entorno y cuestionarse cosas. Las máquinas no tienen eso. Las máquinas hemos dicho que tienen ceros y unos, y hacen cero coma cero, cero, cero, y no tienen esa parte cognitiva de la emoción, de la sensibilidad, de la piel. No tienen eso. Yo siempre pongo el ejemplo de mi sobrino: fuimos un día a una gran cadena de productos rápidos de hamburguesas y digo: «Ah, pues querrá ir al tótem, automático». Y dijo: «No, no, no, voy con Sebas, que me atiende superbién». Claro, aquí es donde nos va a representar el gran valor. Donde aportamos valor los humanos, en esa relación personal, en la empatía, en las emociones, en muchas cosas que las máquinas no tienen.

52:23

Entonces pensemos que… No nos dejemos agobiar por el miedo. Es que más miedo nos tienen que dar otras cosas. Es una herramienta. Yo pongo ejemplos. Por ejemplo, Ana Freire. Sabéis el gran problema que hay con la salud mental. De hecho, nuestros jóvenes se suicidan. Es la principal causa de muerte en adolescentes. Ana Freire, junto a un equipo diverso de personas especializadas en psiquiatría, lingüística, psicología e ingeniería, han entrenado una máquina para detectar conductas suicidas en Twitter y les mandan un mensaje de tal manera que han conseguido… Les mandan un mensaje como si fuera un anuncio. «¿Necesitas ser comprendida o comprendido?». Ahí juegan con el vínculo a través del lenguaje y han conseguido incrementar un sesenta por ciento de llamadas al Teléfono de la Esperanza. Y os podría enumerar un montón de inteligencias artificiales que resultan en un impacto positivo, pero eso nace de las personas, y somos las personas quienes tenemos la capacidad de generar este cambio y utilizar esta tecnología de forma maravillosa. Bueno, pues espero que, a través de esta conversación, este debate, estas preguntas, hayamos todos perdido el miedo a la inteligencia artificial y salgáis con ganas de utilizar esta increíble tecnología. Y también teniendo en cuenta la diversidad. La diversidad como algo enriquecedor para hacer cosas de alto impacto. Y pensad que esta tecnología sigue siendo muy tonta y nosotras, las personas, somos muy listas. Así que, como decía la gran Gloria Fuertes en su maravilloso poema «No tengo memoria»: «Estamos las personas condenadas a ser inteligentes a palo seco».