¿Qué puede hacer la inteligencia artificial por ti?
Jürgen Schmidhuber
¿Qué puede hacer la inteligencia artificial por ti?
Jürgen Schmidhuber
Experto en inteligencia artificial
Creando oportunidades
Una clase magistral del pionero de la inteligencia artificial
Jürgen Schmidhuber Experto en inteligencia artificial
Jürgen Schmidhuber
En los años 80, un joven admirador de Einstein apasionado por la ciencia, tuvo un sueño: crear un científico artificial que pudiera resolver los misterios del universo. En aquel entonces, todos creyeron que estaba loco. Se trataba del informático computacional alemán Jürgen Schmidhuber, considerado actualmente “el padre” de la inteligencia artificial moderna. Según explica: “En los 90 ya empezamos las investigaciones que desembocaron en el desarrollo de la IA, pero en aquel momento a nadie le interesaba el tema”. Sin embargo, los algoritmos que él y su equipo desarrollaron en aquellos años, “hoy en día están en nuestros teléfonos móviles, en los traductores, en Chat GPT y en un sinfín de aplicaciones que forman parte de nuestra vida cotidiana en el siglo XXI”, añade.
Su trabajo ha sido reconocido a nivel internacional y es considerado uno de los pioneros en el aprendizaje profundo (‘Deep Learning'). También es el creador de las llamadas ‘redes neuronales artificiales’ y un firme defensor del enfoque de "inteligencia artificial general" (AGI), buscando crear sistemas que puedan aprender y razonar de manera similar a los humanos. Ante el recelo y temor que suscita la IA en la actualidad, Schmidhuber defiende sus aplicaciones en el campo de la medicina, el lenguaje o los Objetivos de Desarrollo Sostenible (ODS), incluyendo el cambio climático: “Si se usa correctamente, la inteligencia artificial puede ayudar a prevenir desastres medioambientales como las sequías y las inundaciones, mejorar problemas globales como la calidad del aire y, en el campo de la medicina, ayudarnos a prevenir y detectar enfermedades como el cáncer o las enfermedades cardiovasculares”, explica. Para Jürgen Schmidhuber, la IA del futuro podrá resolver problemas en beneficio de toda la humanidad y asegura que lo que estamos viendo ahora no será nada comparado con lo que ocurrirá dentro de 30 años: “Por tanto, lo que está ocurriendo no es solo otra Revolución industrial. Es algo que va a ir más allá de la civilización y la humanidad, tal como la conocemos”, concluye.
Transcripción
De hecho, en esa época, a principios de los 90, di una conferencia donde hablé sobre nuestros recientes logros en el campo de la inteligencia artificial, pero a nadie le interesaba el tema, salvo a una única persona en esa conferencia, una joven. Le dije: «Señorita, me da mucha vergüenza, pero le daré la charla solo a usted». Y me dijo: «Vale, pero dese prisa porque soy la siguiente ponente». Vamos, que no le interesaba a nadie en esa época. Sin embargo, los mismos algoritmos viejos que publicamos en ese entonces están presentes hoy en día en vuestros móviles. La IA para el reconocimiento de voz, la traducción y todo eso está basada en lo que hicimos nosotros en ese entonces. ¿Cómo es eso posible? ¿Por qué no funcionó en ese entonces y por qué funciona ahora? Porque cada cinco años, la informática se vuelve 10 veces más barata. En otras palabras, 30 años equivalen a un salto cualitativo. Por eso ahora podemos programar un millón de veces más por el mismo precio de aquel entonces, cuando publiqué esos artículos. Ahora, tenemos cosas como ChatGPT. Y la «G», la «P» y la «T» de ChatGPT vienen de lo que hicimos nosotros allá por 1991. En ese entonces, no se podía hacer mucho, pero hoy, tenemos 10 millones de veces más informática por el mismo precio y ahora se pueden hacer un montón de cosas chulas. Y lo mejor es que todavía no hemos visto nada porque en los próximos 30 años, si seguimos a este ritmo, y tiene pinta de que seguiremos así, conseguiremos otro salto cualitativo.
Y todo lo que hoy nos parece impresionante parecerá ridículo dentro de 30 años. La gente echará la vista atrás y dirá: «Mira, se sorprendían con los modelos extensos de lenguaje y con ChatGPT». Les hará gracia lo ingenuos que éramos. Es una evolución increíble que iremos viendo y que es una continuación de la evolución anterior que se ha desarrollado durante décadas y ha pasado desapercibida. Todo va a cambiar. Ahora, son los mismos tíos de siempre, como mis compañeros que fruncieron el ceño ante mis predicciones en esa época. Ahora, ya no se ríen de esto y algunos incluso han cambiado de parecer y han dicho que la IAG, inteligencia artificial general, llegará pronto, debido a ChatGPT y modelos extensos de lenguaje similares. Pero no se compara en nada con lo que vamos a ver. Todo esto ya está transformando la civilización, pero no habrá ningún aspecto de la civilización en las próximas décadas que no se vea profundamente influenciado por eso. Cabe destacar que no existen solo las IA que nos sirven de herramienta e imitan ciegamente lo que nosotros les hemos enseñado. Existen otras IA, como las que he tenido yo en el laboratorio durante décadas, que se fijan sus propios objetivos, como si fueran pequeños científicos artificiales o científicos en general. Son como bebés.
¿Los bebés cómo aprenden? No aprenden descargando datos de Facebook. No. Aprenden haciendo sus propios experimentos y fijando sus propios objetivos. Ellos mismos se fijan unos objetivos y piensan: «A ver qué pasa si hago esto y aquello». Y mediante los experimentos que se inventan, descubren y aprenden cómo funciona el mundo y cómo ser más resolutivos ante el mundo. Muchos de estos experimentos se lo inventan ellos. Aprenden más bien poco de sus padres, mientras que de sus propias experiencias científicas aprenden muchísimo. Ahora, tenemos redes neuronales artificiales que hacen lo mismo y, en mi opinión, van a ser las más interesantes. Esas IA que no solo imitan ciegamente a los humanos, sino que se fijan sus propios objetivos. Si no les damos la libertad de fijarse ellas mismas unos objetivos, no serán tan inteligentes como las otras IA que sí gozan de esa libertad. Entonces, estas IA autónomas van a resolver muchos problemas que conciernen a la humanidad, pero habrá un siguiente paso que irá más allá. Las IA autónomas, los científicos artificiales, van a llegar al sitio donde la mayoría de los recursos físicos construirán otras IA incluso más grandes.
Y no me refiero a nuestra pequeñísima biosfera, sino al espacio exterior, donde se encuentra casi toda la materia y energía necesarias para construir más robots, IA, infraestructura, fábricas de robots autorreplicantes y todo eso. Por lo tanto, el futuro próximo seguirá girando en torno al ser humano, pero a largo plazo, evolucionará de tal forma que el ser humano ya no tendrá el control porque las IA se extenderán desde la biosfera, por el sistema solar y la galaxia, hasta el resto del universo observable. Llevará mucho tiempo debido a la velocidad de la luz. El universo es tan grande que llevará su tiempo colonizarlo por completo. Pero es lo que va a pasar. Por tanto, lo que estamos viendo ahora no es solo otra revolución industrial. Es algo que va a ir más allá de la civilización y la humanidad tal como la conocemos. Se podría comparar con lo que pasó hace 3,5 mil millones de años cuando comenzó la vida en la tierra, cuando la química se convirtió en biología. Algo similar e inmenso está ocurriendo ahora y es un privilegio haber sido testigo de sus comienzos y haber contribuido en cierta manera. ¿Tenéis alguna pregunta?
Cada neurona está conectada a otras 10 mil neuronas de media. Algunas de ellas son neuronas de entrada. Son como una cámara, unos ojos, que captan cientos de millones de píxeles por milisegundo. Son números pequeños. Pensad en los números del cero al uno. Y hay otras neuronas de entrada que son como un micrófono, unas orejas o un sensor táctil y están conectadas al cerebro mediante cables. Algunas de estas neuronas son neuronas de salida que se activan cuando piensas o mueves los músculos de la mano o la cara cuando hablas. Tu vida se activa cuando recibes todo ese flujo de datos y los traduces en acciones que conducen al éxito, donde el éxito equivale a comer tres veces al día, pero para eso tienes que ganarte la vida, y para eso tienes que aprender cómo funciona el mundo, conseguir un trabajo, ir al supermercado, comprar comida y cosas así muy complejas. Son cosas muy complejas que los niños tardan 20 años en aprender. Ahora bien, las redes neuronales artificiales de ahora son similares porque también tienen estas conexiones y cada conexión tiene una pequeña fuerza. Cada conexión tiene una fuerza que dice: «¿Cuánto influirá esta neurona de aquí en esa neurona de allí en la siguiente etapa?». Al principio, cuando somos bebés, todas estas conexiones parecen aleatorias, pero vamos aprendiendo y algunas se refuerzan y otras se debilitan. Así, el cerebro acaba aprendiendo a hacer todo tipo de cosas que antes no sabía hacer, como conducir un coche, reconocer voces o traducir de una lengua a otra. Pues lo mismo ocurre con las redes neuronales artificiales, que implementan estos principios.
Entonces, lo que hicimos fue crear varios tipos de redes neuronales artificiales que fueran mejores que las anteriores para aprender a partir de secuencias largas, como cuando lees un texto largo y tienes que clasificarlo. Para clasificar todo ese texto, tienes que memorizar lo que ya has aprendido. Todo eso no funcionó en los años 80, pero luego encontramos la forma de comprimir enormemente los datos de entrada mediante todo tipo de trucos que tienen que ver con la «P» de ChatGPT. La «P» viene de «preentrenamiento». Teníamos algo que ahora se llama transformador lineal normalizado, pero eso da igual, no sois expertos, no viene a cuento. Es un tipo específico de transformador que se usa mucho para los modelos extensos de lenguaje. De ahí viene la «T» de ChatGPT. Y la «G» viene de «generativo». También se da en las IA generativas de las que tanto se habla ahora. Entonces, nuestra contribución en los 90 fue básicamente crear dos redes neuronales artificiales que se pelearan. Por un lado, teníamos una red neuronal que producía salidas y, por otro, teníamos otra red que leía esas salidas e intentaba predecir sus consecuencias. Entonces, la segunda red se dedicaba a predecir. Intentaba minimizar sus propios errores mientras predecía las consecuencias de las salidas que daba la primera red. Cada vez predecía mejor las consecuencias. Pero entonces la primera red reñía con la segunda porque quería aprender a producir salidas reforzando y debilitando los pesos.
Quería aprender a generar pesos que engañasen a la segunda red para que siguiese produciendo errores. Básicamente, maximizaba la misma función de pérdida que minimizaba la segunda red. Por eso, reñían. Y este truquito, que usamos en 1990, ahora se usa mucho para crear «deepfakes», donde las salidas son imágenes y las predicciones son cuestionarse si las imágenes son falsas o no. Quizá habréis visto estas imágenes que parecen extremadamente reales, pero no lo son. Estas son algunas cosas que hicimos entonces. Podría hablar largo y tendido. Mi alumno de doctorado, Sepp Hochreiter, en 1991… Como veis, todo ocurrió en 1991. Había hecho su tesis donde no solo implementaba la idea del preentrenamiento, sino que también analizaba las razones por las cuales no funcionaba el aprendizaje profundo. «Aprendizaje profundo» es un sinónimo más de redes neuronales profundas que aprenden. El aprendizaje profundo no funcionó en esa época, pero al final ha funcionado. Pues la tesis de Sepp explicaba detalladamente por qué ese aprendizaje profundo no funcionaba matemáticamente y, además, ofrecía una solución. Esa solución se llama ahora conexiones residuales. Es la base de lo que hoy conocemos como memoria larga a corto plazo. Es algo que tiene sus raíces en la tesis de mi exalumno. Más tarde, lo publicamos en una revista en 1997. Pero, repito, nadie mostró gran interés hasta que los ordenadores ya eran bastante rápidos, allá por el 2010, cuando por fin ganamos competiciones con otros trabajos de mis alumnos, como Alex Graves y Felix Gers.
Luego, en 2010, las grandes empresas de la cuenca del Pacífico vieron que podían crear un reconocimiento de voz mejor que con los métodos anteriores y, a partir de ahí, se popularizó. Llevó un tiempo para que se popularizara, pero ahora ya lo tenéis en el móvil.
Si lo buscáis en internet junto con alguna palabra médica, por ejemplo, «diabetes», buscáis «LSTM diabetes» y os saldrán un montón de artículos que contengan «LSTM» y «diabetes» en el título. No solo en el texto, sino también en el título. Eso es porque alguien lo ha usado para detectar mejor y predecir mejor la diabetes. Hay muchas aplicaciones para la arritmia, por ejemplo, todo tipo de problemas cardíacos y muchas otras enfermedades. Así que me alegra mucho que estas redes neuronales artificiales sean de una inmensa ayuda en el ámbito sanitario, aumenten la esperanza de vida de las personas y las ayuden a estar más sanas. Y cuantos más datos podamos recoger de personas enfermas, más beneficios habrá luego. Por ejemplo, si tuviéramos acceso a todos los datos de los hospitales, como el tratamiento de cada paciente, quién lo ha comprado, quién lo ha tomado, bajo qué circunstancias, ver el TAC coronario o lo que se hayan hecho… Si tuviéramos acceso a todos esos datos, veríamos todo tipo de correlaciones cruzadas entre los tratamientos que ahora se desconocen. A lo mejor, un hombre que se toma una medicación y cinco años después empieza a tomarse otra, probablemente a los dos años se muera de un infarto o algo así, como pasa en la mayoría de los casos. Eso puede verse con los datos, pero actualmente el mayor problema es tener acceso a esos datos. Nuestros algoritmos pueden aprender a partir de esos datos y es una de las tantísimas formas de mejorar la sanidad.
En resumen, ya solo en el ámbito sanitario hay muchísimo futuro. Algo que también ya ha ocurrido es que la IA ha roto las barreras lingüísticas entre países. Hace 15 años, fui a China y tuve que enseñarle al taxista una foto de mi hotel para que supiera dónde quería ir, porque no sabía hablar con él. Hoy, puede enseñarme el móvil y decirme algo en mandarín que yo escuche en inglés o alemán, luego le contesto al móvil y así mantenemos una conversación. Por lo tanto, no solo la comunicación entre las personas se ha vuelto más fácil, sino también la comunicación entre los países. Y hay muchos otros ejemplos siguiendo la línea de objetivos de desarrollo sostenible, donde la IA se usa para mejorar el mundo en muchos sentidos. Esa es mi esperanza a corto plazo, pero a largo plazo es algo totalmente distinto porque estaríamos hablando del futuro del universo, que se expandirá y hará que el cosmos entero sea inteligente. Pero eso llevará varias decenas de miles de millones de años porque la velocidad de la luz es muy lenta.
O también muchas personas hablan del calentamiento global. Hay muchas ideas sobre cómo reducirlo, quizá no pararlo, pero al menos reducirlo. Un proyecto en el que estoy metido va de extraer dióxido de carbono del aire. Por ejemplo, cuando quemamos algo, emitimos dióxido de carbono a la atmosfera y creamos gases de efecto invernadero que aumentan la temperatura del planeta, afectando a millones de personas. Uno de los objetivos es absorberlo mediante ciertos materiales, catalizadores y todo tipo de mecanismos inteligentes, como las MOF o estructuras metalorgánicas. Luego, usas la IA como si fuera un químico artificial. ¿Cómo haces eso? Primero, la entrenas hasta que sea experta en química a base de hacer muchos experimentos, donde varias sustancias interaccionen entre sí bajo ciertas presiones y temperaturas con varios catalizadores. Esas serán las entradas que vea la red neuronal. Luego, se da la reacción y sale algo. Así, aprende a predecir lo que ocurrirá, qué sustancias saldrán, sus propiedades… A partir de los datos de entrenamiento, aprende a ser como un químico intuitivo y puede predecir los efectos y las reacciones que nunca ha visto. Entonces, puedes coger esta red neuronal artificial que ha aprendido a ser un químico, hacerla trabajar al revés y así, creas… Imagínate que le dices: «Quiero una sustancia de salida que sea el doble de efectiva que la mejor que he visto nunca para extraer el dióxido de carbono del aire».
¿Cómo cambio el experimento? ¿Cómo cambio las sustancias de entrada, las temperaturas, las presiones y el catalizador para conseguir eso? Entonces, te da una sugerencia. Ahora bien, o la red ya sabía mucho de química a partir de los ejemplos de entrenamiento y te ha hecho una buena sugerencia que funciona y estás satisfecho, o no es una buena sugerencia porque, si la pruebas en la vida real, no funciona como había predicho. Pero en ese caso, tienes otro ejemplo de entrenamiento que puedes darle al químico artificial para que mejore. Y así sucesivamente. Esto ya se usa en todo tipo de aplicaciones químicas y nosotros empleamos el mismo enfoque para mejorar el catalizador y extraer dióxido de carbono del aire. Se llama captura directa del aire. Entonces, hay muchas aplicaciones que están totalmente alineadas con esos 17 objetivos de desarrollo sostenible que he mencionado antes y los abarcan todos.
Deberíamos aprender a hacer más cosas que a la IA le resulta muy complicado, o sea, hacer cosas con las manos. Creo que esto se verá reflejado en los sueldos de los trabajadores de artesanía, como los electricistas, por ejemplo. No existe ningún robot que pueda ir a tu casa a repararte la instalación eléctrica. Mientras eso siga así y la IA no funcione bien en el mundo físico, intenta centrarte un poco en cosas para las que tengas que usar las manos, el cuerpo, la capacidad de manipulación y todo eso. No descuides esa parte. También tendrás que aprender lo demás. Tendrás que aprender a escribir resúmenes, hacer dibujos y aprender las bases de las matemáticas y la física. Es muy importante aprender eso porque el mundo se basa en matemáticas y física. El mundo tal como lo conocemos se basa en eso. Pero no descuides las habilidades físicas e intenta ir a una escuela donde no se pasen por el forro las clases de Educación Física. Ningún robot tiene un mejor mecanismo que este. Tenemos cinco dedos que están repletos de millones de sensores. Si quisiera construir una mano artificial como esta, ni siquiera sabría dónde poner los cables. Es alucinante lo milagrosa que es la mano.
Nada de la industria tecnológica se le compara. Incluso se repara sola. Si te cortas, sana sola. Es totalmente alucinante. Sin embargo, a la larga, todo lo que pueden hacer únicamente los humanos, lo que podemos hacer ahora, también lo aprenderán los robots. Todavía no, será en la siguiente etapa, pero acabará ocurriendo. Entonces, ¿qué nos queda a los humanos? Creo que lo que nos queda es lo específicamente humano, es decir, interactuar los unos con los otros. Miremos los robots industriales. No son muy listos, pero se crearon hace unos 40 años y, en esa época, muchos dijeron que nos iban a quitar el trabajo. Era verdad hasta cierto punto porque en esa época, en las fábricas de automóviles, había cientos de trabajadores que montaban piezas. Y unos años más tarde, unas décadas más o menos, en esas mismas fábricas había cientos de robots y solo tres tíos vigilando de vez en cuando lo que hacían los robots. No obstante, en los países donde había tantos robots como esos, la tasa de desempleo bajó porque en esos mismos países se crearon otros puestos de trabajo que nadie se veía venir. Hace 40 años, nadie se habría esperado que tantos chavales ganasen dinero haciendo videoblogs en YouTube, donde interactuaban con las personas de una forma distinta. La mayoría de estos trabajos son un lujo. Pero, de todas formas, yo diría que casi todos los trabajos son un lujo porque muchos no son relevantes para nuestra supervivencia.
Para eso hay muy pocos, como la agricultura que nos da de comer o construir casas para que no nos llueva encima y dormir calentitos o fresquitos por la noche. Todo eso lo hace menos del 10 % de la población. Aparte, hay muchos otros trabajos de lujo, como el periodismo, que sí, es importante y se gana más dinero que en la construcción, pero no es crucial para la supervivencia de nuestra especie. Lo que se nos da muy bien es inventarnos puestos de trabajo cada dos por tres, que se centran en interactuar con otras personas de distintas maneras. No se centran en los robots y todo eso. No. Se centran en las personas y creo que seguiremos así. No nos parecerá mal cuando descubramos que existen seres más inteligentes en el universo, porque ellos también seguirán a lo suyo, que será inventar todo tipos de trabajos de lujo que no son esenciales, pero sí divertidos.
Si choca con un obstáculo, podría dañarse. Por eso le damos sensores de dolor. No le decimos exactamente cómo evitar ese dolor, sino que tiene que aprenderlo por sí mismo mediante un algoritmo de aprendizaje. Solo le decimos: «Este es el objetivo. Dedícate el resto de tu vida a maximizar la suma de todas las señales positivas y minimizar la suma de todas las señales negativas». Es muy fácil formular todo eso en un programa informático. Luego, las consecuencias de ese programa sencillo posiblemente sean enormes, porque ahora el agente intenta hacer cualquier cosa y, con el tiempo, aprende qué cosas evitar y cuáles le convienen. Luego, cada vez que le queda poca batería y recibe señales de hambre, también va aprendiendo a ir al sitio de carga, sentarse y cargarse para recibir señales de saciedad, o sea, números positivos que van subiendo. Y todo eso sin chocarse con obstáculos de camino al sitio de carga, en cuyo caso recibiría señales de dolor. Pero va aprendiendo a evitar esos obstáculos, porque aprende a usar los vídeos que recibe y los traduce en acciones, como rodear el obstáculo.
Eso, por un lado. También tienes un conjunto de emociones simples que son evitar el dolor y maximizar la satisfacción. Por otro lado, tienes la segunda red que únicamente predice las consecuencias de las acciones de la primera. Esta segunda red es como si fuera una simulación del mundo más o menos. Aprende a predecir lo que ocurrirá si hace esto y aquello. Mientras, la primera red usa a la segunda para anticiparse, planificar el futuro. ¿Cómo funciona eso? Pues usa esa segunda simulación del mundo, que es un tanto imperfecta, para imaginarse varios experimentos con una serie de acciones. «Si hago tal, me chocaré con el obstáculo y no llegaré al sitio de carga». Entonces ve que esa serie de acciones no es buena. Luego, intenta con otra y dice: «Si ejecuto esa serie de acciones, rodearé el obstáculo, llegaré al sitio de carga y todo perfecto». Entonces, elegirá esa serie de acciones. Usa un modelo del mundo para planificar. Pero ¿qué pasa en ese modelo? Todo lo que ocurre a menudo en el entorno se representa en las neuronas. Eso estimula la conducta de los mecanismos de aprendizaje o las redes neuronales. Por tanto, en un entorno con varias categorías, habrá neuronas que representen esas categorías. Y en un entorno con muchas caras, habrá neuronas que reaccionen ante ciertas representaciones de caras. Si aparece una cara nueva, basta con codificar la desviación del modelo de cara que ya tienes. Así que todo eso sirve para que el sistema comprima las experiencias en unas pocas neuronas. Ahora bien, es importante recordar que hay algo que siempre está presente en la vida del agente cuando este está activo, que es el agente en sí.
O sea, como resultado de estos algoritmos de aprendizaje automático estándar, obtendremos representaciones del interior del propio agente, así como de sus actuadores, dedos, brazos, piernas o lo que tenga, su batería, las predicciones sobre cuánto tardará en cargarse por completo… Todas estas predicciones forman parte de ese modelo del mundo que a su vez incluye un modelo del propio agente. Ahora, cuando el controlador utiliza el modelo del mundo para planificar y activa esas representaciones internas, que describen al agente en sí, está pensando en sí mismo. Es consciente. Entonces, tomar conciencia de sí mismo, en el contexto donde quiere lograr unos objetivos, es algo natural que ha existido durante décadas. También hemos visto otros aspectos de la toma de conciencia durante décadas. Por tanto, todo eso que dice la gente sobre tomar conciencia de sí mismo como si fuera algo raro es un concepto que ya existía en los modelos de aprendizaje automático antiguos. Las IA antiguas que interactuaban con el mundo usaban modelos del mundo para planificar y en esos modelos ya había representaciones del agente en sí, que era consciente de sí mismo cada vez que se activaba.
Eso fue en 2011, o sea, hace casi 15 años. En aquel entonces, la informática era casi mil veces más cara que ahora, lo que significa que hoy podemos programar casi mil veces más por el mismo precio. Por eso el rendimiento actual es muy superior en muchas aplicaciones. La gran pregunta es: ¿cuándo tendremos una IA sobrehumana no solo en este juego en concreto, el ajedrez, y esta aplicación específica del reconocimiento de patrones, sino también en prácticamente todo? Pero, bueno, yo no me preocuparía por eso, porque podría llevar meses o incluso años.
No veo ninguna forma de detenerlo porque las grandes potencias dirán que, si no lo hacen ellos, lo harán los otros y les llevarán ventaja. Entonces no podemos detener esa carrera armamentista. Por otro lado, el 5 % de los estudios sobre la IA se enfocan en la mejora armamentística, pero el otro 95 % se centra en cómo hacernos la vida más fácil porque las grandes empresas que investigan la IA o, al menos, las aplicaciones de la IA, aunque quizá no sean unos estudios tan fundamentales, estas empresas quieren venderos cosas. Y vosotros vais a comprar solo lo que consideréis que os conviene. Entonces, están compitiendo entre ellas porque cada una quiere crear un producto mejor para vosotros para que se lo compréis. Por eso la gente tiene un tremendo sesgo hacia lo que es la IA buena. Pero no es más que un sesgo comercial porque quieren venderos cosas.
Uno se llama propagación hacia atrás de los errores. Da igual si no os suena el nombre. Es un método famoso de fortalecer o debilitar los pesos y, luego, la propia red aprende a implementar el algoritmo de aprendizaje de manera que mejore todo lo que pasa por la red. Así, aprende a crear un mejor algoritmo de aprendizaje. Imaginaos el alcance. Ya no estarás estancado en los algoritmos de aprendizaje diseñados por un humano y obtendrás mejores sistemas que se van automejorando sin ningún límite. Creo que ese es el futuro. Sí.
Además, el sesgo que proviene de tener solo datos de hombres y no los suficientes de mujeres, o viceversa, evidentemente hay que corregirlo. En teoría, es fácil corregirlo porque solo hay que recoger más datos del grupo minoritario. Así, el sesgo desaparecerá. En general, todos estamos sesgados por las cosas que hemos visto de pequeños. Alguien que se ha criado en España tiene ideas muy diferentes sobre cómo funciona el mundo, pero pensemos luego en un esquimal. El entorno donde se ha criado es totalmente distinto, por lo que aprenden a distinguir entre cientos de tipos de nieve. Ven pequeños patrones en la nieve que les dice qué tipo de nieve es. Y si te crías en el desierto, seguramente nunca hayas visto la nieve. Por lo tanto, hasta los humanos están enormemente sesgados por los datos de entrenamiento que han recibido. Lo mismo pasa con la IA.
No obstante, se sigue dando el caso en que los airbags no funcionan como deberían. O sea, el airbag explota, el coche sigue bajando por la cuesta, acabas en el río sin poder salir del coche debido al airbag y te ahogas. Entonces, en muy pocos casos, los airbags no funcionan como deberían. Pero nuestra sociedad funciona con estadísticas a la hora de evaluar maquinaria, como los airbags, y en cuanto vieron que iba a haber cuatro veces menos personas muertas al día en la carretera, entonces fue cuando España hizo obligatorios los airbags. En suma, la sociedad en general utiliza un enfoque estadístico. «Vale, a lo mejor habrá veces en que esta máquina no funcione, pero de media funcionará tan bien que salvará muchas vidas, así que lo implementaremos». Lo mismo pasará con la IA en el ámbito sanitario, los vehículos autónomos y las demás aplicaciones.
Si nos paramos a pensar un poco, la civilización de la IA del futuro que piense en sus orígenes dirá: «Sí, en un abrir y cerrar de ojos la biología se convirtió en IA, porque la biología creó estos macroorganismos en forma de ciudades, empresas, infraestructura, herramientas… Entonces, las herramientas se volvieron inteligentes, hasta que pasaron de ser herramientas a ser IA con sus propios objetivos, se expandieron hacia el espacio y ahora casi toda la inteligencia es artificial». Por tanto, tendrán mucho interés en cómo surgieron de esta nuestra civilización. Luego, supongo que solo las especialistas, las IA historiadoras, van a querer entender todos los detalles: ¿Cómo y cuándo exactamente se publicó esto y aquello? ¿Cómo influyó esta aceleración del «hardware» en el desarrollo y quién contribuyó a esa aceleración? ¿Cómo se unieron los distintos avances para formar las primeras IA que se merecen llamarse IA? Por tanto, creo que solo seré una pieza más de este puzle que llamamos civilización que, en retrospectiva, en conjunto será otro abrir y cerrar de ojos en la historia de la humanidad.