35:56
José Ignacio Latorre. Una pregunta de mucho calado, de mucho calado. Entonces, voy a intentar organizar un poquito la respuesta. La inteligencia artificial que tenemos a día de hoy, déjame que la llame inteligencia artificial moderada. O sea, no es todavía lo que será. Es capaz de hacer muchísimas tareas mejor que los humanos. Pensamos que todavía somos un poquito más listos que ella. Déjame que llame, como todo el mundo le llama, inteligencia artificial general, a la que ya es mejor que cualquier humano en la Tierra, en la vasta cantidad de tareas que tenemos. Y hay un tercer nivel. Déjame que le llame súper inteligencia, siguiendo ciertos pensadores que le han dado este nombre. ¿Qué es la súper inteligencia? Es una inteligencia general, de acuerdo, que supera a todos los humanos en todas sus funciones, pero que tiene libertad de auto mejorarse a sí misma. Esa inteligencia no tiene ninguna limitación humana. Es como un niño pequeño, si le ves, no se aburre nunca. Siempre están haciendo algo. Siempre están auto educándose, los niños. No es que vaya el papá o la mamá o el abuelo o la abuela que le decía… No, tú ves al niño, se va y hace esto, hace aquello, se va, levanta, “oh, mira, mira, mira cómo es el tacto”. No para de educarse y su cerebro se va auto mejorando. Es su cerebro que da la orden de tocar algo para saber qué pasa y seguir mejorándose. Luego, un buen cerebro se auto educa. Sí que hay una componente del sistema que te ayuda, pero un buen cerebro se auto educa. Entonces es muy tentador dar libertad a la inteligencia artificial. Da miedo. Da miedo. Porque nuestra inteligencia nos ha hecho seres mucho más poderosos que cualquier otro animal en la Tierra, que vivimos de espaldas al planeta Tierra. Nos importa un pepino la contaminación, nos importa un pepino contaminarlo, el CO2, el calentamiento… De verdad, no le importa a la gente. No le importa que haya un maltrato del ecosistema. Hemos maltratado animales durante muchos siglos. ¿Por qué? Porque sencillamente nos habíamos ido muy lejos en nuestra inteligencia. Luego, da un poquito de vértigo pensar que una superinteligencia nos deje atrás y seamos una colilla. ¿Qué importa estos humanos? Fueron un tránsito nada más. ¿Cuál fue nuestro tránsito? Ciertos chimpancés, ¿cómo los tratamos? Pues los metemos en unas jaulas. Luego, hay un peligro para los humanos, que es que nos dejen atrás. Por otra parte, yo quisiera saber qué será capaz de hacer una superinteligencia. Entonces, esa es la situación. Y ahora viene, ¿lo vamos a hacer, sí o no? Bueno, yo no tengo dudas. Si el hombre podía ir a la Luna, fue a la Luna. Si el hombre podía clonar a la oveja Dolly, clonó a la oveja Dolly. Si el hombre podía descubrir el núcleo atómico, lo descubrió. Si podía hacer un ordenador cuántico, lo estamos haciendo. Si puede hacer una inteligencia que se mejore a sí misma, lo vamos a hacer. Nada lo va a frenar. Entonces, ahí hay un punto que dices: “Bueno, igual estamos firmando la desaparición de la especie”. Luego yo veo que sí, que es una posibilidad absoluta. ¿Por qué no? Que alguien me diga por qué no. Si tú le dictas a una inteligencia avanzada que proteja al planeta Tierra, lo primero que va a hacer es acabar con los humanos, porque somos los peores enemigos del planeta Tierra.