El mito de la singularidad o por qué la inteligencia artificial no va a heredar la Tierra

El mito de la singularidad o por qué la inteligencia artificial no va a heredar la Tierra

28 de agosto de 2032

— Coronel Minsky a base de Kandahar, cambio.

— AquĂ­ base de Kandahar, diga coronel.

— He perdido contacto de radar con un dron y no tengo acceso a Skyborg ¿Saben quĂ© pasa? No tengo notificaciĂłn de que lo hayan derribado y es la primera vez que pierdo comunicaciones con Skyborg. Esto nunca habĂ­a pasado. Cambio.

— Denos un minuto coronel… EstĂĄ usted en misiĂłn de reconocimiento en el cuadrante 14B, pilotando un F-35… ¿Correcto?

— SĂ­, pero voy en patrulla con cuatro drones Kratos XQ-65. Cambio.

— En nuestro radar solo aparece su aviĂłn, coronel.

— No puede ser. Tengo visual con tres de ellos. Vuelva a mirarlo, por favor.

— No aparece nada coronel. Solo su aeronave.

— Un momento… Ahora han desaparecido todos de mi radar. Debe estar fallando mi ordenador de a bordo… Abandonan la formaciĂłn de escolta y se sitĂșan a mi cola… ¿QuĂ© diablos…? ¡Disparan! ¡Me han lanzado un misil! ¡Dios mĂ­o! ¡Lanzo contramedidas y comienzo acciĂłn evasi…!

— ¿Coronel? Hemos perdido su señal ¿Coronel? Informe de su situaciĂłn, por favor…

1 de julio de 2035

Skyborg dio un nuevo significado a la idea de guerra total. Las armas nucleares fueron solo una pequeña parte del fin del Antropoceno; la mĂĄs efectiva fue la guerra biolĂłgica. Una modificaciĂłn del virus de Marburgo del Biopreparat de la ciudad de Ekaterimburgo, la llamada cepa U-99, se liberĂł en los suministros de agua de las veintisĂ©is ciudades mĂĄs pobladas del mundo. La plaga matĂł de forma directa a mĂĄs de dos mil millones de personas, un tercio de la poblaciĂłn mundial. Las muertes ocasionadas por el caos posterior son incontables, y no tanto por su enorme nĂșmero, sino porque no quedĂł ninguna instituciĂłn capaz de hacerlo. Ya nadie sabe cuĂĄntos seres humanos quedan vivos.

Miro con mis prismĂĄticos a travĂ©s de las ruinas de lo que una vez fue la capital de Gran Bretaña. Contra todo pronĂłstico, de lo poco que ha quedado en pie es el Estadio de Wembley. Me pregunto estĂșpidamente si a las mĂĄquinas podrĂ­a gustarles el fĂștbol. No hay moros en la costa. Durante un tiempo nos cazaban como ratas mediante sus drones de exterminio, pero llevo semanas sin ver ninguno. Creo que han cambiado de estrategia.

O bien los pocos, maltrechos y harapientos supervivientes no suponemos ninguna amenaza, y ya no merecemos ni la energĂ­a que cuesta eliminarnos; o bien, sencillamente, esperan a que desaparezcamos nosotros solitos. No hay comida, es muy difĂ­cil encontrar fuentes de agua potable, por no hablar de los niveles de radioactividad, que no puedo medir pero que sospecho que deben ser altĂ­simos.

13 de diciembre de 2039

Llevo mĂĄs de seis meses sin cruzarme con otro ser humano. Me encuentro demasiado dĂ©bil para seguir buscando. Estoy gravemente deshidratado por las diarreas que, casi con total seguridad, me ha ocasionado beber agua contaminada. Saboreo las Ășltimas cucharadas de una lata de atĂșn en conserva. Esa lata es lo Ășnico que he comido en dos semanas. Y ya no queda nada mĂĄs. No hay nada mĂĄs que un paisaje lunar en kilĂłmetros a la redonda, solo un desolado desierto de polvo y piedras. Nada.

Me quedo sentado mirando el cielo. Eso sĂ­ sigue igual, incluso mejor. Sin la contaminaciĂłn lumĂ­nica, los cielos de las noches se llenan de estrellas. Es un espectĂĄculo maravilloso ¿TendrĂ© el extraño honor de ser el Ășltimo hombre? ¿SerĂ© el Ășltimo ser humano que mirĂł el cielo? Ya no me importa morir. No tiene demasiado sentido sobrevivir en estas circunstancias ¿QuĂ© mĂĄs da vivir un dĂ­a mĂĄs en este estado de supervivencia extrema?

Ahora me cuesta entender la tenacidad con la que he luchado por mantenerme vivo hasta ahora ¿Para quĂ©? Solo echo de menos una copa de buen whisky y un cigarro. Esa sĂ­ que hubiera sido una buena despedida para la humanidad. Cierro los ojos y pienso que fuimos una pĂ©sima especie. QuizĂĄ nos merecimos todo esto.

Un final singular

Istock 1236683058

La singularidad tecnolĂłgica es un concepto que quizĂĄ deba su Ă©xito en los Ășltimos años, precisamente, a lo vago y confuso que resulta. Si una idea no se deja clara, puede usarse para muchas mĂĄs cosas que si su significado estuviera bien fijado. Y asĂ­, cada uno puede usarla como le venga en gana. En su sentido mĂĄs primordial, la palabra surge de sustantivar el adjetivo singular, es decir, diferente. En fĂ­sica se utiliza cuando nos encontramos en una situaciĂłn completamente anĂłmala, donde no se cumple alguna ley o principio fundamental que sĂ­ lo hace en el resto del universo.

AnĂĄlogamente, la singularidad tecnolĂłgica serĂĄ aquel momento de la historia de la humanidad en el que el desarrollo tecnolĂłgico llegarĂĄ a un punto sin precedentes, a un momento absolutamente diferente a todo lo anterior, porque las mĂĄquinas igualarĂĄn y superarĂĄn la inteligencia humana. Esto llevarĂĄ a lo que el filĂłsofo de Oxford Nick Bostrom llama “explosiĂłn de inteligencia”: las mĂĄquinas se mejorarĂĄn a sĂ­ mismas de modo que cada nueva generaciĂłn, al ser mĂĄs inteligente, serĂĄ capaz de mejorar su propia inteligencia, dando lugar a otra nueva generaciĂłn aĂșn mĂĄs inteligente, y asĂ­ sucesivamente ad infinitum.

Tres expertos en inteligencia artificial sobre GPT-3: "avanzando mĂĄs que nunca a pasos agigantados"

Cualquier intento por parte de los humanos de predecir lo que pasarĂĄ a partir de ese momento es, en principio, inĂștil porque ¿quiĂ©n sabe cuĂĄles serĂĄn los propĂłsitos de esas inteligencias artificiales tan superiores a nosotros? ¿Puede acaso una cucaracha entender la conducta de un ser humano? Y de aquĂ­ surge la consecuente preocupaciĂłn: ¿TomarĂĄn el control del planeta? Y si lo hacen, ¿quĂ© harĂĄn con nosotros? ¿Nos considerarĂĄn una amenaza y nos aniquilarĂĄn? ¿O nos dejarĂĄn subsistir como nosotros dejamos a los animales salvajes en las selvas del planeta?

La singularidad tecnolĂłgica es un concepto que quizĂĄ deba su Ă©xito en los Ășltimos años, precisamente, a lo vago y confuso que resulta

Por eso el propio Bostrom hace mucho hincapié en que debemos dotar a esas inteligencias artificiales de unos principios éticos que se alineen con los nuestros. Si no caeríamos en el grave riesgo de que nos consideraran una amenaza o un obståculo para sus propósitos y que decidieran quitarnos de en medio.

Pero ¿de verdad que esto va a ocurrir? ¿AsĂ­ serĂĄ el inevitable fin de la humanidad? ¡De ninguna manera!

Una inteligencia artificial sobrevalorada

Istock 1096227330 1

Solemos caer en el error de pensar que la tecnologĂ­a de moda, es decir, la tecnologĂ­a que en el momento presente estĂĄ experimentando un gran avance, seguirĂĄ en el futuro al mismo ritmo. Por ejemplo, si hace nada GPT-3 nos parecĂ­a un logro asombroso, se nos caĂ­a la baba maravillĂĄndonos ante lo que podrĂ­a hacer GPT-9… ¿Y, por quĂ© no, GPT-300? Si las arquitecturas de deep learning estĂĄn consiguiendo grandes aportaciones en muchos y variados campos tecnolĂłgicos ¿quĂ© no lograrĂĄn de aquĂ­ a veinte o cincuenta años? Entonces, ¿no parece algo casi inevitable que la inteligencia artificial supere al ser humano y lleguemos a la singularidad?

Para nada. Cuando analizamos en profundidad la historia de la inteligencia artificial y comprendemos el funcionamiento de estos algoritmos, la magia se deshace. Las bases teĂłrico-matemĂĄticas de las redes neuronales artificiales tienen mĂĄs de treinta o cuarenta años de antigĂŒedad. Por ejemplo, las redes convolucionales, la arquitectura mĂĄs utilizada en la actualidad, son una progresiva mejora por parte de Jan LeCun y de Dan Ciresan, del Neocognitron de Kunihiko Fukushima de 1980 ¡Una tecnologĂ­a de hace mĂĄs de cuarenta años!

Solemos caer en el error de pensar que la tecnologĂ­a de moda, es decir, la tecnologĂ­a que en el momento presente estĂĄ experimentando un gran avance, seguirĂĄ en el futuro al mismo ritmo

O, igualmente, la famosa backpropagation, el mecanismo fundamental de aprendizaje de la mayorĂ­a de estos algoritmos, fue inventada por Rumelhart, Hinton y Williams en 1986 ¡Hace treinta y cinco años!

Pero entonces, ¿por quĂ© conseguimos logros que en esos años no podĂ­an casi ni soñarse? Principalmente por la mejora de la capacidad de cĂłmputo. Entrenar a GPT-3 con 175 mil millones de parĂĄmetros era completamente imposible hace unos pocos años. Los logros de la inteligencia artificial actual no se deben entonces tanto a mejoras teĂłricas, a que los ingenieros hayan descubierto el Santo Grial, sino, sencillamente, a la fuerza bruta de la que disponemos.

La bĂșsqueda de mĂĄquinas conscientes: de MuZero a LIDA

Bien, pero eso no quita que los logros estĂ©n ahĂ­. Alpha Zero juega al ajedrez como jamĂĄs se ha hecho por mucho que conceptualmente no sea tan moderno. Cierto, pero la cuestiĂłn es: ¿seguirĂĄ mejorando y mejorando de forma ilimitada? ¿Hay razones para pensar eso? En la historia de la inteligencia artificial se han dado constantemente unas expectativas desaforadas que han estado lejos de cumplirse. La inteligencia artificial ha pasado por varios inviernos en los que nadie apostaba un cĂ©ntimo por ella. Ahora ha vuelto a resucitar pero ¿quĂ© razones tenemos para pensar en que esta resurrecciĂłn no volverĂĄ a entrar en crisis?

¿QuĂ© razones hay para pensar que la inteligencia artificial continuarĂĄ avanzando hasta el infinito y mĂĄs allĂĄ?

La desmesurada tesis del avance exponencial

Los singularistas asumen demasiado alegremente la idea de exponencialidad. Cuando algo avanza o crece a un ritmo exponencial estamos diciendo algo muy fuerte. Por ejemplo, cuando un grupo de bacterias se reproduce por fisiĂłn binaria (cada bacteria se divide en dos), lo hace a un ritmo exponencial (2N -1 ): en la segunda generaciĂłn de bacterias hay tres, en la tercera siete, en la cuarta quince… En principio, no parece nada raro, pero si esperamos un pelĂ­n, la cosa se desmadra. Para 220 tenemos ya 1.048.575 bacterias, pero es que para 250 tenemos 1.125.899.906.842.623… ¡Menuda infecciĂłn! ¿Puede una tecnologĂ­a avanzar con ese mismo ritmo de crecimiento?

Los logros de la inteligencia artificial actual no se deben entonces tanto a mejoras teĂłricas, a que los ingenieros hayan descubierto el Santo Grial, sino, sencillamente, a la fuerza bruta de la que disponemos

No existe ninguna referencia histĂłrica a proyecto tecnolĂłgico que se haya desarrollado a ese ritmo de forma continuada. Lo que suele ocurrir es que, aunque una tecnologĂ­a pudiera avanzar en un momento muy corto de su desarrollo a un ritmo exponencial, ese ritmo termina por decrecer rĂĄpidamente y quedarse estancado en un techo. Las tecnologĂ­as suelen progresar en forma de funciĂłn logĂ­stica y no de funciĂłn exponencial.

Y, ni siquiera la ley de Moore, en la que suelen basarse para sostener la idea de progreso continuo de la informĂĄtica, sigue un crecimiento exponencial, sino tĂ­picamente lineal.

Transistores

Entonces, ¿quĂ© razones hay para pensar que la inteligencia artificial desplegarĂĄ un crecimiento exponencial? Para calcular este crecimiento habrĂ­a que encontrar un parĂĄmetro que podamos cuantificar para estudiar su crecimiento. Si hablamos de inteligencia artificial lo suyo serĂĄ intentar medir la inteligencia

¿QuĂ© es eso que llamamos inteligencia?

Istock 1255414636

A priori parece que no hay problema. La psicologĂ­a inventĂł desde hace mĂĄs de un siglo un concepto para medir la inteligencia: el viejo cociente intelectual (CI o IQ en inglĂ©s). AsĂ­, como es un nĂșmero, puede crecer hasta el infinito. Si alguien tiene un CI de 120, tambiĂ©n se puede tener 250, o 20.000… ¡Esa magnitud es la que crecerĂĄ a ritmo exponencial!

Espera. En primer lugar resulta bastante apresurado entender la inteligencia apelando al nivel de CI. De hecho, este concepto ha sido muy criticado (véase 'La falsa medida del hombre' de Stephen Jay Gould), principalmente, porque solo mide unas cuantas habilidades, a saber, las relacionadas con el rendimiento escolar o académico, dejando fuera muchas otras. La creatividad, las habilidades sociales, la inteligencia emocional, etc. quedan completamente fuera de los test de CI, y ahora sabemos que son esenciales para realizar multitud de tareas que consideraríamos genuinamente inteligentes.

Bien, pues definamos inteligencia de otra forma tal que sea susceptible de ser cuantificada. Gran problema: hoy en dĂ­a no existe ningĂșn acuerdo en la comunidad cientĂ­fica acerca de lo que es la inteligencia. Para intentar poner algo de orden, en diciembre de 1994, la psicĂłloga Linda S. Gottfredson publicaba en el Wall Street Journal una definiciĂłn de inteligencia avalada por la firma de otros 51 psicĂłlogos mĂĄs:

“La inteligencia es una capacidad mental muy general que, entre otras cosas, implica la capacidad de razonar, planificar, resolver problemas, pensar de manera abstracta, comprender ideas complejas, aprender rĂĄpidamente y aprender de la experiencia”.

VĂ©ase la poca calidad de esta definiciĂłn. Gottfredson dice que la inteligencia es una capacidad general compuesta por una serie de capacidades “entre otras cosas”, es decir, que deja en el tintero otras capacidades que aquĂ­ no nombra. Pero es mĂĄs, no se molesta en decir que tienen en comĂșn todas ellas para ser subsumidas bajo el mismo concepto… ¡Esto no es siquiera una definiciĂłn! Es lo mismo que definir fruta diciendo: “Fruta es naranjas, manzanas y otras cuantas cosas mĂĄs”.

AdemĂĄs, los problemas no terminan aquĂ­: todavĂ­a encontramos ambigĂŒedades en los significados de estas capacidades: ¿QuĂ© es exactamente pensar en abstracto? ¿QuĂ© es exactamente comprender algo? ¿QuĂ© es la experiencia? Volvemos a caer en definiciones que nos llevan a nuevas definiciones mĂĄs oscuras si cabe.

¿Sueñan los androides con poesĂ­as de silicio? El gran reto de enseñar a las mĂĄquinas el lenguaje humano

Pero es que incluso podemos negar la mayor. Gottfredson dice que la inteligencia es “una capacidad mental muy general”, pero es que no sabemos quĂ© quiere decir eso de inteligencia general. Desde los estudios psicolĂłgicos pioneros en la mediciĂłn de la inteligencia, con los trabajos de Galton, Spearman, Thurstone o Binet, esa idea resultaba controvertida. Solo podĂ­amos medir habilidades especializadas en resolver un determinado tipo de tareas, como la comprensiĂłn verbal, la memoria numĂ©rica, la visiĂłn espacial, etc. ¿Hay en nuestra mente algĂșn tipo de capacidad general que, de alguna manera, englobe a todas las demĂĄs?

El famoso CI fue intentado por William Stern en 1912 como una etiqueta Ăștil que no representa ningĂșn tipo de cosa ontolĂłgicamente existente (¿CuĂĄl es la unidad de la inteligencia? ¿El inteligencio?). El CI no es mĂĄs que el promedio entre una serie de capacidades o habilidades mentales que se comparara con el promedio que han sacado las personas de tu misma edad. Un promedio no representa nada, es solo un valor que nos puede servir como informaciĂłn prĂĄctica por ejemplo, para intentar explicar los resultados acadĂ©micos de un grupo de alumnos, pero no habrĂĄ ningĂșn alumno con ninguna cualidad real que pudiĂ©ramos cuantificar con ese valor.

Entonces, ¿quĂ© diablos es esa capacidad que va a crecer exponencialmente cuando llegue la singularidad?

¿Y no tendrĂĄ algĂșn techo la inteligencia?

Y es que solemos manejar una concepciĂłn casi mĂĄgica de las posibilidades de la inteligencia ¿Es un superpoder que lo puede todo? ¿No hay lĂ­mites que no pueda superar? ¿De verdad que puede crecer sin lĂ­mite?

Pensemos en cualquier habilidad mental que suele medir un test como, verbigratia, la fluidez verbal: expresarse en un lenguaje con corrección y espontaneidad. Supongamos entonces que diseñamos una måquina que habla en castellano con una total corrección gramatical, con una voz agradable que vocaliza a la perfección.

Una vez llegado a esto ¿cĂłmo podrĂ­amos mejorar aĂșn mĂĄs la fluidez verbal? ¿No habrĂ­amos llegado a un mĂĄximo? Entonces, la fluidez verbal no es una capacidad que pueda mejorar exponencialmente de forma indefinida ¿No pasarĂĄ eso con las demĂĄs capacidades mentales? Pruebe el lector con cualquier habilidad mental clĂĄsica y reflexione sobre si tendrĂĄ un techo o si podrĂĄ crecer hasta el infinito.

"Dentro de dos años va a ser imposible saber lo que es realidad y lo que no": el reto de regular los deepfakes

Hagamos un simplĂłn experimento mental. Por mor de la argumentaciĂłn vamos a aceptar que las computadoras son capaces de mejorar su propio CI. Supongamos que la primera generaciĂłn de super mĂĄquinas tiene un CI de 170 ¡Guau! ¡Son muy superiores a la gran mayorĂ­a de los humanos! Entonces, en unas semanas, consiguen mejorarse y la segunda generaciĂłn tiene un CI de 190, la tercera de 210 y la cuarta de 235. Pero, de repente se encuentran con un grave problema. A esos niveles ya es muy difĂ­cil encontrar formas de mejorar la inteligencia. AsĂ­, la inteligencia necesaria para subir al siguiente escalĂłn es de 240. Por los pelos, pero por mucho que las computadoras se devaneen sus sesos positrĂłnicos, ninguna es lo bastante inteligente como para hacerse mĂĄs inteligente… ¡Se acabĂł el sueño de la singularidad!

Este experimento es una chorrada pero ilustra muy bien la idea de que el avance tecnolĂłgico no es algo tan fĂĄcil de conseguir, ni siquiera a base de subidas de CI. La ciencia y la tecnologĂ­a avanzan, entre muchos factores, a base de experimentos. Estos experimentos, habitualmente, se realizan en unas determinadas instituciones, y requieren financiaciĂłn y personal que los lleve a cabo.

Muchas veces, una investigaciĂłn no llega a buen puerto no porque no sea prometedora sino, simplemente, porque no encuentra financiaciĂłn debido a que sus promotores no consiguen vender bien su propuesta, o porque en ese momento los fondos van para otras investigaciones que se consideran mĂĄs interesantes ¿No se encontrarĂĄn las inteligencias artificiales con este tipo de problemas? Me resulta divertido imaginar a un robot intentando persuadir a unos inversores argumentando que ha encontrado una vĂ­a prometedora para subir el CI de las mĂĄquinas en diez puntos. Los inversores le dicen que no porque todo el dinero se lo estĂĄ llevando el Ășltimo proyecto de Elon Musk para llevar gente a PlutĂłn.

O, piense el lector en las meras imposibilidades tĂ©cnicas. Para un hombre tan inteligente y con tan grandes conocimientos sobre matemĂĄticas y astronomĂ­a como Galileo, serĂ­a completamente imposible construir un trasbordador espacial. La ciencia y la tecnologĂ­a de su Ă©poca hacĂ­an completamente inviable, si no siquiera imaginable, la carrera espacial. HabrĂ­a que esperar todavĂ­a trescientos años para que este sueño se hiciera realidad. Pues bien, ¿no podrĂ­a pasarle esto a nuestras super mĂĄquinas? Supongamos que, una vez llegado al CI de 235, para dar el siguiente paso hace falta que la ciencia y la tecnologĂ­a avancen trescientos años mĂĄs… ¿DĂłnde quedarĂ­a aquĂ­ el imparable avance exponencial?

Soy muy lista pero ¿tanto como para hacerme mĂĄs lista a mĂ­ misma?

Istock 1022892524

Y otro error consiste en suponer, de manera completamente infundada, que las inteligencias artificiales podrĂĄn mejorarse a sĂ­ mismas ad infinitum. Hoy en dĂ­a nuestros algoritmos de deep learning son muy buenos en hacer tareas muy concretas tales como jugar al ajedrez, identificar objetos en imĂĄgenes o crear y traducir texto. Presumiblemente podemos decir que en un futuro seguirĂĄn mejorando en esas tareas pero ¿tenemos algo sobre algoritmos que se mejoren a sĂ­ mismos? Muy poco o, en el mejor de los casos, no lo suficiente para justificar la tesis del ritmo de automejora exponencial.

Desde que John Von Neumann planteara en serio la idea de mĂĄquinas que se autorreplican en su 'The Theory of Self-reproducing Automata' de 1966, han existido algunas ideas, pero sobre todo en campos que, a priori, poco tienen que ver con la informĂĄtica o la programaciĂłn de mejora de la inteligencia, como son la genĂ©tica (el ADN es una mĂĄquina autorreplicante) o la futura conquista del espacio (mandar un robot autorreplicante parece una buena idea para colonizar un planeta). Y estos avances no han dado todavĂ­a para mucho ¿Existe alguna mĂĄquina autorreplicante en el mercado? ¿Conoce usted a alguien que tenga una?

¡Un momento! ¿Y quĂ© me dice de los virus informĂĄticos? Son mĂĄquinas autorreplicantes bastante eficaces, siendo, ademĂĄs, programas informĂĄticos como los algoritmos de inteligencia artificial. Pensemos en los “quine”, programas cuya Ășnica tarea consiste en emitir su cĂłdigo fuente. SĂ­, pero si algo define a estos programas es su simpleza. Estos pequeños trozos de software se replican a sĂ­ mismos como quien copia y pega un archivo, sin entender nada de su propio funcionamiento, por lo que no hay nada de ellos que nos sirva para diseñar una mĂĄquina capaz de mejorarse a sĂ­ misma.

Me he construido una bestia con seis RTX 3090, pero no para minar criptodivisas, sino para investigar en inteligencia artificial

MĂĄs interesante es lo que se ha denominado Auto Machine Learning (AutoML): arquitecturas de machine learning que mejoran a otras arquitecturas de machine learning ¡VoilĂĄ! ¿No es eso, precisamente, lo que estĂĄbamos buscando? SĂ­, pero lamentablemente, su recorrido todavĂ­a es muy corto. SĂ­, el AutoML se basa principalmente en utilizar redes para mejorar otras, pero las mejoras son muy limitadas.

Por ejemplo, las redes neuronales artificiales tienen un nĂșmero determinado de neuronas organizadas en un nĂșmero determinado de capas. Si estamos diseñando una red para reconocer gatitos en fotos de Instagram, podrĂ­amos utilizar otra red para que optimizara el nĂșmero de neuronas y capas de forma que mejorara la efectividad de la red inicial (es lo que se llama optimizaciĂłn de hiperparĂĄmetros). Muy interesante, pero la mejora no va mĂĄs mucho mĂĄs allĂĄ. Una IA optimiza a otra, pero no llega a nada mĂĄs, no puede crear ninguna nueva estructura ni realizar otro tipo de mejoras.

Otro error consiste en suponer, de manera completamente infundada, que las inteligencias artificiales podrĂĄn mejorarse a sĂ­ mismas ad infinitum

Y es que algo que los no especialistas no tienen demasiado en cuenta es que cuando entrenas una red neuronal llega un momento en que, aunque la entrenes mĂĄs ya no mejora, sino todo lo contrario. Es lo que se llama overfitting o sobreajuste. De esta forma, una determinada arquitectura llega a un techo a partir del cual ya no nos vale para nada seguir entrenĂĄndola, y ya serĂĄ complicado hacer que mejore sustancialmente.

Es decir, en el ĂĄrea de investigaciĂłn inteligencias artificiales que se hacen mĂĄs inteligentes a sĂ­ mismas no hay demasiadas razones para hablar de un gran progreso, tantas menos para hablar de un posible avance exponencial.

¿Una singular estafa?

La singularidad tecnolĂłgica es una idea sugerente y evocadora, muy interesante para reflexionar sobre un montĂłn de cuestiones. El ser humano se ha caracterizado por su radical soledad. Todos nuestros parientes evolutivos cercanos se extinguieron dejando sola a nuestra especie. Pensar en una inteligencia artificial igual o superior a nosotros consiste en meditar sobre la ruptura de esa soledad, acerca de la relaciĂłn con lo radicalmente otro.

Esto nos lleva inevitablemente a mirarnos al espejo y a cavilar sobre nosotros mismos: ¿PodrĂ© enamorarme de una inteligencia artificial? ¿QuĂ© es entonces el amor? Si las mĂĄquinas nos quitan el trabajo ¿QuĂ© haremos con nuestras vidas? Si nos superan y toman el mando ¿cuĂĄl serĂ­a el sentido de nuestra existencia? La inteligencia artificial es el logro cientĂ­fico de nuestro tiempo y, en cuanto a tal, supone una revoluciĂłn del pensamiento.

La computación neuromórfica es lo mejor que le ha pasado a la inteligencia artificial: cómo funciona y qué la hace tan prometedora

Pero hasta aquí podemos llegar, porque otra cosa muy distinta es vender la singularidad como un hecho no solo inevitable, sino cercano en el tiempo. Como creo haber argumentado a lo largo de este artículo, no hay razones ni evidencia científica suficiente para sustentar si quiera que algo así vaya a suceder alguna vez en la historia, cuanto menos para decir que ocurrirå en las próximas décadas.

Los defensores de la singularidad estån actuando mås como fanåticos religiosos que fundan sus ideas en la fe, que como auténticos intelectuales, y la Universidad de la Singularidad y sus acólitos transhumanistas parecen mås una secta que una institución científica. En ciencia hay que vender hechos fehacientes y no quimeras y ensoñaciones. Eso, al menos en mi pueblo, es vender humo, cuando no, directamente, estafar al personal.

4 de enero de 2040

Me quito las gafas de realidad virtual. Ha sido una experiencia inmersiva alucinante. Singularity Apocalypse, el Ășltimo bombazo en el mundo de los videojuegos de Electronic Arts, te permite experimentar el fin de la humanidad con un realismo sin precedentes. Con el traje de retroalimentaciĂłn hĂĄptica he podido sentir incluso el frĂ­o de las desoladas estepas apocalĂ­pticas; pero lo mĂĄs espectacular es el nuevo casco de estimulaciĂłn electromagnĂ©tica que permite simular estados emocionales. Verdaderamente, sentĂ­a la desesperaciĂłn, la soledad, el nudo en la garganta de vivir el fin del mundo en directo. Una pasada.

Vuelvo al mundo real ¿QuĂ© cĂłmo es el mundo de 2040? Tiene cosas muy buenas y otras no tanto, pero desde luego, las mĂĄquinas no han tomado el mando. Como ha sido una constante en la historia de nuestra especie, hay que seguir temiendo mĂĄs a nuestros congĂ©neres que a sus inteligentes creaciones artificiales.

Fotos | iStock

450 1000
Sobre Santiago SĂĄnchez-MigallĂłn: Profesor de FilosofĂ­a atrapado en un bucle: construir una mente artificial, a la vez que construye la suya propia. FracasĂł en ambos proyectos, pero como el bucle estĂĄ programado para detenerse solo cuando dĂ© un resultado positivo, allĂ­ sigue, iteraciĂłn tras iteraciĂłn. QuizĂĄ no llegue a ningĂșn lado, pero dice que el camino estĂĄ siendo fascinante. Darwinista, laplaciano y criptoateo, se especializĂł en FilosofĂ­a de la Inteligencia Artificial, neurociencias y FilosofĂ­a de la BiologĂ­a. Es por ello que algunos lo caracterizan de filĂłsofo ciberpunk, aunque esa etiqueta le parece algo infantil. Adora a Turing y a Wittgenstein y, en general, detesta a los postmodernos. Es el dueño del Blog La MĂĄquina de Von Neumann y colabora asiduamente en HypĂ©rbole y en La Nueva IlustraciĂłn Evolucionista.


Si te gusta la ciencia y tecnologĂ­a te recomiendo visitar mis otras redes pulsa la image para mas
 
BATISTA ROMER

No hay comentarios.:

Con tecnologĂ­a de Blogger.