Un reciente artículo en Nature ha arremetido contra las voces críticas, nada más y nada menos, sosteniendo que la AGI ya está aquí ¡Además con cascadas de evidencia a favor! Os ofrezco una réplica a un artículo bastante confuso y contradictorio, y que yo no hubiera publicado en Nature sin muchas correcciones si hubiese sido un revisor. Podríamos decir que el texto podría pasar mejor como una defensa de los logros que está consiguiendo la IA, que como una constatación de que la AGI ya ha llegado. Usar el término «cascadas de evidencia» es del todo inapropiado ya que absolutamente todas las evidencias que exponen son, como mínimo, controvertidas en el sentido de que está siendo discutidas por la comunidad académica (Sería interesante que el lector leyera también el artículo de Quattrociocchi, Capraro y Perc que analizamos hace poco. Son completamente opuestos).
Comenzamos.
Es de agradecer que los autores empiecen intentando acotar un poco el pésimo concepto que es «AGI», aunque, como era de esperar, no lo terminan por definir concluyentemente. Se quedan en la idea de que, a pesar de no tener una definición precisa de AGI, como nos pasa con conceptos tan fundamentales como «vida» o «salud», la que tenemos puede ser operativa o útil ya que, aunque podamos encontrar múltiples casos limítrofes muy borrosos, en términos generales, sabemos identificarla: un humano es un ejemplo paradigmático de AGI mientras que una calculadora de bolsillo no lo es. Nótese ya la debilidad del punto de partida: hay cascadas de evidencia hacia la llegada de algo que no sabemos definir… Entonces, provisionalmente o no, adoptan una definición informal: una AGI es un sistema que puede hacer casi todas las tareas cognitivas que un humano puede hacer. Y aquí lo que me hace gracia es el «casi». Por si no hubiera ambigüedad en saber qué son todas las tareas cognitivas que un humano puede hacer, convertimos la afirmación en infalsable añadiendo un «casi». Es decir, si alguien me viene a decir que tal o cual cosa no la puede hacer la IA, siempre puedo mantener mi tesis apelando al «casi». Es lo mismo que definir coche como algo que tiene casi cuatro ruedas. Entonces traigo una moto y me dicen que eso es un coche. No, respondo, tiene solo dos ruedas. Disculpa, me increpan, tiene «casi» cuatro ruedas.
Y además, unas poquitas líneas más adelante caen en una flagrante contradicción. Si nos vamos al artículo nos ofrecen una lista de cosas que no son AGI, y entre ellas destaca la «Similitud con humanos». Cito literalmente:
Systems demonstrating general intelligence need not replicate human cognitive architecture or understand human cultural references. We would not demand these things of intelligent aliens; the same applies to machines.
Se está diciendo que el ejemplo paradigmático de AGI es la inteligencia humana promedio (y no la de una calculadora de bolsillo) a la vez que se dice que la AGI no tiene por qué asemejarse a la inteligencia humana… ¡Vaya contradicción que se les ha pasado por alto a los referees de Nature!
Seguidamente en el artículo se enumeran una serie de puntos para fundamentar esa cascada de evidencia a favor de que la AGI ya está aquí. Primero nos ofrecen, como una especie de introducción, tres niveles a los que ha llegado ya la IA y que mostrarían una primera evidencia a favor de la AGI. Expongo lo que dicen los autores y las respondo:
Nivel de la prueba de Turing: parece que los LLMs superan el test de Turing de sobra. Los autores subrayan que este hecho, hace unas décadas, hubiera sido suficiente para hablar de AGI.
Respuesta: NO. El test de Turing como criterio de medida para saber si estamos ante una IA fuerte, una AGI o lo que queramos decir, está desprestigiado desde hace muchísimo. Desde 2020 el Premio Loebner, en donde se concursaba por crear un chatbot que superara el test, fue cancelado. Y es que el test de Turing solo puede detectar competencia lingüística, y eso se puede impostar muy fácilmente, tal como ya sabíamos desde 1966 con la ELIZA de Weizenbaum. Concedo que la competencia lingüística de los LLMs es asombrosa, un logro tecnológico alucinante que todavía me deja perplejo, pero la afirmación de que superar el test de Turing es suficiente para una AGI es netamente falsa, precisamente, porque el Test de Turing es una prueba muy defectuosa.
Nivel experto: Los LLMs superan, con creces, a muchísimos expertos en un montón de disciplinas. Los autores subrayan que con niveles muy inferiores de habilidad, no dudamos en atribuirles AGI.
Respuesta: de nuevo una contradicción ¿Pero no decía el artículo que una calculadora de bolsillo no era AGI? Precisamente, dicen que la AGI es ser capaz de hacer muchas tareas, en contra de la IA estrecha (la narrow AI) que apostaba por sistemas expertos en un campo muy acotado. Ahora los autores dicen que una evidencia a favor de la AGI es que tenemos todo lo contrario: sistemas super especialistas ¡Ole!
Nivel sobrehumano: los LLMs no solo superan a los expertos, sino que operan a un nivel sobrehumano.
Respuesta: no entiendo nada. En este punto, los mismos autores, reconocen que esto no es evidencia a favor de la AGI (De hecho, párrafos antes se dice que, precisamente, la AGI no es superinteligencia.). Creo que esto obedece a un problema de estructura del artículo que los revisores deberían haber mandado corregir.
Y ahora viene el grueso: una serie de diez contrarréplicas a clásicas críticas a la idea de que ya tenemos AGI. Igualmente, las enumero, expongo lo que dicen los autores y las respondo:
Son solo loros: los LLM actuales pueden resolver problemas matemáticos nuevos e inéditos, realizar inferencia estadística en contexto casi óptima en datos científicos y exhibir transferencia entre dominios, en los que el entrenamiento en código mejora el razonamiento general en dominios que no son de codificación. Además, subrayan los autores, tampoco hay garantía de que la inteligencia humana no sea una versión muy sofisticada de loro estocástico.
Respuesta: sí que concedemos que la crítica del «loro estocástico» ha envejecido un poco. Sostener que los LLMs son solo «junta-tokens» basados en motores de inferencia estadísticos, parece una descripción muy pobre de sus posibilidades. Es cierto que, aunque no sabemos muy bien del todo cómo consiguen unos resultados completamente impresionantes, pero eso, de nuevo, no implica una AGI. Los autores enfocan esto hacia la idea de que los LLMs superan la objeción de Ada Lovelace (decir que las máquinas no pueden innovar, sino solo hacer lo que su programador les indica), es decir, que son capaces de crear. A pesar de que nos podríamos ir a la peliaguda cuestión de si esto es posible (como tan bien lo trató la recientemente fallecida Margaret Boden) vamos a aceptarlo: los LLMs crean nuevo conocimiento, innovan. Vale, aceptamos que es un punto a favor de la AGI: la creatividad parece además una capacidad general que puede aplicarse a muchos dominios. Sin embargo, es condición necesaria pero no suficiente. Podríamos tener sistemas expertos que no son AGI por definición, pero que sí son creativos. Por ejemplo, ¿No podríamos decir que AlphaZero, una IA que solo jugaba al ajedrez, era creativa en su juego? Entonces, aun concediendo creatividad a las máquinas, lo cual como digo no es algo que todos estén dispuestos a hacer, necesitamos mucho más.
Carecen de modelos del mundo. Los autores subrayan que para dar ciertas respuestas a problemas, los LLMs tienen que tener algún tipo de modelo funcional de mundo. Además no solo hacen predicciones, sino que utilizan contrafácticos sin muchos problemas.
Respuesta: una crítica muy escuchada (Popularizada por el Premio Turing Judea Pearl) es la de que los LLMs solo establecen correlaciones, sin comprender la causalidad genuina, por lo que, verdaderamente no comprenden los contrafácticos. Es un tema complicado porque, como ya hemos hablado aquí varias veces, la causalidad es un problema filosófico que ha atravesado toda la historia del pensamiento sin una solución clara. Pero aquí voy a darle la razón a los autores. Verdaderamente, he hecho muchas pruebas informales en las que he preguntado cuestiones de causalidad y contrafácticos a la versión gratuita de ChatGPT y las respuestas han sido claramente válidas. No sé si tienen un buen modelo de mundo o no (también es complicado de definir qué es exactamente un modelo de mundo), el caso es que parece que funcionan como si lo tuvieran. Los autores podrían haber reforzado esta idea con la llegada de generadores de mundos como SORA o el reciente Gennie-3. Muy bien, pero de nuevo tener algún tipo de modelo funcional de mundo, no tiene por qué ser una condición suficiente para la AGI, por la sencilla razón de que éste no tiene por qué permitirte hacer todo lo que un humano hace en dicho mundo. Me explico. Por ejemplo, disponer de un modelo de mundo como el de SORA puede permitirte moverte muy bien en un mundo físico, es decir, no colisionar, predecir trayectorias, medir fuerzas, etc. pero no te dice nada de cómo comportarte en un entorno social como, por ejemplo, en una cena en casa de tu suegra. Es decir, lo que debería aquí explicitarse como evidencia a favor de la AGI es que el modelo del mundo del que disponen los LLMs es suficiente para que la máquina se enfrente con la solvencia de un humano promedio a toda situación a la que un humano promedio puede enfrentarse. Y eso nadie lo sabe o, como mínimo, los autores no lo demuestran.
Solo entienden palabras. Es falso que solo entiendan palabras ya que ahora tenemos modelos multimodales entrenados con imágenes, sonido, video… Los LLM pueden aplicar su conocimiento a tareas no lingüísticas con éxito.
Respuesta: de momento yo no he leído ni oído a nadie que diga que solo entienden palabras de la manera simplona, y mal explicada, en la que lo exponen los autores. Lo que se crítica es, o bien que no comprenden absolutamente nada (que solo tienen sintaxis y no semántica en la línea de Searle), o que, en el fondo, como su modus operandi, es la computación simbólica, siempre operan con símbolos (con lenguaje) porque traducen todo a símbolos. Lo explico: si les introduces una imagen, lo que hacen es convertirla en una matriz numérica sobre la que luego realizan cálculos, al igual que lo hacen con un sonido o con cualquier supuesta «modalidad sensorial» que utilicemos para entrenarlos. Así que no entiendo muy bien a qué se refieren los autores más que a hacer un hombre de paja con las críticas a su tesis. Además, repetimos: si los LLMs entienden las palabras, eso tampoco nos garantiza lógicamente que estemos ante una AGI.
No tienen cuerpo. Decir que sin cuerpo no puede haber AGI es falaz. Es solo un sesgo antropocéntrico ya que otorgaríamos inteligencia a un extraterrestre incorpóreo que se comunicara con nosotros mediante una radio, o a un cerebro en una cubeta.
Respuesta: Está es quizá la parte más discutible, si cabe, de todo el artículo. De hecho, hace nada, Fei-Fei Li, una peso pesado de la investigación en IA donde las hubiere, ha dicho que el siguiente paso en la hoja de ruta no está en el lenguaje, sino el espacio. La inteligencia no solo lee y habla, sino que percibe, se mueve, interactúa, habita en un mundo físico. Pero es que Fei-Fei Lei no nos ha descubierto América ahora. En las ciencias cognitivas se llevan décadas hablando de cognición corporeizada, situada, embebida, encarnada… Y en el campo de la robótica, Rodney Brooks (quizá la máxima autoridad de la historia), lleva también bastantes años criticando la IA simbólica en la misma línea (Lean su célebre «Intelligence Without Representation» de 1987 ¡Hace 39 años!). LeCun (aún siendo más computacionalista que Brooks), insiste también en que, aunque no haga falta un cuerpo en sentido estricto, la IA si que necesita percibir e interactuar en el mundo, necesitaría, como mínimo, una corporalidad funcional. Entonces parece lógico concluir que si bien sí que es posible un cierto tipo de inteligencia sin interacción con el mundo, no parece suficiente para conseguir una AGI.
Carecen de agencia. Si bien es cierto que los actuales modelos de IA carecen de agencia, ésta no parece necesaria para la AGI. Un sistema no necesita tener objetivos propios para considerarse inteligente. La autonomía es importante para la responsabilidad moral, pero no es constitutiva de la inteligencia.
Respuesta: los autores juegan con el concepto de inteligencia cómo les da la real gana. Estamos de acuerdo en que no hace falta agencia para inteligencia, pero es que no estamos hablando de cualquier tipo de inteligencia, sino de AGI, de un tipo de inteligencia cuyo paradigma, según sostienen los autores, es la humana. Y los humanos tenemos una gran capacidad para fijarnos objetivos propios, por lo que parecería razonable que una inteligencia que se pareciera a la nuestra, replicara esa capacidad. Los autores nos dicen que ya tenemos una AGI porque la IA hace todo lo que hacemos los humanos. Entonces les respondemos: no, los humanos se dan objetivos a sí mismos y la IA no lo hace. Los autores responden: no, es que darse objetivos a sí mismo no es AGI. Respondemos: ¿por que? Autores: porque lo decimos nosotros.
Carecen de sentido de identidad. Los LLMs carecen de identidad biográfica persistente en el tiempo, pero su ventana de contexto se está aumentando muchísimo de forma progresiva, de modo que la distancia entre humanos y máquinas se está reduciendo. Además, de nuevo, la identidad no es necesaria para la AGI. Una persona con amnesia retrógrada sigue siendo plenamente inteligente a pesar de no tener recuerdos de su pasado. Si bien tener una identidad personal es clave para el funcionamiento de los humanos en sociedad, no es un requisito para la AGI
Respuesta: otra vez lo mismo. Definen AGI como hacer todo lo que pueden hacer los humanos. Respuesta: para funcionar en sociedad hay que tener identidad y la IA no la tiene. Autores: es que la identidad no es requisito para la AGI. Respuesta: entonces… La IA puede hacer todo lo que hacen los humanos menos… funcionar en sociedad… ¿Y funcionar en sociedad, que es una buena parte de lo que hacen los humanos todo el tiempo, no es requisito para la AGI?
Son aprendices ineficientes. Mientras que los niños aprenden conceptos con muy pocos ejemplos, los LLMs requieren grandes cantidades, es decir, tienen una eficiencia muestral muy baja en comparación con los humanos. Sí, pero esto ignora toda la historia evolutiva de la especie: la evolución ha podido ser un proceso de preentrenamiento con millones de ejemplos. Además, la ineficiencia del proceso no implica llegar al mismo resultado, es decir, un ajedrecista que consigue la maestría en diez es tan bueno como uno que llega en uno.
Respuesta: esa crítica no va contra la AGI, va contra la idea de que sus procesos de aprendizaje sean los mismos que los nuestros y que, por tanto, su cognición sea similar a la nuestra. Es decir, que aprendan muy lento no va en contra de que sepan hacer muchas cosas diferentes, va en contra de que aprendan como nosotros y, por tanto, a favor de la hipótesis de la IA alienígena que veremos a continuación.
Alucinan. Los LLMs se inventan información falsa, pero cada vez lo hacen menos. Además, los seres humanos mienten, tienen falsos recuerdos, sesgos cognitivos e ilusiones perceptivas, y a menudo los afirman con seguridad, y eso no desacredita su inteligencia.
Respuesta: los autores simplifican demasiado. La crítica no va en la línea de que los LLMs se equivoquen a veces, sino en la forma en la que lo hacen. Por ejemplo, LeCun subraya que las alucinaciones no son un bug o un error puntual, sino un fallo estructural o sistémico de muy difícil solución. Un LLM está diseñado para generar texto plausible, no para decir la verdad. No sabe decir «no lo sé» de forma fiable porque siempre habrá un token probable que quede bien, siempre habrá una una expresión estadísticamente bien formada. Las alucinaciones han venido a demostrar que los LLMs no piensan como nosotros, lo que iría en contra de la definición de AGI basada paradigmáticamente en la inteligencia humana.
Carecen de beneficios económicos. La AGI debería estar dando unos beneficios económicos que aún no están llegando. Sin embargo, la capacidad económica es una aplicación de la inteligencia general, no un requisito para su presencia.
Respuesta: no entiendo cómo los autores responden a esta objeción tan sumamente absurda que no merece respuesta, más que, de nuevo, por el interés de hacer un muñeco de paja con sus críticos. ¿Qué tendrá que ver la AGI con generar o no dinero? ¿Hay algún crítico en el mundo que sostenga que no hemos llegado a la AGI porque ésta no está dando beneficios pecuniarios? Y si lo hay… ¿No seremos nosotros los imbéciles si le damos crédito?
Su inteligencia es «alienígena». Los LLMs se equivocan en tareas que para nosotros son triviales (como contar letras dentro de palabras), mientras que hacen otras imposibles para nosotros como resolver cuestiones científicas a un nivel de doctorado. Eso hace de ellos una especie de «inteligencia alienígena», pero esa es una razón para ampliar nuestra concepción de inteligencia general, no para negar que estos sistemas la poseen.
Respuesta: lo que está mostrando el avance de la IA en general es que estamos avanzando hacia un tipo de inteligencia muy diferente a la nuestra, pero eso no refuerza para nada la idea de AGI, sino todo lo contrario. Recuerdo por enésima vez que la «no-definición» de AGI de los autores iba en la línea de que una IA es AGI si hace todo lo que hace un humano promedio, no que haga tareas extraterrestres a nivel sobrehumano ni que tenga problemas para tareas muy ordinarias. Fijaos bien. Dicen que el hecho de que una IA tenga problemas en tareas que a nosotros nos resultan trivialmente fáciles cómo contar letras en una palabra (cuántas «p» hay en «papá») constituye una prueba a favor de que tenemos una IA capaz de hacer todo lo que puede hacer un humano promedio… ¡No saber contar letras en palabras es evidencia a favor de la AGI! Si los autores hubieran titulado el artículo «La IA alienígena ya está aquí» yo no hubiera replicado.
En la segunda parte del artículo, se habla en tono genérico de los riesgos y las responsabilidades que la llegada de la AGI conlleva. Aquí no tenemos nada que objetar más que, en vez de «AGI», los autores deberían decir «IA» sin más.
Moraleja (1): el concepto de AGI es muy malo y, dudo mucho, que aún definiéndolo mejor pueda servir para algo (Lo siento por el bueno de Ben Goertzel, que es quien lo popularizó). El artículo es muy confuso y contradictorio porque, precisamente, sus autores utilizan un concepto muy malo del que hay que prescindir. Como no saben qué es la AGI, cambian la definición de inteligencia como les conviene en cada caso en los que argumentan.
Moraleja (2): si los autores entienden que la AGI, en sentido laxo pero operativo, es la capacidad de hacer una gama indeterminada de cosas tal y como parece que podemos hacer los humanos, deberían haber argumentado a favor de la extensión (y no de la intensión) de las cosas que puede hacer ya la IA. Esa tenía que haber sido, en cualquier caso, la línea argumentativa: la IA lee, escribe, pinta, canta, sube montañas, juega al poker, hace el pino, practica sexo, etc. y NO la IA es cada vez más lista.
Moraleja (3): lo que claramente refuerza este artículo es la hipótesis de la IA alienígena. Los LLMs muestran cualidades tanto superiores a la humana (recordamos que los autores del artículo defienden que la AGI no es IA sobrehumana), a la vez que errores (las alucinaciones), o formas de actuar diferentes a los de la inteligencia humana. La IA no es como un humano promedio, es otra cosa muy diferente.
























