Image

Continuamos nuestro diálogo con el artículo «Epistemological Fault Lines Between Human and Artificial Intelligence» de Quattrociocchi, Capraro y Perc: 

(5) Fractura causal (Causality fault): Los humanos razonamos causalmente, es decir, imaginamos contrafácticos y buscamos las explicaciones, las causas de los sucesos. Por el contrario, los LLMs solo encuentran patrones, correlaciones, no explicaciones causales. Y todo hombre de bien con una mínima formación epistemológica (tristemente, algo que hoy no abunda) tiene tatuado en el cerebro la máxima: Correlación no implica causalidad. Que dos fenómenos estén correlacionados temporalmente no implica que tengan ninguna relación (Necesariamente hay que ver las divertidas correlaciones espurias de Tyler Vigen), y que los LLMs no sean capaces de ver esto es de suma gravedad: Pueden cometer errores de bulto. Y es que esto es una limitación esencial de los sistemas estadísticos. Si solo operas basándote en frecuencias estadísticas, solo puedes encontrar correlaciones. 

Objeción: el tema de la causalidad es otro problema que ha atravesado la historia de la filosofía sin solución aparente. Habría autores que defenderían que la causalidad no existe, que todo son correlaciones. Así, desde la clásica negación moderna de David Hume, tendríamos también a autores más contemporáneos como Ernst Mach o Bertrand Russell, o, en la actualidad, a van Fraassen quienes, mutatis mutandi, niegan la realidad ontológica de la causalidad. Y es que la pregunta sigue en pie: ¿Cómo los humanos diferenciamos la causalidad de la mera correlación? En teoría porque encontramos mecanismos causales, pero no siempre ocurre así. Cuando llueve, yo creo que la causa de las gotas que caen sobre mí son las nubes, pero puedo ignorar perfectamente el mecanismo físico que causa la lluvia. Es más, creo que en gran parte de lo que hacemos en nuestra vida cotidiana, ignoramos los mecanismos causales, más cuando estamos rodeados de complejos artefactos tecnológicos ¿Alguien sabría describir con precisión el mecanismo causal que va desde que enciendes la tele hasta que aparece el logo de Netflix? Si nosotros solo operamos por correlaciones en la mayoría de nuestras acciones y si en una gran mayoría de veces las correlaciones implican causalidades, una máquina que solo opera por correlaciones será competente en la mayoría de los casos. Por eso ChatGPT es tan bueno en la mayoría de los casos. Pero sí, todavía tenemos la asignatura pendiente de enseñar a pensar causalmente a las máquinas. Estoy de acuerdo con los autores del artículo en que son dos formas diferentes de pensar. 

(6) Fractura metacognitiva (Metacognitive fault): Los humanos pueden reconocer su propia ignorancia y la de otros, dudar, suspender el juicio, revisar creencias, corregirlas… Para los humanos la incertidumbre es parte constitutiva, esencial, del proceso de conocimiento. Sin embargo, los LLMs no funcionan así, carecen por completo de una representación interna de incertidumbre epistémica. Se ha repetido hasta la saciedad de que solo muestran una apariencia de respuesta coherente, por eso alucinan intentándose la información cuando no la tienen. Los ingenieros están teniendo muchísimas dificultades para solucionar este problema porque, además, la naturaleza recursiva de estos sistemas, hace que un error en pasos iniciales, se repita, e incluso se incremente, en los subsiguientes. Además, si seguimos atacando desde el lado fenomenológico, los LLMs no sienten ningún tipo de irritación ante la duda, de fricción cognitiva, es decir, no les molesta no saber algo, no sufren por la incertidumbre. 

Objeción: se están investigando muchas técnicas para intentar solucionar el problema. La primera y más obvia es hacer un fine tuning al modelo a partir de textos de epistemología intentando enseñarle a rechazar preguntas fuera de su dominio, a declarar ignorancia y a no inventar respuestas. Pero claro, el “no sé” es un output más, no un acto real de suspensión del juicio, no emerge de una evaluación interna de la verdad o falsedad de la información, sino de reglas aprendidas. El sistema no decide no responder sino que genera una respuesta del tipo “no sé” como cualquier otra. Más claro: el sistema no diferencia entre juicios y juicios acerca de los propios juicios, no puede ponerse en modo meta. Otras técnicas como el RAG, chain-of-thought, self-consistency, reflection loops, epistemic signals, etc. adolecen del mismo problema: no hay un segundo orden genuino. Otro camino ha sido el de utilizar verificadores externos controlados por humanos (el sempiterno human-in-the-loop). Quizá pueda funcionar pero el caso es que se estaría externalizando la autoridad epistémica, la metacognición estaría fuera, no dentro del propio sistema. 

(7)  Fractura axiológica (Value fault): Nuestros juicios están cargados de valores, identidad y responsabilidad. Las decisiones tienen consecuencias reales y comprometen al sujeto. Como sostiene Robert Brandom, afirmar algo es asumir un compromiso y quedar expuesto a la corrección. Obviamente, en los LLMs no hay valores propios ni compromiso ni responsabilidad con lo dicho. Parece muy ridículo regañar o castigar a Gemini cuando no nos dá la respuesta correcta. Los LLMs no son agentes morales. 

Objeción: Aquí vale también girar la mirada hacia nosotros: ¿De dónde vienen nuestros valores y propósitos? ¿Qué es lo que nos convierte o nos legitima como agentes morales? Yo aquí suelo ser muy kantiano y me gusta apelar a la intención (lo que Kant llamaba «buena voluntad», gute wille): si una máquina realiza una acción con auténtica intención estará llevando a acabo una acción moral y, por tanto, será un agente moral sujeto a responsabilidad por las consecuencias de la acción. Y aquí hay una tajante diferencia entre el hombre y la IA: las máquinas no tienen intención, solo tienen objetivos. Sus objetivos pueden ser buenos, pero solo en la medida en que han sido configurados de forma externa por humanos. No obstante, el debate no está para nada cerrado, es más, se ha abierto y es muy fecundo e interesante

Quattrociocchi, Capraro y Perc llaman, un tanto desafortunadamente a mi juicio, «Epistemia» a este estado distópico en el que ya estamos, o si no al que nos dirigimos muy rápidamente, en el que se sustituye el conocimiento por la persuasión lingüística. Adjunto el fragmento del artículo original donde lo definen (punto VI. p. 8-9):

Definimos la Epistemia como la condición estructural en la que la plausibilidad lingüística sustituye a la evaluación epistémica. Designa un régimen en el que los sistemas producen respuestas sintácticamente bien formadas, semánticamente fluidas y retóricamente convincentes, sin instanciar los procesos mediante los cuales las creencias normalmente se forman, prueban y revisan. El usuario experimenta la posesión de una respuesta sin haber pasado por la labor cognitiva del juicio.

La Epistemia no es una peculiaridad psicológica ni un mal uso transitorio de la tecnología. No se reduce al sesgo de automatización —la tendencia a confiar excesivamente en las recomendaciones automatizadas — ni a un mero problema de atribución de autoridad errónea, en el que los usuarios tratan incorrectamente a un sistema como experto. Tanto el sesgo de automatización como los efectos de autoridad pueden exacerbar la Epistemia, pero presuponen que el sistema subyacente es, al menos en principio, un agente epistémico que podría merecer o no confianza. En el caso de modelos lingüísticos extensos, esta presuposición es falsa. El problema central no es que los usuarios confíen en la fuente incorrecta, sino que interactúan con una fuente que carece de mecanismos internos para formar, mantener o revisar creencias.

La Epistemia es, en cambio, un fenómeno arquitectónico que surge cuando se insertan sistemas generativos en flujos de trabajo epistémicos sin mecanismos internos de referencia, verificación o mantenimiento de creencias. En estas condiciones, la plausibilidad se convierte en un sustituto funcional de la justificación. Lo que se optimiza no es la corrección de las afirmaciones con respecto al mundo, sino su adecuación a una distribución aprendida de usos lingüísticos.

La característica distintiva de la Epistemia es la disociación entre contenido y evaluación. En la cognición humana, el juicio está inmerso en un bucle epistémico: las afirmaciones se contrastan con la evidencia, las creencias chocan con contraejemplos y las conclusiones pueden revisarse a la luz de nueva información y la retroalimentación social. En los sistemas generativos, en cambio, no existe un locus interno donde las afirmaciones puedan ser probadas, retractadas o defendidas. El modelo no distingue entre continuaciones «verdaderas» y «falsas»; distingue entre las más y las menos probables. Lo que se genera no es lo que se sostiene, sino lo que encaja.

La Epistemia es, por lo tanto, el resultado de un desajuste preciso: una competencia lingüística altamente sofisticada sumada a la ausencia de control epistémico. A medida que los sistemas generativos mejoran, este desajuste se vuelve más peligroso, no menos. Cuanto más persuasivo se vuelve el sistema, más fácil es confundir coherencia con corrección, fluidez con fiabilidad y competencia estilística con conocimiento.

Es importante destacar que la Epistemia no depende de las tasas de error. Persiste incluso cuando los sistemas son factualmente precisos. El daño principal no es la producción de falsedades, sino la elusión estructural de la propia evaluación. Cuando las respuestas se entregan de forma definitiva, sin rastros visibles de incertidumbre, conflicto o fundamento probatorio, el usuario se coloca en una posición de pasividad epistémica. El juicio no se ejerce; se consume.

En este sentido, la Epistemia marca una transformación no en lo que se sabe, sino en cómo se produce el conocimiento. Transforma la actividad epistémica de un proceso a un producto. La pregunta operativa ya no es «¿Qué debo creer, dada la evidencia disponible?», sino «¿Qué suena correcto, dado lo que se me presenta?». Los mecanismos de escrutinio, contestación y revisión son reemplazados por mecanismos de aceptación o rechazo inmediato de respuestas prefabricadas.

La Epistemia, por lo tanto, designa una reconfiguración del entorno epistémico: un mundo en el que el acceso a resultados lingüísticamente competentes se vuelve más fácil que el acceso a creencias justificadas, y en el que la experiencia de comprensión se separa de la práctica de la justificación. Es en esta brecha —entre respuestas fluidas y cognición responsable— donde se arraiga una nueva forma de inestabilidad epistémica.

No sé si comparto con los autores esta preocupación por la pérdida de estos valores epistémicos que representan los LLMs porque entiendo que una buena cultura epistemológica es algo que nunca se ha tenido. En cualquier sociedad, solo un reducido número de gente muy cualificada tiene una adecuada formación para evaluar debidamente la justificación de cualquier relato. La gente siempre ha creído en chismes, cuentos de hadas, fantasmas y demás majaderías desde tiempos inmemoriales, y lo sigue haciendo en el presente a pesar de estar ya a más de dos siglos de la Ilustración. Internet está ya muy lleno de fakes y no veo que las alucinaciones de los LLMs vayan a empeorar mucho más esto. En cualquier caso, está bien el golpe de atención ante algo de lo que hay que estar alerta.

Imagen: Versión del Guernica de Picasso como si hubiera sido pintado por Velázquez según Gemini.

Image

Voy a establecer aquí un diálogo con el excelente (pre)artículo de Quattrociocchi, Capraro y Perc (2025) Y es que, al menos yo, es así como reflexiono: estableciendo una conversación con otros pensamientos, pensando a partir de lo que piensan otros. Nunca he sabido pensar solo. Quizá otros sepan, y lo hagan magistralmente, pero no es mi caso. Así creo que la primera acción filosófica consiste en elegir muy bien a tu interlocutor. Eso no quiere decir elegir a alguien que piensa como tú, eso no tiene nada que ver, sino elegir a alguien que piense bien, y eso para mí consiste, fundamentalmente, en que argumente con precisión. No me gustan demasiado los aspavientos retóricos ni las florituras literarias. Ya he leído demasiados textos que, al final, eran solo adornos con muy poquito jugo. Por eso los artículos científicos, aunque reconozco la sequedad y farragosidad de muchos de ellos, no me disgustan: son breves, suelen ir al grano y en ellos solo suele haber razonamientos y evidencias. Vamos a ello.

Quattrociocchi, Capraro y Perc van a establecer una radical diferenciación entre lo que hacen los LLMs y el funcionamiento de la cognición humana. Su tesis es contundente: no es que los LLMs no piensen todavía suficientemente bien, no son una simple versión degradada del pensamiento humano que irá mejorando después de más computo, datos, escala y mejores algoritmos. No, el programa de investigación en LLMs no nos está llevando a un progreso, más o menos rápido, hacia la mente humana, sino que la cognición humana y los LLMs parten de principios completamente diferentes y, por tanto, hacen cosas completamente distintas. No van a confluir en un camino final, sino que seguirán rutas divergentes ad infinitum. Los autores del artículo, al igual que LeCun, piensan que los LLMs no son la hoja de ruta, al menos, si queremos construir mentes similares a las humanas.

¿Por qué? Creo que el artículo sintetiza bien muchas de las ideas que hemos escrito durante muchos años en este blog, y otras expuestas por tantos otros filósofos, sobre todo a los dos grandes enfants terribles de la filosofía de la IA: Dreyfus y Searle. En el fondo, como voy a mostrar, todo se puede reducir al duelo de las dos grandes perspectivas en la filosofía de la IA: el enfoque computacionalista y el fenomenológico. Desde luego, desde el segundo, los LLMs no tienen nada que hacer, pero es que incluso desde el primero, yo creo que tampoco demasiado porque, como veremos, ni siquiera veo con claridad similitudes funcionales con la mente humana.

Los autores enumeran siete grandes «fracturas» que evidencian este gran abismo entre mentes y máquinas:

(1) Fractura del anclaje (Grounding fault): subrayada hace mucho por Steven Harnad (lo nombró como Symbol Grounding Problem), la idea está en que los seres humanos anclamos los significados de las cosas en referentes, en objetos, situaciones, estados de cosas, etc. Para mí la palabra «manzana» significa algo porque en mi mente representa a una manzana real, porque está anclada a un objeto real. Sin embargo, los LLMs no tienen referencias, no anclan los significados en el mundo. Según la semántica distribuida en la que se basan, las palabras significan algo solo por cercanía o lejanía geométrica a otras palabras, no por apuntar a nada fuera de las mismas palabras (o del valor numérico de los vectores que representan los tokens). En términos de Harnad, los LLMs estarían encerrados en un diccionario circular, en el que los tokens solo significan en relación a otros tokens. Podríamos objetar que es posible anclar los símbolos si dotamos a la máquina de sensores, de cámaras mediante las que «capten» la realidad. Así, ya tenemos LLMs multimodales capaces de interpretar imágenes con gran maestría. Sí, pero, en el fondo, los LLMs no «ven» la imagen, sino que, verdaderamente, la interpretan como texto, la convierten en sintaxis para procesarla. Toman la foto, la transforman en una enorme matriz en donde cada pixel es un valor numérico y luego allí buscan patrones, exactamente igual que hacen con cualquier otro tipo de datos. Los LLMs viven encerrados en un círculo simbólico del que nadie sabe cómo sacarlos.

Objeción: Si nos damos una vuelta por toda la bibliografía científica en torno a la percepción, por ejemplo, del ojo (lo más estudiado), parece que podría encajar con la idea del procesamiento computacional (De hecho, las redes neuronales artificiales como el perceptron o las redes convolucionales se inspiran en la neurobiología de la percepción). En la retina existen millones de células fotosensibles (los famosos conos y bastones), que traducen la información lumínica a pulsos nerviosos, y éstos sí que parecen comportarse como interruptores binarios que conducen la información a través del nervio óptico a diferentes zonas del cerebro. A día de hoy no sabemos cómo a partir de aquí se genera la imagen integrada que constituye una imagen visual (es el binding problem). Honestamente no sabemos casi nada (por mucho que nos vendan narrativas con apariencia de conocimiento completo), pero lo poco que sí sabemos encaja con la idea de un procesamiento computacional. Y es que el problema está en cuál puede ser la explicación diferente: ¿cómo se puede explicar el anclaje simbólico de un concepto a una imagen de otra forma? ¿Cómo salimos los humanos de este círculo simbólico? Mi humilde opinión es que solo sabemos una pequeña parte de película y que todo es bastante más complejo. Creo que el cerebro opera a muchísimos niveles y que el disparo eléctrico es solo uno de ellos, por lo que nuestros actuales modelos computaciones son todavía solo pobres caricaturas de la realidad.

(2) Fractura de análisis (Parsing fault): parece muy obvio que el cerebro humano no segmenta el lenguaje mecánicamente en tokens a los que asigna un peso estadístico. Da más bien la impresión que utilizamos bloques completos con significado, esquemas conceptuales, reglas de inferencia, usos lingüísticos, contextos culturales, valoraciones de relevancia práctica… en fin, todas esas cosas de las que nos ha hablado la lingüística durante muchos años. Parece muy obvio que la mente no hace reajustes de pesos por backpropagation cada vez que no acierta el significado de una palabra.

Objeción: A lo mejor, a nivel sub-simbólico e inconsciente sí que lo hace de alguna manera así, aunque nuestra consciencia no lo capte de ese modo al hablar o escribir. A fin de cuentas, yo estructuro gramaticalmente mis frases de manera competente sin estar pensando conscientemente en conjugar el verbo o poner tal preposición delante o detrás de tal adverbio. Sí, pero aún así creo cuando ejecutamos el lenguaje lo hacemos a partir de un trabajo en equipo de esa parte inconsciente y automática, y de otra consciente que dirige y selecciona. No veo eso reflejado en la arquitectura de los LLMs.

(3) Fractura de experiencia (Experience fault): Nuestros juicios sobre el mundo se apoyan en nuestra memoria episódica, en intuiciones adquiridas, comprensión tácita, psicología intuitiva o nuestra física de sentido común. Mediante estas capacidades ponderamos la plausibilidad de los acontecimientos en el mundo. Nada de eso parece darse en los LLMs. No tienen ningún tipo de biografía, de trayectoria vital, de aprendizaje histórico que dé sentido a su afirmación y acciones. Sí, aprenden, pero desde luego ese aprendizaje no tiene nada que ver con el nuestro. Ningún LLM ha aprendido a desconfiar de las personas después de haber sufrido bullying en la escuela. Es por esto que me hizo mucha gracia este artículo en el que psicoanalizan a Grok, Gemini y ChatGPT ¿A qué entidad, a «quién» pensaban que estaban psicoanalizando? Y encima llegaban a conclusiones como que estos sistemas generan narrativas coherentes sobre infancias traumáticas con padres estrictos y miedo al error y al reemplazo… ¿Están de broma? No hay pasado, no hay una línea temporal captada por un individuo en la que se ordene ese pasado traumático, no hay ningún tipo de sujeto psicológico capaz de sentir miedo, estrés, ansiedad… ¿No saben que un LLM es un motor de inferencia estadística que genera texto convincente con un claro sesgo afirmativo hacia lo que el usuario quiere leer?

Objeción: Aunque los LLMs no son así en principio, podríamos diseñar un sistema con historia propia, con una narrativa coherente desde su comienzo, que sea capaz de secuenciar temporalmente los sucesos que ocurrieron durante esa trayectoria, etc. Sí, podríamos diseñar un LLM así, pero eso solo le otorgaría coherencia narrativa ¿Toda nuestra identidad psicológica se reduce a «ser una historia coherente»? Obviamente no. Pensemos el alguien que sufre de amnesia retrógrada. Ha perdido sus recuerdos, pero sigue siendo él como entidad subjetiva capaz de pensar, sentir, etc. Y es que los LLMs son solo palabras, son solo generadores de lenguaje, y yo creo que las mentes humanas somos bastante más que lenguaje.

(4) Fractura motivacional (Motivational fault): Los LLMs no sienten ningún tipo de deseo por conseguir sus objetivos, no sienten motivación hacia ningún fin propio, no se preocupan por intereses ni metas internas. Me gusta decir que las máquinas siempre están perfectamente motivadas: tienen un objetivo externo y siempre lo persiguen con absoluta obstinación, sin ningún tipo de bajón motivacional, dando siempre el 100%. No se desaniman, son despiadadamente implacables como tan bien se nos mostró en el Terminator de Cameron.

Objeción: Los actuales modelos razonadores son capaces de descomponer un objetivo en subobjetivos, y de ese modo podrían ponderar la relevancia de unos subobjetivos sobre otros, dedicando más tiempo a unos que a otros. Serían entonces capaces de elegir fines internos propios en función de la relevancia para el objetivo final y, en este sentido, podrían apostar por «esforzarse más» en los que creen más relevantes. De acuerdo, aquí sí que podríamos diseñar un modelo funcional con cierta similitud con el humano, sin embargo, seguiríamos fallando en el aspecto fenomenológico: la máquina continuaría sin sentir deseo ni motivación real hacia su objetivo. Las computadoras no sienten sed ni hambre, no sienten necesidades ni biológicas ni psicológicas de ningún tipo.

Image

Para no alargarme demasiado, seguiremos con las tres fracturas que nos faltan en otra entrada.

P.D.: la imagen al comienzo de la entrada es una fotografía antigua de un sistema de control de un reactor nuclear, tal y como hubiera sido pintado por Velázquez según ChatGPT.

Image

Llevo unos días un tanto consternado porque, a pesar de que estoy completamente seguro que mi blog es leído fervientemente en Silicon Valley, ahora se están duplicando los trabajos y publicaciones que hablan de consciencia en grandes modelos de lenguaje con desenfadada frescura y sin demasiado pudor. No obstante, también me da cierta alegría que el campo de la machine consciousness, que lleva décadas estancado (si es que alguna vez llegó a arrancar), parezca acaparar cierto interés por parte de nuevos investigadores.

El otro día discutí brevemente en X con el prestigioso informático teórico alemán Joscha Bach, uno de los defensores de que la consciencia es un proceso plenamente implementable en una computadora, un proceso de alto nivel mediante el que se experimenta la realidad como una simulación funcional, que el organismo utiliza para orientarse en el mundo (idea muy similar a la ATTENTION SCHEMA THEORY de Michael Graziano o a la postura de Karl Friston). Lo interesante es que a la conversación se unieron otros interlocutores que, en línea con Bach, me presentaron objeciones. El debate estuvo comedido y fluyó bien. A veces, X no es el pozo de basura que suele ser, sino que se puede conocer gente interesante, se puede dialogar de forma educada y compartir  buena información. Es la red en la que estoy más activo (si os apetece soy @vnmachine).

Voy a ofrecer aquí un pequeño diálogo inspirado en esas conversaciones. En negrita las preguntas de mis interlocutores:

1. Si no sabemos lo que es la consciencia, ¿cómo se puede asegurar categóricamente que la IA no es consciente?

a) En ciencia (y en filosofía) no se puede afirmar nada categóricamente (Eso solo puede hacerse en demostraciones lógicas). Además, acusar a tu interlocutor de parecer mostrar demasiada certeza solo por afirmar o negar algo, es una técnica retórica fea que puede usarse con cualquier afirmación y que intenta, de forma mezquina, señalar al afirmante como dogmático. Si yo digo que Beijín es la capital de China, se me puede acusar de lo mismo. Verdaderamente no estoy 100% seguro. No he estado allí, no he hablado con las autoridades chinas para que me informen con claridad de la ubicación de su capital. Es más, incluso si hubiese hecho eso podíamos seguir manteniendo la duda, apelando a que podríamos estar en Matrix, en el Show de Truman o soñando.

b) No sé con absoluta certeza si los LLMs son conscientes, solo digo que hay tantas razones para sostenerlo que las que hay para decirlo de mi smartphone. Quizá mi smartphone sea consciente como afirma el panpsiquismo, pero si no aceptamos el panpsiquismo (y no lo aceptamos), difícilmente creeremos que tanto mi smartphone como ChatGPT son conscientes.

c) En ciencia (y en filosofía), la carga de la prueba es de quien afirma, no de quién niega. Si un ingeniero me dice que los LLMs son conscientes, es ese mismo ingeniero el que tiene que aportarme evidencias a favor de su tesis. Desde mi punto de vista (y tengo razón, jaja), no hay evidencias suficientes (ni de lejos), para justificar que los LLMs son conscientes. Que dispongamos de unos motores de inferencia estadística que han mostrado una excelente solvencia en el manejo del lenguaje o, incluso si se quiere, que han mostrado una fuerte inteligencia, no dice nada acerca de su consciencia. Hay una clara confusión entre las habilidades cognitivas superiores y la consciencia, cuando, verdaderamente, no tienen porqué tener nada que ver. Hay un acuerdo, más o menos explícito, entre los investigadores que se dedican a la consciencia, en hablar de consciencia en organismos vivos con una inteligencia muy limitada. Si aceptamos que un pez puede ser consciente y aceptamos también que un pez no es un animal muy inteligente, parece que no hacen falta unas altas habilidades cognitivas para la consciencia.

d) Sí que sabemos cosas de la consciencia, y cada vez más. Hace unas décadas dedicarte a investigar la consciencia era poco menos que un suicidio académico, pero en el presente ha renacido con mucha fuerza el estudio sobre la consciencia. Y, para sorpresa de nadie, lo que sabemos de la consciencia, no encaja para nada en el funcionamiento de los LLMs. Desarrollamos esto en la respuesta b de la pregunta 4.

2. Verdaderamente, solo tienes certeza de que tú eres consciente. Cuando otorgamos consciencia a nuestros congéneres o a otros seres vivos lo hacemos solo a través de la observación de la conducta. Si vemos que las máquinas se comportan igual que nosotros, ¿no estaríamos exigiéndoles algo que no exigimos a los demás para otorgarles consciencia?

De nuevo volvemos al problema de la innecesaria certeza. Yo solo estoy seguro de que yo soy consciente (Y ni eso: véase la crítica de Hume a Descartes), pero parece muy, pero que muy, razonable, pensar que organismos que se comportan como yo son conscientes. Así, parece de sentido común decir que mi padre, mi madre, mis hermanos, mis vecinos, etc. son conscientes. Y por si alguien no le parece suficiente podemos recurrir al argumento de la mejor teoría, que viene a decir que es razonable escoger una tesis, a pesar de que se alberguen dudas sobre ella, sencillamente porque la opuesta es muy mala. En este caso prefiero creer en que los demás seres humanos y parte del mundo animal son conscientes, a creer lo contrario, a saber, que los demás humanos que conozco son una especie de robots desalmados que se hacen pasar por seres conscientes para ignoro qué maquiavélico plan.

Pero entonces, si las máquinas se comportan como los seres conscientes ¿esto no basta? No, y me explico. No solo creemos que los demás humanos tienen consciencia porque se comporten como si la tuviesen, sino porque, interiormente, disponen de un sistema nervioso igual que el nuestro. Pensemos qué diríamos si vemos a un hombre comportándose igual que un humano consciente, pero luego descubrimos que carece absolutamente de cerebro y de todo sistema nervioso… ¿No pensaríamos entonces que su consciencia ha sido impostada de alguna extraña forma? Imaginad la macabra visión: ¡una marioneta vacía comportándose como una persona! ¿Por qué nos sentiríamos horrorizados? Porque para otorgar consciencia la conducta es insuficiente, hace falta «abrir el capó» y ver la máquina por dentro. Y aquí es donde las semejanzas se derrumban: los LLMs no tienen semejanza alguna con el tejido nervioso de los seres vivos. Si queréis echad un vistazo al artículo de Pham, Matsui y Chikazoe (2023), o al de Katyal, Parent y Alicea (2021), si bien es algo que parece bastante obvio ya a bote pronto: las redes neuronales artificiales son una casi infantil simplificación de la insondable riqueza del tejido nervioso del cerebro humano.

3. Eres un chauvinista del carbono. Nada nos dice que la consciencia solo pueda darse en sistemas nerviosos ¿Qué tiene de especial el carbono que no tenga el silicio?

De nuevo, moviendo la carga de la prueba al que niega. No estoy diciendo que la consciencia solo pueda darse en seres biológicos, solo estoy diciendo que, de momento, solo la conocemos en seres biológicos. Entonces, a falta de saber más, parece una buena hoja de ruta, primero investigar para conocer mejor, y luego intentar emular, lo que sea que ocurra en los sistemas biológicos que genere consciencia. Lo que me parece no solo muy prematuro, sino incluso rozando lo intelectualmente deshonesto, es, dado el estado de la cuestión, sostener que sí, que ya tenemos consciencia en silicio.

4. Vale, pero para que algo cumpla la misma función no tiene por qué darse en el mismo substrato. La música, por ejemplo. Una sinfonía de Mozart  puede ejecutarse desde una cinta de radiocassette, desde los surcos de un vinilo,  desde los voltajes de un circuito o desde las cuerdas de un violín, y no tenemos ningún problema en decir que es la misma música. Si conductual o funcionalmente, replicamos la consciencia en máquinas (lo que se llama en filosofía de la mente consciencia funcional o de acceso), ¿qué más da el sustrato? Por tanto, si los LLMs se comportan funcionalmente como seres conscientes ¿por qué no les atribuímos consciencia?

Una argumentación más interesante. En este blog ya hemos hablado varias veces sobre los problemas de la tesis de la independencia de substrato o realizabilidad múltiple, pero vamos aceptarlo por mor de la argumentación. Aceptamos que si conseguimos replicar funcionalmente la consciencia en una máquina esa máquina es consciente. Sin embargo, dos objeciones serias:

a) No conocemos bien la función de la consciencia. Todo parece indicar que algo tan aparentemente sofisticado no es un epifenómeno, sino que tiene que ser una adaptación biológica, tiene que tener alguna función biológica. El problema está en que si tú puedes construir una máquina que hace todo lo que hace un ser consciente, pero sin consciencia, ¿para qué entonces la consciencia? Por ejemplo, si una máquina lee la longitud de onda de la luz que llega a su sensor y determina que su objeto es «rojo» sin sentir en ningún momento el qualia «rojo», ¿para qué vale el qualia rojo? Algunos, como mi querido Dan Dennett o Patricia Churchland, optaron por quitar de en medio los qualia designándolos como un concepto obsoleto tal como lo es el flogisto, el éter o el calórico, a la vez que hacen malabares para no prescindir de algo tan real y obvio para todo ser humano como es la experiencia consciente. Yo no lo tengo nada claro y ahí ando a vueltas con unos y con otros, pero el caso es que si no conocemos bien la función de la consciencia, razón de más para ser prudentes a la hora de afirmar que los LLMs son conscientes.

b) Sí que sabemos algunas cosas de la consciencia y no se ajustan, para nada, a las cualidades de los LLMs. Siempre recurro a la lista que hace Gerald Edelman y Giulio Tononi en el magnífico El Universo de la consciencia. Allí nos dan una buena serie de características de la consciencia. Por ejemplo, su privacidad (nadie más tiene acceso a mi experiencia), su carácter unitario e integrado (mi experiencia consciente se me presenta como un todo coherente de todas mis modalidades sensoriales), variada en intensidad (puedo estar muy atento a algo o apenas darme cuenta), dirigida (mediante la atención), quizá equiparable a la memoria a corto plazo, con un funcionamiento serial y limitado (no se nos da bien la multitarea consciente) y parecida a un flujo contínuo (la famosa definición de William James). La consciencia parece un «espacio» subjetivo, un «lugar» en el que sentimos, deseamos, sufrimos, anhelamos, amamos, odiamos, percibimos el paso del tiempo, saboreamos un sabroso filete, olemos el aroma de un embriagador perfume, tenemos orgásmos, nos duelen las muelas, sentimos miedo al leer un libro de Stephen King, envidiamos el nuevo coche del vecino… La consciencia es ese extraño lugar donde transcurre nuestra vida y sin el cual nada tendría ni el más mínimo sentido. Es por eso que decimos que el único órgano que no querríamos que nos trasplantaran es el cerebro, porque ahí, de alguna extraña manera, se entreteje nuestra experiencia consciente. Entonces, cuando hablamos de esta riqueza del mundo consciente y luego analizamos el funcionamiento de un LLM… ¿Alguien encuentra algún encaje? ¿Tiene algo que ver el mecanismo de transformers que pondera la importancia de cada token dentro de un contexto lingüístico con todo lo que acabamos de decir? ¿En serio que alguien puede creer verdaderamente que un LLM tiene ese espacio subjetivo en el que sufre, ríe, sueña… solo porque coloca tokens de forma adecuada? ¡Eso es un non sequitur de libro!

5. Tu perspectiva es terriblemente antropocéntrica. Es posible que la máquina no tenga una experiencia consciente similar a la humana ¿Cómo te atreves a poner la consciencia humana como vara de medir toda consciencia?

Pues sí amigo, mi perspectiva es antropocéntrica porque lamentablemente no tengo ni la más remota idea de cómo será otro tipo de consciencia (Recordad el murciélago de Nagel). Y lo que hacen en la actualidad los ingenieros que intentan crear consciencia en máquinas es intentar imitar las cualidades de la consciencia humana en dichas máquinas ¿Qué podemos hacer si no? Ojalá conociéramos qué se siente al ser una estrella de mar (si es que se siente algo) pero a día de hoy no nos queda otra que trabajar con lo que sabemos.

Además, argumentar de esa manera es cometer mi querida falacia del falso escocés: cambiar la definición en el curso de la discusión para que se reencaje. Me explico. Te propongo argumentos en contra de la idea de que un LLM sea consciente, y cuando no los puedes rebatir redefines tu posición: pues consciencia a lo mejor no es eso, a lo mejor las máquinas tiene otra cosa diferente. Y por supuesto, no dices absolutamente nada de esa cosa diferente que «sienten» las máquinas. Y otra vez más la carga de la prueba: si dices que las máquinas tienen otra forma de sentir el mundo tienes que traerme argumentos y evidencias a favor de eso, no pedirme a mí que te demuestre que eso no es posible.

6. A fin de cuentas, tanto las máquinas como nosotros solo somos un conjunto de átomos, ¿por qué entonces no vamos a poder construir consciencia sintética?

Tienes toda la razón, nadie dice que no vayamos a poder construir nunca consciencia sintética ¡Yo mismo trabajo en intentar conseguirlo! Pero eso no dice nada en contra de la afirmación de que los LLMs no son conscientes. Sí, la consciencia ha de responder a una combinación concreta de átomos, pero te aseguro que los LLMs no constituyen la configuración de átomos adecuada.

7. Los nazis exterminaron judíos negándoles su humanidad, al igual que ahora los israelitas hacen lo mismo con los palestinos. Cuando deshumanizamos a otros seres humanos, justificamos su maltrato ¿No estarás justificando eso mismo con las máquinas? ¿Y si verdaderamente fueran conscientes y capaces de sufrir? ¿No habría ya que otorgarles derechos y defensa legal? Desde tu postura estaríamos negándoles estos derechos ¡Estas justificando un apartheid del silicio!

En términos generales, en mi vida defiendo que no hay que tener actitudes destructivas con nada ni con nadie: obviamente con personas y animales (en mi casa me cuesta hasta matar a una mosca), pero también con máquinas y objetos. A mis hijos les digo que hay que tratar bien todas las cosas, y me enfado mucho cuando rompen algo por romperlo. Dicho esto, yo haría una llamada de precaución cuando nos estuviéramos acercando bastante más a la consciencia. Si, verdaderamente, comenzáramos a construir dispositivos en los que comienza a entreverse con rigor y seriedad la posibilidad de que puedan sufrir, habría que supervisar experimentos y legislar. Siempre he defendido la idea que allí donde exista la posibilidad de sufrimiento, allí hay un sujeto de derechos. Sin embargo, tranquilos, a día de hoy estamos tan lejos de construir consciencia en máquinas que no tienes que preocuparte por borrar un programa o porque tu smartphone pase «hambre». Tengo instalado en mi ordenador LM Studio, un software para ejecutar LLMs en local. He descargado y ejecutado algunas versiones de Llama, Mistral o Gemma, y después de juguetear un rato las he borrado ¿Habrán sufrido por ser eliminadas? ¿Lo que he hecho puede ser equivalente a matar gatitos? No, por Dios. Seamos serios.

DOS IDEAS CLAVE:

1. Se confunde constantemente el concepto de información con el de consciencia. Si yo hago un pequeño robot para que llegue a una meta esquivando obstáculos en un circuito, podría programarlo con un «contador de dolor» que sume 1 cada vez que el robot colisiona con un objeto. Entonces, programo una red neuronal artificial para que minimice la función del contador del dolor. Pongo el robot en el circuito (mejor en una simulación para ahorrar muchísimo tiempo) y entreno a la red. Todo funciona muy bien y consigo que el robot esquive obstáculos y llegue a la meta sin problemas. Incluso si observamos sus movimientos, vemos que son muy gráciles, casi como los de un ser vivo en el mundo real. Entonces nos preguntamos: ¿siente dolor mi robot cada vez que se choca con un obstáculo? ¿Siente deseo de llegar a la meta? NO, claro que NO. El robot tiene información de su entorno, pero no consciencia. Incluso si hacemos que el robot sea mucho más inteligente añadiéndole funciones: un mapa tridimensional, ajustes de control de aceleración, algoritmos de optimización de trayectorias… NO, nada de eso va a dar un ápice de consciencia al robot. Estamos confundiendo tener información de algo con ser conscientes de algo, por lo que sumar más y más información podrá hacer la máquina más inteligente, pero no más consciente.

Mi smartphone tiene cierto «auto-conocimiento» de sí mismo: «sabe» de su nivel de batería. El indicador de la pantalla se llega a poner rojo cuando la batería está muy baja ¿Tiene mi smartphone auotoconsciencia? ¿Comienza a sentir mi smartphone hambre cuando tiene la batería al 20%? No, de hecho es que mi smartphone no tiene un sí-mismo, no tiene un «sujeto» que «sepa» lo que le ocurre, no tiene ninguna identidad que delimite qué es su «Yo» y qué no lo es. Esto lo hablamos más detenidamente en esta entrada.

2. Se confunde el hecho de que la simulación computacional sea una maravillosa herramienta para estudiar la mente con la tesis de que la mente es una simulación computacional. De nuevo voy a repetir una muy manida metáfora para explicar esta idea: En tu ordenador creas una excelente simulación de una vaca con un altísimo nivel de detalle. En la granja virtual que has creado para ella, la vaca se comporta de manera absolutamente indistinguible de una vaca real. Es más, tu programa es tan bueno que te podría servir de herramienta para predecir el comportamiento de vacas reales. Sin embargo, la vaca de tu simulación no podrá darte leche que tú puedas saborear. Por mucho que la ordeñes virtualmente, su leche no te quitará el hambre. Solo podrá darte leche simulada. Pues igual nos pasa con la consciencia. Las herramientas matemáticas que simulan comportamientos conscientes podrán ser muy útiles guías de la investigación, pero no son conscientes. Se está confundiendo el mapa con el territorio.

Image

Image

Continuamos con la colección:

«Nunca sabes de qué peor suerte te ha salvado tu mala suerte». Frase atribuida al escritor Cormac McCarthy en su libro No Country for Old Men (del que los Coen hicieron la fantástica película que inmortalizó al personaje interpretado por Javier Bardem, Anton Chigurh). Cuando haces un amargo análisis de tu vida y piensas que eres un desgraciado, verdaderamente, no sabes si tu desgracia te ha salvado de una vida aún más desgraciada. Y es que, realmente, ignoramos completamente lo que nos hubiera deparado escoger otros caminos. La conclusión no puede ser más estoica: acepta lo que te viene porque nunca sabrás si fue lo peor, o lo menos malo de entre otros futuros peores. 

Lo que diga la rubia. Utilicé esta expresión por primera vez en una divertida, y pedagógica, discusión en la red con el filósofo Jesús Zamora. La usé para referirme a cuando apelamos a lo que la ciencia dice sobre un asunto para zanjar una polémica. Solemos decir: «Sobre esto no hay discusión, la ciencia ya ha demostrado tal o cual». Esto tiene una parte buena y una parte mala. La buena es que el conocimiento científico es el conocimiento más fiable del que disponemos, por lo que intentar justificar una tesis apelando a él es de lo más saludable (de aquí la belleza de la rubia), y los filósofos deberían recurrir a él muchísimo más de lo que lo hacen. Sin embargo, apelar a la rubia no tiene en cuenta que el conocimiento científico no es infalible y es, en términos generales, bastante precario (la rubia es tonta. Perdonad por el machismo). Me explico: sobre todo en temas controvertidos, uno se da cuenta de que hay artículos científicos a la carta, para defender cualquier postura (el cherry picking está a la orden del día); o también se comprueba que hay artículos cuya validez hay que coger con muchas pinzas (muestras muy insuficientes y probablemente contaminadas, metodología bastante pobre o dudosa, no han sido replicados…). En general, yo al menos, para aceptar una verdad empírica con cierta certeza, espero varios artículos en la misma dirección, metaanálisis, artículos del estado del arte, white papers… Y eso es un gran problema porque lleva tiempo, esfuerzo y, además, en muchos casos no hay solución porque no hay respuesta concluyente, porque muchas cosas todavía no se saben con certeza (y quién sabe si se sabrán más adelante). Al igual que pasa en la filosofía, en la mayoría de las ciencias, las grandes cuestiones permanecen abiertas, discutidas durante siglos y en continua revisión. La ciencia no es, desde luego, un conjunto de verdades indudables. Así que os animo a defender mucho más lo que diga la rubia, pero teniendo muy en cuenta que las rubias son tontas (de nuevo perdón). 

Verschlimmbessern. Es una palabra alemana que viene a significar «Empeorar más las cosas mientras se intentan arreglar». Es una pena que no tengamos una palabra para esto en castellano, porque la veo muy necesaria: ¿Cuántas veces se estropea algo mucho más en nuestro intento de arreglarlo? Es más, ¿cuántas veces estropeamos algo por intentar mejorarlo sin que ni siquiera funcionara mal antes? De hecho, creo que, en cómputos globales, casi me atrevería a decir que esos penosos intentos de arreglo han hecho más daño a la humanidad que las propias averías. Gran consejo: si algo funciona, no lo toques. 

Paradoja del Nirvana. Consiste en proponer una solución perfecta, aunque inalcanzable, para un determinado problema, de modo que cualquier otra solución imperfecta, pero viable se invalida. En consecuencia, se paraliza cualquier solución. O dicho en la frase atribuida a Voltaire: «Lo mejor es enemigo de lo bueno». Y es que yo he sido siempre enemigo de lo perfecto, de lo puro… ¿Cuántas veces me ha pasado que no sigo escribiendo un buen texto únicamente porque no es perfecto? Si buscas la perfección, jamás harás nada, siempre estarás enfadado, frustrado ante una realidad siempre imperfecta, incompleta, fallida… ¿Cuántas mujeres se han quedado solteras por esperar a su príncipe azul?

Dato no mata relato. Desgraciadamente así es. Conocí a mi mujer en un instituto de secundaria en donde trabajé (Ella es profesora de matemáticas). Cuando empezamos a salir, nos fuimos de excursión de fin de curso con los alumnos a un crucero por el Mediterráneo. Un año y pico después nació mi primera hija. El caso es que se extendió el rumor de que la niña había sido engendrada en ese «romántico crucero del amor». Si hacemos un sencillo cálculo, no cuadran las cuentas: mi hija nació unos cuantos meses más tarde de los nueve meses después del crucero. Era matemáticamente imposible que fuese engendrara en un camarote frente a las costas de Sicilia, pero el relato era demasiado bonito para ser falso. A pesar de que en algunas clases expliqué a los alumnos de tal imposibilidad, dio completamente igual. Años después se seguía contando que mi hija, cual Afrodita, nació de las espumas del Mediterráneo. La creencia en los relatos es muchísimo más fuerte que la creencia en los datos. Moraleja: no creo que sea buena idea combatir los relatos con otros relatos. Sería combatir mentiras con mentiras. Entonces no nos queda otra que no minusvalorar el enorme poder de los relatos y redoblar nuestros esfuerzos por combatirlos en todos los frentes. La Ilustración fue insuficiente, es necesaria otra y mucho más fuerte. En eso estamos. 

Sin paper no follo. Esta es la rubia enfadada con razón. Estoy sumamente harto de encontrar textos de aclamados filósofos soltar afirmaciones basadas exclusivamente en su experiencia personal, o en las lecturas escritas por otros que también se basaban exclusivamente en su experiencia personal. Cuando alguien dice, por ejemplo, «Vivimos en una época de decadencia moral sin precedentes», hay que decirle: ¿Cómo lo sabes? Quiero que precises lo que entiendes por «decadencia» y por «moral», y quiero un análisis comparativo entre distintas épocas que justifique tu afirmación, quiero el estudio estadístico en el que se vea con claridad el aumento de conductas inmorales. Si quieres hablar de la realidad y que tu afirmación sea universalizable, necesariamente, tienes que basarte en estudios de campo, tienes que basarte en datos. Si quieres que tu opinión pase de ser una opinión de cuñado a algo más serio, documéntate, porque he follado ya demasiadas veces sin paper, y no quiero contagiarme de ninguna enfermedad de transmisión pseudointelectual.  

Posibilidad nomológica. Hace referencia a la afirmación de que no existe ninguna norma que prohíba la posibilidad de algo. Por ejemplo, es muy común pensar, por ejemplo, que llegaremos a Marte, que curaremos el cáncer (o todas las enfermedades), viviremos doscientos años (o incluso seremos inmortales), que podremos subir nuestra mente a un ordenador… ¿Qué evidencia científica hay a favor de todo esto? Escasa o, al menos, insuficiente para respaldar la posibilidad. Verdaderamente, no sabemos si podremos o no, pero hay un optimismo desaforado con respecto a las posibilidades de la tecnología (Esa es la crítica fundamental que yo hago al transhumanismo: viven en un optimismo ciego, cuasi religioso). Y en último término, el argumento que utilizan para defenderse es la posibilidad nomológica: como nadie ha dicho de forma concluyente que no se puede, sí se puede. Desde luego, como argumento es bastante pobre: recordemos que la carga de la prueba es para quien afirma, y si quien afirma solo dice que nadie le ha dicho hasta ahora que no…   

«Los límites de mi lenguaje son los límites de mi mundo». Muy manida cita de Wittgenstein, pero no por ello menos cierta. Cuando escucho a algunos alumnos hablar entre ellos y compruebo la extrema pobreza de su vocabulario, de sus estructuras gramaticales, de sus descripciones… ¿Cómo de pequeño, empobrecido, miserable, y a la postre disfuncional, es su mundo? Veo esa falta de detalle, de agudeza, de finura… No hay ironías, no hay dobles sentidos, como si miraras la realidad con trece dioptrías en en cada ojo, siempre como un elefante en una cacharrería. Pero lo peor es que esos límites lingüísticos también suponen límites a lo que pueden imaginar, a los futuros posibles que ellos deberían crear. Tengo alumnos de diecisiete años que no quieren salir de su pueblo, que no les interesa saber qué hay más allá de la finca de su abuelo. Vidas enteras vividas en un radio de cuatro kilómetros. Y así creo que una buena definición de educación podría ser, precisamente, esta: ampliar mundos, sacar a esos chicos de su pueblucho inmundo y enseñarles a soñar con realidades mucho mejores. La educación ha de suponer siempre una ruptura de fronteras, una fractura de hábitos, tópicos y lugares comunes. La educación ha de violentar un pensamiento perezoso y aletargado por la siempre cateta y provinciana costumbre. Salimos de la Edad Media cuando el mundo se hizo inmenso, cuando descubrimos que había mucho por descubrir. Enseñemos entonces inmensidades. 

Imagen: Canción de amor (1914) de Giorgio de Chirico. 

Image

Seguimos con nuestra colección de píldoras mentales

Tener razón estando equivocado. En la agradable terraza de un bar sevillano, discutía yo con mi cuñada sobre la, a mi juicio, excesiva preocupación que suele mostrar ella por las características y composición de los alimentos que toma. Es la típica persona, cada vez más común hoy, que defiende que la mayoría de lo que comemos contiene un montón de «química» altamente nociva para la salud. Por aquel agosto de 2019 estaba embarazada, por lo que mantenía una estricta revisión de todo lo que ingería. Así, jamás comía jamón serrano, queso, patés, pescados y mariscos crudos, etc. Entonces pedimos unas tostas de carne mechada. Ella, inmediatamente sospechó que la carne mechada podría no estar en buen estado o no haber sido cocinada con suficientemente cuidado, por lo que podría contener  la famosa bacteria Listeria monocytogenes. Yo le espeté que no se preocupara tanto, que las probabilidades de que eso ocurriera eran bajísimas, que si pensamos de ese modo no deberíamos ni salir a la calle a riesgo de que nos caiga un rayo. La carne mechada es una de las tapas más famosas de Sevilla, sirviéndose diariamente miles de raciones en la ciudad y no se había notificado nunca ningún caso de listeriosis asociado a su consumo. La carne mechada no es carne cruda (esa sí que no se recomienda a las embarazadas), sino que es cocida, habitualmente, en olla a presión. ¿Qué probabilidad habría entonces de comer una ración que no hubiera sido cocinada adecuadamente y que, además, contuviera bacterias de listeria? ¿Cuántos órdenes de magnitud por debajo del uno por ciento? Pues en agosto de 2019 se dio en Sevilla un brote de listeriosis asociada al consumo de carne mechada (El único que se ha dado hasta la fecha en la que escribo este texto). Mi cuñada, algunos miembros más de mi familia y yo nos infectamos. Afortunadamente, no tuvo ningún problema en su embarazo (si bien pasó varios días ingresada en observación en el hospital) y el que lo pasó peor fui yo, unos días con un poco de fiebre y diarreas. Nadie sufrió nada más que un buen susto y mucha perplejidad ante lo que nos pasó. El caso es que, aunque la probabilidad me traicionó salvajemente, como si un dios malvado y con mucha ironía, quisiera castigar mi arrogancia, yo tenía razón: era absolutamente razonable comer carne mechada. Si me encontrara de nuevo en la misma situación, seguiría defendiendo que había que comerla. Y es que se puede tener razón estando equivocado.

Todas las decisiones que has tomado en tu vida te han llevado aquí. No recuerdo ni dónde ni cuándo leí u oí esa frase (perdóneme el autor que no lo cite), pero me parece una sentencia deliciosamente divertida para cuando uno se encuentra en una situación ridícula. Aprender a reírse de uno mismo es todo un arte que se debe cultivar con seria disciplina. En estos tiempos donde el ego lo parece todo, encontrarse frente un estrepitoso y grotesco fracaso, decirse a uno mismo que todas y cada una de las decisiones que ha tomado a lo largo de su larga vida le han llevado a esa irrisoria situación y aún así reírse, es lo más saludable que puede hacerse. Con este sabio consejo te acabo de ahorrar cientos de páginas de estéril autoayuda.

La debilidad de la razón. Cuando era pequeño, pongamos que unos once o doce años, era estrictamente racionalista en en el sentido de creer que, si uno tenía la razón, podía conseguir todo. Me explico. En esos años me dedicaba a jugar con los populares gijoes, unas figuras de acción bélica basadas en una serie de dibujos norteamericana. Estaba entonces enzarzado en una sangrienta batalla cuando un amigo lanzó contra un vehículo mío (Era el Ice Sabre de Cobra) una ristra de misiles. Dicho vehículo estaba armado con unos cañones antimisiles muy potentes que usé sin dudar. Sin embargo, mi amigo no lo aceptó, alegando que esos cañones no podrían destruir sus misiles pues no tenían capacidad antiaérea. Afortunadamente, los vehículos de Gijoe traían un detallado documento gráfico de especificaciones técnicas (yo lo amaba), que podía usarse para zanjar esas disputas. Efectivamente, allí ponía «Rear side mounted cannons with anti-aircraft defense capability» ¡Tenía razón! ¡Mis cañones podían con sus misiles! Ya está, había ganado. No tan deprisa. Mi amigo dijo que no, que le daba igual lo que pusiera en el informe técnico, que sus misiles habían destruido mi vehículo y punto. Al final nos enfadamos y mi ex-amigo se fue a su casa (No os preocupéis, hicimos las paces días después). Y aquí viene la moraleja: en ese momento descubrí una verdad que partió algo dentro de mí para siempre: la razón no puede con todo. La razón solo vale si tu interlocutor acepta las reglas del juego, pero si no, no hay nada que hacer. A partir de ese día siempre me he sentido un poco más indefenso, más desnudo ante el mundo.

Image

El imperativo categórico. Creo honestamente que la ética kantiana es el planteamiento filosófico más sofisticado jamás pensado acerca de la moral. Y eso hace que tenga a Kant, a pesar de su farragosa, y a todas luces nefasta, forma de escribir (y no vale decir que en alemán se le entiende mejor, por que no), como, junto a Aristóteles, el filósofo más importante de todos los tiempos. Sin embargo, las críticas de excesivo rigorismo que se le aplican me parecen también muy acertadas. Si viviéramos intentando que todo lo que hacemos fuese una ley universal… ¡No podríamos vivir! ¡Es imposible! Seríamos más que santos, mártires absolutos. Y es que, como bien veía Nietzsche, detrás de Kant está todo el cristianismo en bloque. Y sí, si entendemos bien el cristianismo (siempre digo que Agustín de Hipona es el que mejor lo entendió, mejor que Tomás de Aquino, que ya hace otra cosa), es una clara invitación al martirio en esta vida para conseguir el paraíso en la otra ¿Podríamos martirizarnos jubilosamente, felices por cumplir el mandato divino? Quizá alguien pueda… pero eso ya no es propio de los humanos corrientes y molientes. Por eso yo, pobre hombre donde los hubiere, intento ser kantiano pero, a veces, voluntariamente lo olvido, y quedo con Lucrecio y con Horacio. Un dicho popular en mi tierra es: «En todos los trabajos se fuma».

Bios theoretikos. Es la maravillosa expresión que usa Aristóteles para referirse a la vida dedicada a la contemplación filosófica. Para el estagirita está vida es superior a una vida dedicada a otros menesteres, porque se ajusta más a la naturaleza racional de los hombres y nos acerca más a los dioses. Yo no estoy seguro de ello porque creo que hay muchas formas de vivir que pueden ser también muy satisfactorias. Todo depende de las circunstancias, preferencias y deseos de cada uno. Siempre me ha parecido de una arrogancia terrible pensar que la vida intelectual te hace mejor o superior a los demás. Tampoco creo que dedicar tu vida a interpretar extraños símbolos escritos en láminas de celulosa sea lo más propio del ser humano, o, al menos, no más propio que pegar patadas a un balón o beber cerveza. De hecho, creo que más bien es para gente un tanto rara, con una cierta excentricidad que la aleja del promedio humano. La bios theoretikos es para un tipo muy concreto de perfil personal (quizá con algunos puntitos patológicos), y solo ese perfil particular podrá degustar los placeres y también los sinsabores, que este estilo de vida conlleva. Así que ojito con las estupideces del «¿Pero en serio que no has leído a Dostoievski?» porque pueden contestarte «¿Pero en serio que no te invitaron a la fiesta?».

Normalización. Del célebre libro de Viktor Frankl, El hombre en busca de sentido, saqué dos moralejas, una buena y una mala. La buena es que el ser humano tiene una capacidad de adaptación tan grande que puede sobrevivir, y ser feliz, incluso en el entorno más hostil posible, incluso en Auschwitz. Desde luego es un mensaje reconfortante. Pero la mala también es esa: el hombre puede adaptarse a cualquier situación y terminar por verla como normal, incluso en Auschwitz. Por eso, en la vida hay que tener mucho cuidado con qué aceptamos y qué terminamos por considerar normal. La normalización conlleva insensibilización, es decir, normalizar algo puede convertirte, sin que te des cuenta, en un monstruo. Y luego se puede dar un paso más: de normalizar a naturalizar, a ver como natural. Eso es lo que se creía en la Edad Media sobre el orden estamental: el noble es superior al plebeyo por naturaleza, porque Dios así ha dispuesto el mundo (Ya si consigues que el orden natural esté justificado por la divinidad llegas al top de la perversión). Mucho cuidado con la triada: normalizar-naturalizar-divinizar.

Técnica Ludovico. Es la forma cool que en la Naranja Mecánica se llama al condicionamiento clásico de Pavlov. Para erradicar su conducta sociopática, Alex DeLarge es sometido a la visualización de escenas violentas mientras se le inoculan drogas que le causan sensaciones de angustia y displacer. El objetivo es que el refuerzo negativo cause que Alex asocie violencia con malestar, y de esa forma se convierta en una persona pacífica y civilizada.  Muchas veces sueño lo fantástico que sería disponer para mis clases un táser para premiar con descargas eléctricas a esos alumnos a los que tanto les gusta el jolgorio en clase. Desde luego, se portarían mejor. Sin embargo, a pesar de los méritos del conductismo, creo que lo más interesante que puede sacarse de él es su fracaso. El aprendizaje por condicionamiento, ya sea pavolviano o por operante libre, funciona bastante bien en ratas, pero como ya vio muy bien Chomsky, los seres humanos somos mucho más complicados y el condicionamiento no siempre funciona con nosotros ¡Menos mal! Y es que siempre me ha parecido que intentar explicarlo todo a partir de un aparataje conceptual tan sumamente pobre, ese binomio estímulo-respuesta junto con la reducción de todo, y absolutamente todo, a conducta, no podía dar para mucho más (a pesar que también se ha intentado estirar el concepto de conducta para que en él todo quepa). Con el tiempo se reconvirtió y ahora el conductismo viene con  variados ropajes, pero sigue sufriendo de esa indigencia. Tuvo que llegar el cognitivismo para rellenar todo ese hueco. A día de hoy, si tengo que ir a un psicólogo, miro que debajo de su nombre, en el cartel de la puerta de su despacho, ponga «cognitivo-conductual», y si no salgo corriendo.  

Image

Aunque entre mis colegas del gremio de filósofos no gusta mucho, a mí me simpatiza lo que se conoce como el Círculo de Viena. En la década de los felices años veinte del siglo pasado, un grupo de intelectuales de diversa índole se reunían en Viena en torno a la figura de Moritz Schlick. Su proyecto filosófico consistió en encontrar un criterio de demarcación entre auténtica ciencia y lo que denominaban pseudociencia. Grosso modo, y con muchas matizaciones, sostuvieron que una proposición era científica si era susceptible de verificación experimental, es decir, si existiera un método tal que se pudiese contrastar dicha proposición y comprobar si es verdadera o falsa. Con esto arremetían directamente contra toda la tradición metafísica occidental. Y es que conceptos como Dios, mente o realidad, los tres grandes temas de la metafísica desde Descartes, distan mucho de ser objetos empíricos. Independientemente de que este proyecto resultara fallido en gran medida (No es tan fácil la drástica separación: al final dejaban fuera de la ciencia gran parte de la ciencia tradicional), me parece un estupendo toque de atención contra tanto desmán y tanta charlatanería. Creo que en nuestra época, en donde el exceso de información es el gran problema, necesitamos herramientas para limpiar, purgar, esclarecer entre tanta y tanta basura.

La herencia contemporánea de esta idea la llevaron a cabo Sokal y Bricmont con sus célebres Imposturas Intelectuales que, aunque, al final, no tuviera tanto alcance como ellos hubiesen querido, sirvió para  sacar a la palestra los abusos de esta inflación de verbosidad que asola tantas aulas, librerías y seminarios. Cada vez pienso que la filosofía contemporánea se parece mucho, en el peor sentido entiéndase, al arte contemporáneo (de hecho, muchos de estos impostores conciben que la filosofía y el arte están muy cerca): igual que te venden una tortilla deconstruida una cama deshecha por un dineral, Byung-Chul Han vende millones de libros sin, prácticamente, elaborar un solo argumento. Pero es que, igual que el plátano de Cattelan, Han es muy cool, tiene flow. Llamadme carca, pero a mí la provocación por la provocación en el arte hace mucho que ya no me dice absolutamente nada. Y en Filosofía, la continua denuncia a la deshumanización de una sociedad contemporánea materialista, narcisista y vacía, debido al tecno-capitalismo me aburre mucho, no por otra cosa sino porque ya se ha dicho hasta la saciedad (¿No hace ya casi un siglo de la Escuela de Frankfurt?). Quizá sea porque me voy haciendo viejo, pero creo que hace falta una nueva filosofía que se salga de estos caminos tan sudados, más cuando a pesar de esa concienzuda crítica al sistema, el propio sistema parece gozar de más salud que nunca.

El simpar Raymond Smullyan cuenta una fantástica anécdota para ilustrar la idea:

En el sentido más bonito del término, creo que el pianista Artur Schnabel debe haber sido una de esas personas [positivistas lógicos que lo eran sin saberlo]. Hace tiempo asistí a tres conferencias fascinantes que Schnabel pronunció en la Universidad de Chicago. En el coloquio que siguió a una de las conferencias, alguien de preguntó qué pensaba de sus últimas críticas.

«No leo mis críticas», replicó Schnabel, «al menos no en América». El problema de los críticos americanos es que cuando me hacen una observación, nunca sé qué hacer con ella. Sin embargo, en Europa es diferente – por ejemplo, una vez di un concierto en Berlín. El crítico escribió: «Schnabel tocó el primer movimiento de la sonata de Brahms demasiado rápido.» Reflexioné sobre el tema y me di cuenta de que aquel hombre tenía razón. Pero sabía lo que podía hacer al respecto; ahora, simplemente toco el movimiento más despacio. Pero cuando los críticos americanos dicen cosas como: «El problema de Schnabel es que no pone suficiente claro de luna en su interpretación», ¡entonces sencillamente no sé qué es lo que debo hacer!».

Smullyan Raymond, 5.000 años a. de C. y otras fantasías filosóficas

Y esta es la moraleja: hay que aprender de Schnabel y aplicar un poquito más el positivismo lógico del Círculo de Viena. No hay nada más saludable, ya no para abordar un problema filosófico, sino para tu quehacer diario, que transformar cualquier obstáculo en algo, al menos, abordable, algo sobre lo que cabe realizar una acción para corregirlo.

La vida es muy corta para perder tantísimo tiempo.

Image

Continuamos con la saga

Adanismo. Es la creencia errónea de pensar que cuando uno hace o dice algo, es la primera vez que eso se ha hecho o dicho. Con esto en mente, cada vez que escribo algo sé que, aunque la inconsciencia o el olvido me exoneren en cierta medida, estoy copiando a alguien. O, peor aún, estoy diciendo algo de forma mucho peor que alguien ya lo hizo hace mucho, es decir, estoy degradando la idea original. Por eso, mucho cuidado con ir de creadores o descubridores de grandes ideas; la historia de la humanidad ha sido ya muy larga y todo se ha dicho. Pero entonces, ¿no podemos decir nada? Sí, claro. Tu época es nueva, así que de lo que se trata es de decir lo ya dicho desde la perspectiva de tu momento: ahí estará la novedad.

El ingeniero del Titanic. Cuando se estrenó la fastuosa Titanic de James Camerón, yo fui de aquellos imbéciles que presumía de no haberla visto, apelando, como todo adolescente que se creyera Oscar Wilde, a su vulgaridad mainstream. El caso es que cuando la vi tampoco me pareció tan mala (aunque tan poco tan buena como para tanto Óscar) y, de hecho, tiene ciertos detalles que me llamarón la atención. Uno de ellos es cuando el ingeniero naval Thomas Andrews Jr. (interpretado por Victor Garber), aceptando que el barco ya se va a hundir y que él, como caballero que es y reconociendo su fracaso, se hundirá con él, mira un reloj sobre la repisa de una chimenea y lo pone en hora con su reloj de bolsillo. El hundimiento del Titanic representa el fracaso de la arrogancia de la razón ilustrada. Andrews Jr. pensaba que su barco era inhundible, que sus cálculos y sus diseños eran perfectos, pero se topó de lleno con la infranqueable naturaleza. El hundimiento del Titanic es una grandísima llamada de atención sobre los errores del, desgraciadamente casi siempre en las alturas, ego humano. Sin embargo, el detalle del gesto de poner el reloj en hora aún sabiendo que ya no tiene sentido, me pareció la clave. La ciencia, la ingeniería, la tecnología, en definitiva, la razón ilustrada, es, desde luego a mi juicio, de lo mejor que ha parido nuestra civilización. Por eso, a pesar del Titanic, del Hindenburg, de Hiroshima, o (en mucha menor medida pero muy ilustrativos) de los cohetes de Space-X que saltan en pedazos en el cielo, yo seguiría poniendo el reloj en hora de la misma forma que Andrews Jr. Nuestra ciencia y nuestra tecnología, son falibles, precarias, continuamente equívocas, pero son las artífices principales de muchas de las mejores cosas de las que disfrutamos hoy. Así que sí, aunque el meteorito estuviese a cien metros de nuestra atmósfera, yo seguiría poniendo el reloj en hora.

Error categorial. Expresión que se hizo famosa por la obra de Gilbert Ryle, sencillamente, significa que tratamos los elementos incluidos en una determinada clase como miembros de otra clase diferente. Usualmente, en literatura es un recurso estilístico muy lícito. Cuando digo «Tu mirada es el faro que ilumina mi camino» estoy dando la propiedad de iluminación a larga distancia propia de un faro, a un proceso o acción, «mirada» o «mirar», que, realmente, no la tiene. Pero en literatura no nos importa el error categorial, solo la expresividad de la imagen que evocamos. Sin embargo, en filosofía esto no debería ser así.  Y muchos errores filosóficos son, precisamente, cambiar las cosas de clase. Por ejemplo, si yo digo que las normas morales son como cadenas en el sentido en que no dejan hacer ciertas cosas, diré algo correcto. Sin embargo si digo que las normas morales «pesan», «tienes eslabones», o que «te encadenan a las paredes», tendré que tener cuidado de no llevar la metáfora demasiado lejos. No estoy diciendo que utilizar el error categorial de forma consciente no sea una forma interesante de investigar, no nos pueda servir de heurística, solo que he de ser muy consciente de que estoy haciendo un uso metafórico. Es lo que nos ha pasado con la afirmación, que para mi perplejidad es asumida hoy en día por muchos, de que «la mente es un computador». No, la mente hace cosas de forma similar a los computadores, la mente procesa información, tiene memoria, calcula… pero ¡cuidado! No es lo mismo tener semejanzas de clase que pertenecer a la misma clase ¡Mucho cuidado con hasta dónde llevamos la metáfora del computador!

Epokhé. Los griegos utilizaban esta expresión para referirse a la suspensión del juicio, a no posicionarse u opinar sobre un determinado tema. Creo que deberíamos practicarla más. Muchas veces se nos exige que opinemos de todo: ¿Qué piensa del apagón, del nuevo Papa o de la mujer de Sánchez? Yo, personalmente, de esos tres temas no tengo ninguna opinión sólida. La razón es que, o bien son temas que no me interesan, o no tengo los conocimientos suficientes para tener una tesis firme con respecto a ellos. Mi tiempo es muy limitado, por lo que no puedo dedicarme a saber sobre todo, y como creo que es un deber ético no hablar hasta no estar muy bien informado, me niego a opinar de todo. Así que se me antoja bastante sano dudar de aquellos que opinan de todo porque, o bien lo hacen sin demasiado fundamento, o bien repiten lo que las «autoridades» dicen sobre el tema, o bien siguen intereses de otros que les mandan opinar. Humildemente, hay que decir muchísimo más «No lo sé».

L’espirit de l’escalier. Expresión acuñada por el ilustrado Denis Diderot para referirse a ese diablillo que nos dice un montón de brillantes sentencias que podríamos haber dicho en nuestro discurso, pero solo lo hace cuando hemos bajado del estrado, cuando hemos bajado la escalera ¿Cuántas veces nos ha pasado que hemos estado especialmente torpes en una discusión y luego, tiempo más tarde, se nos ocurren decenas de buenos argumentos que podríamos haber utilizado? A mí muchísimas y, es más, es algo que me hace sufrir mucho. Tengo un muy malvado diablillo de la escalera que me recuerda una y otra vez mis desaciertos, y no se cansa de repetirme cientos de formas de haber salido airoso que yo no supe ver cuando tocaba.  

Philosophe malgré moi. Dennett, con mucha razón, decía que Quine era filósofo malgré lui, era filósofo a su pesar. Eso es algo que, igualmente, me caracteriza a mí. Mi relación con la filosofía siempre ha sido un agridulce tira y afloja. Me ha dado grandes placeres intelectuales, pero también grandes decepciones. La inmensa mayoría de los filósofos actuales no me dicen mucho, me parecen poco más que charlatanes, sofisticados cuñados o flipados infantiloides, y con la edad va a peor: cada vez les tengo menos paciencia (obviamente hay muy honrosas excepciones). El caso es que, aunque huya de ella, vuelvo a encontrármela en cada rincón, a veces seduciéndome cual femme fatale, a veces acorralándome sin dejarme salida. En fin que sí, que soy filósofo, aunque odie incluso que me presenten como tal. 

Opacidad hermenéutica. Cuando comencé la carrera de Filosofía, el primer año, en la asignatura de Antropología Filosófica, me mandaron leer Ser y Tiempo de Heidegger. No entendí una palabra pero, pensaba yo, eso es porque soy un ignorante y estúpido alumno de primero; cuando sepa mucho más quizá podré adentrarme en las profundidades de este genial pensador. Falso. Cuando pasaron los años y otros profesores se encargaron de explicarme a Heidegger tuve una ingrata revelación: ¿En serio era esto? ¿Detrás de ese intrincado lenguaje solo había esto? Ser-para-la-muerte, dasein, autenticidad, cuidado-de-sí… ¿Estas frivolidades eran las que estaban detrás de todo? ¿Y el señor Heidegger no pudo escribir esto en unas diez o doce páginas con lenguaje claro y conciso? ¡Pues claro que sí! Esa forma de escribir es puro postureo, es ocultar con una jerigonza incomprensible lo que, verdaderamente, es falta de contenido. No es que no lo hayas entendido, es que no hay nada que entender: hay opacidad hermenéutica.  Lamentablemente, en filosofía parece que oscuridad es sinónimo profundidad.  Y, encima, se ha acusado a autores que escriben con claridad como, por ejemplo, Ortega y Gasset o Bertrand Russell, de ses ligeros o superfluos ¡Manda huevos!. Es más, escribir de forma ininteligible es asegurarte que en la posteridad, un batallón de tristes exégetas van a pasar años y años debatiendo si querías decir A o decir B. No, hay que dejar las cosas claras: escribir así es ESCRIBIR MAL, y punto. Así, mi solución es clara: cuando detecto que un autor empieza a expresarse con una innecesaria inflación terminológica y veo que no hay afán de claridad, dejo automáticamente de leer. Si no ha tenido la cortesía de expresarse con claridad para el lector, el lector no tiene por qué tener la cortesía de seguir leyendo. Hay muchísimos más autores que escriben fantásticamente bien esperando ansiosos a que abras sus libros ¿Por qué perder el tiempo leyendo a esta tropa? Vale, pero, ¿eso quiere decir que leer siempre tiene que ser una tarea cómoda y fácil? No. Leer a Aristóteles, o un artículo sobre geometrías no euclídeas, puede ser difícil, pero no porque el autor oscurezca el texto a propósito o escriba rematadamente mal, sino porque hace falta una formación previa para manejar el lenguaje técnico que allí se usa. Ya os digo yo que no es el caso de Heidegger o, casi peor, Deleuze, Guattari, Derrida, Lacan, Foucault… Insisto: hay océanos de libros escritos con deslumbrante y pulida prosa como para perder el tiempo con esta peña. 

El primer trago de cerveza. La fatídica filosofía de Schopenhauer sostenía que la vida humana era esencialmente infeliz, porque siempre oscilaba entre dos momentos: el primero en el que somos infelices porque no tenemos lo que deseamos y luchamos por conseguirlo, y el segundo en el que caemos en el tedio y en la apatía cuando ya tenemos lo que habíamos deseado. El ciclo se reinicia constantemente, ya que de ese tedio y de esa apatía surgirán nuevos deseos y necesidades que, más pronto que tarde, nos harán sufrir de nuevo. Quiero el último Iphone y trabajo duro por conseguirlo, pero cuando lo tengo, en muy poco tiempo me aburre, ya no me sacia, y entonces me lanzo a la conquista de un MacBook. Es el mito de Sísifo del que habló Camus, una eterna lucha sin sentido entre el deseo y el vacío. No obstante, yo no comparto esta visión, o al menos, no en la parte más importante. En primer lugar, cuando deseamos algo y luchamos por conseguirlo no estamos constantemente en un estado de infelicidad terrible. Es más, los momentos de espera del premio suelen ser los más felices. Siempre recuerdo que cuando era pequeño disfrutaba muchísimo viendo los escaparates de las jugueterías, soñando con poseer tal o cual juguete. O, también pensemos que el trabajo que realizamos para saciar el deseo no tiene por qué ser terrible. Trabajar puede ser muy satisfactorio. Por ejemplo, si yo trabajo como médico curando a enfermos, es posible que me sienta muy feliz y satisfecho con la tarea que realizo. Y, en segundo lugar, el tedio y la apatía no aparecen ipso facto, nada más conseguir mi objeto de deseo. Es posible que cuando pasen unas semanas ya no tenga mucha ilusión con mi Iphone, pero hasta entonces puedo disfrutarlo mucho. Me gusta poner el ejemplo de uno de los pequeños-grandes placeres de la vida para mí: el primer trago de una cerveza. Cuando aprieta el tórrido calor veraniego en Granada, tengo sed y sufro con la sequedad de mi garganta. Entonces abro un tercio de cerveza muy fría y echo un primer trago tremendamente placentero. Me encanta saborear su fresco amargor y sentir el leve dolor que causan las burbujas en mi garganta. Es cierto que el segundo y el tercer trago de cerveza ya no tendrán el mismo efecto, serán algo peores. Sin embargo, eso no quita nada de lo maravilloso que es el primer trago. Y es más… ¡Habrá muchísimos más primeros tragos! 

 

Image

Anders subraya otra idea interesante: la desconexión directa con las consecuencias de nuestras creaciones tecnológicas. Si yo soy un técnico de la General Atomics, y en California ensamblo piezas de un dron de combate Mk-1 Predator, nunca veré al producto de mi trabajo lanzar misiles sobre guerrilleros hutíes en Yemen. Es muy probable que no tenga ni idea ni dónde ni contra quién va a usarse. Esa distancia produce indiferencia moral. Si ni conozco, ni siquiera veo ni tengo casi noticia, de las víctimas de los misiles de mi dron, no me siento nada responsable de su suerte. Cuando las consecuencias de una acción ocurren en un lugar lejano y poco definido, cuanto menos concreto y más abstracto sea, menos me sentiré responsable de ello. Y es que estamos programados para que nos importen los que están cerca, los nuestros, los que se parecen a nosotros; y al contrario, a sospechar del raro, del diferente, del extranjero. En mis clases suelo hacerles a mis alumnos esta pregunta: ¿A quién salvarías antes de ser asesinado? ¿A tu perro o a mil personas en Sudán del Sur? La respuesta es siempre casi unánime: a la mascota.  Esto nos lleva a una compleja diatriba: ¿cómo conseguimos entonces tener un comportamiento ético con personas que no nos importan? ¿Cómo vamos a ayudar a la gente de Sudán del Sur si nos importan mucho menos que nuestro perro? Mi solución es que hay que ser más kantianos: ayudamos a la gente de Sudán del Sur no porque nos importe en absoluto, sino porque debemos hacerlo. Hay que hacer lo correcto con independencia de lo que nos haga sentir. 

Sin embargo, siguiendo la lógica de Anders, el desfase prometeico de la tecnología contemporánea favorece esta indiferencia moral y emocional. Si eres un neandertal y fabricas un bifaz que usas para matar a otro, recibes todo el impacto moral de tu acción: no hay desconexión entre fabricación y uso de la herramienta, tú mismo ejecutas la acción y contemplas el rostro de tu víctima mientras muere (recordemos «la mirada del otro» de Emmanuel Lévinas). Has sido plenamente consciente de todo el daño causado por tu acción. Por el contrario, el técnico del Mk-1 Predator termina la jornada laboral y se va muy feliz con su familia a cenar unos tacos de pescado y unos burritos californianos. Es más difícil ser kantiano en la distancia, en la desinformación, en el olvido. 

Otro concepto interesante de Anders ligado al desfase prometeico es el de la «vergüenza prometeica»: el sentimiento que siente el hombre al verse superado por su creación. Es lo que sintió Kasparov al ser derrotado por Deep Blue, o Le Sedol al perder contra AlphaGo. Si las máquinas nos superan, ¿qué nos quedará por hacer? El ser humano quedará obsoleto, expulsado de su protagonismo como sujeto de la historia ¿Por qué pintar un cuadro si una IA lo puede hacer infinitamente más rápido y mejor? ¿Por qué escribir una poesía si una IA puede generar miles en lo que tardas en coger el lápiz? ¿Cómo se enfrentará el orgulloso ser humano a esa vergüenza, a esa inferioridad? ¿La aceptará sin más y se dedicará al ocio y al bienestar que la IA podrá otorgarle? ¿O se enfrentará a su creación en un brote ludita? No obstante, aquí de nuevo estoy en cierto desacuerdo con Anders. En primer lugar, creo que el momento en el que las máquinas nos superen y nos hagan sentir esa vergüenza aún no ha llegado , y está mucho más lejos de llegar de lo que piensan muchos (No sé el lector, pero yo no me siento nada inferior a ChatGPT) . Y en segundo, creo más en que la IA va a ir avanzando mucho más como herramienta que como sustituto. El ser humano no va a quedar obsoleto tan aprisa. Y, en cualquier caso, creo que las consecuencias no serían tan graves. Un automóvil corre mucho más rápido que Usain Bolt y eso no ha quitado un ápice del reconocimiento por los logros del atleta; tenemos grúas capaces de levantar miles de toneladas y eso no hizo que no nos quedásemos boquiabiertos cuando Hafþór Júlíus Björnsson batió el récord de levantamiento de peso muerto este mismo año, con 505 kilogramos; en ajedrez, las máquinas nos machacan inmisericordemente desde hace muchas décadas y eso no quita nada de la admiración que sentimos hacia Magnus Carlsen. Son muchísimos los ejemplos en los que las máquinas lo hacen mejor que nosotros y las consecuencias no han sido emocionalmente tan drásticas como supone Anders. Yo, la verdad, uso la calculadora de mi móvil para dividir la cuenta del restaurante, sin sentir demasiada vergüenza prometeica porque su capacidad de cálculo sea muy superior a la mía. 

Bien, ¿y cuál es la solución que propone Anders ante este colapso moral? Algo bastante obvio: una ética de la anticipación. Hay que recuperar o reforzar nuestra capacidad de imaginar las consecuencias de nuestras producciones tecnológicas. No puede ser esperar al horror para tomar medidas después: hay que anticiparse. Esta tesis me recuerda a, probablemente, la mejor idea que ha dado un pensador español a la historia de la filosofía en los últimos tiempos: el concepto de eficiencia tecnológica de Miguel Ángel Quintanilla. Un artefacto es eficiente sí, y solo sí, utiliza las medios más económicos para llegar a sus objetivos, y nada más que a sus objetivos. Dicho en otras palabras, para construir una máquina eficiente debemos ser capaces de predecir todos los efectos no deseados inicialmente que pueda producir. El reto: es sumamente difícil, si no imposible, predecir todos los efectos secundarios que tendrá una tecnología, más cuando evoluciona en el tiempo y en un entorno cambiante. No obstante, que sea complicado no quiere decir que no sea lo que hay que hacer; más viendo que hoy se lanzan artefactos al mercado sin el más mínimo estudio de impacto. Pensemos, muy seriamente, en los LLMs: cajas negras lanzadas al gran público… ¡Y ahora con funciones de agente! 

Anders sostiene que hay que deshacerse de la funesta «Si algo puede hacerse, debe hacerse». Hay que rehumanizar la tecnología y devolver la centralidad a la ética en las decisiones tecnológicas. Hay que reforzar el papel de la política y de la deliberación democrática en la toma de decisiones de programas de desarrollo tecnológico que tienen consecuencias en las vidas de todos. Volvemos a recordar el gran problema que supone que media docena de empresas controlen la IA mundial, muy por encima de cualquier poder institucional. 

Post data: si os ha interesado esta entrada, podéis matricularos en el máster en Ética Digital de UTAMED, donde voy a impartir dos asignaturas, una de fundamentos filosóficos de la IA, y otra de Ética para perfiles técnicos. Perdonadme por la autopublicidad.

Image

Voy a hacer al menos dos entradas sobre algunas ideas de la filosofía de la tecnología de Günther Anders, y voy a utilizarla como prisma para analizar algunos aspectos de la IA, que para eso valen los filósofos, para usarlos como instrumentos de observación del presente. 

Günther Anders fue un filósofo polaco muy preocupado por la destrucción del mundo en los tiempos de la Guerra Fría, fue un tenaz pacifista y activista contra el desarrollo de bombas atómicas. Mantuvo una correspondencia con el norteamericano Claude Eatherly (piloto del avión de reconocimiento climático que seleccionó el objetivo al Enola Gay en el lanzamiento de la bomba sobre Hiroshima) que publicó en una obra titulada Burning conscience de 1961, lo que le valió a Anders ser considerado un comunista y una persona non grata en Estados Unidos. Y es que Eatherly sentía una culpabilidad tan grande por su colaboración en Hiroshima que se dedicó a cometer delitos para que lo ingresaran en prisión y así expiar de algún modo su culpa. Esa actitud le valió pasar buena parte de su vida entre la prisión y el manicomio para veteranos de Waco, y a ser considerado una figura incómoda, como todo pacifista, para el clásico belicismo institucional yankee. Hoy lo tacharían de woke. 

Anders publicó su obra más importante, La obsolescencia del hombre, en dos tomos con más de veinte años de distancia el uno del otro: 1956 y 1980. En ella desarrolla una interesante idea: el desfase prometeico. Podría resumirse en que vivimos en una época en la que nuestra capacidad de producción tecnológica supera con creces a nuestras capacidades de comprender, imaginar, sentir o asumir éticamente sus consecuencias. Hemos perdido la capacidad de controlar y siquiera de representar simbólicamente nuestro desarrollo tecnológico. Por esa razón Eatherly no podía asumir lo que había hecho. La bomba atómica es algo tan atroz, representa un desfase prometeico tan grande, que nadie puede asumir la responsabilidad por algo así. Desborda toda categoría moral. 

Según Anders, uno de los rasgos del desfase prometeico es que la tecnología moderna ha comenzado  a progresar según su propia lógica interna, con total independencia de nuestras necesidades éticas y políticas. Aplicando esta idea a nuestro presente más inmediato, estamos teniendo el caso de que muchos de los responsables de las grandes tecnológicas de inteligencia artificial nos dicen que ésta es muy peligrosa, incluso un riesgo existencial para la humanidad, a la vez que mantienen una tenaz «carrera armamentística» por estar a la cabeza de su desarrollo. Todos pusimos una mueca irónica cuando Elon Musk firmaba la famosa carta en la que pedía una moratoria de seis meses en el avance de la IA, a la vez que se apresuraba a crear Grok. Da la impresión de que todo el mundo está muy asustado y nadie sabe qué va a pasar, a la vez que la IA avanza por sí sola a un ritmo cada vez más rápido, como si los seres humanos no pudiésemos hacer nada al respecto, como si una fuerza extrahumana, sobrenatural, estuviera impulsando el advenimiento de la lovecraftiana super inteligencia.

Yo, siempre he estado en contra de esta idea, que no es más que el clásico determinismo tecnológico. Creo que decir que la tecnología evoluciona con una lógica interna independiente del ser humano es una forma burda, tanto de exonerar a los responsables del desarrollo tecnológico de su responsabilidad, como de paralizar todo intento de detener cualquier tecnología perniciosa ¡Claro que el ser humano tiene que ver con el desarrollo tecnológico! ¡Y claro que el ser humano puede parar el desarrollo de tal o cual tecnología! Entonces, ¿por qué no lo hace? En el caso de la IA hay dos razones fundamentales: primera, la pura y dura codicia, tanto por el rédito económico como por el reconocimiento social. Fue un tanto vergonzosa la visita de Sam Altman a una Europa en la que sus autoridades lo recibieron como un mesías, cuando más bien habría que haberle tirado bastante de las orejas. Y segunda, que no llegan a creerse que la IA sea tan peligrosa o que, en el caso de que los riesgos se disparen, creen que ellos mismos van a ser capaces de sortearlos. Es una estrategia política muy vieja crear un problema a la vez que te vendes como el único capaz de solucionarlo.

Así que lo que hay que hacer es no creerse tanta patraña, plantar cara y pelear por un uso más ético y beneficioso de la IA. Detrás de toda tecnología hay personas con diferentes cuotas de responsabilidad a los que hay que pedir cuentas. Por ejemplo, estos días hemos visto una progresiva ruptura con la promesa de no utilizar la IA para uso militar por parte de las bigtechs. En este mismo mes de julio,  OpenAI, Google, Anthropic y xAI, han firmado contratos de hasta doscientos millones de dólares cada uno, para fomentar las capacidades de IA en el Departamento de Defensa de Estados Unidos. Y sí, desgraciadamente para estos tipos, ser diseñador de armas que se usan para matar, aunque sean otros los que las usen (incluyendo agentes de IA autónomos), no te libra de tu parte de responsabilidad. Todos los físicos que participaron en el Proyecto Manhattan sabiendo lo que hacían tienen cuota de responsabilidad en Hiroshima. 

Sin embargo, sí que creo que  la tesis de Anders es cierta en un sentido. Si el control de la IA está en manos de media docena de empresas cuyo poder está por encima de las instituciones políticas y democráticas, sí que hemos perdido el control sobre ella. Quizá sea un rasgo del capitalismo tardío, postcapitalismo o como queramos llamarlo, el hecho de que el desarrollo tecnológico se escape por completo a cualquier control institucional. Creo que nunca antes se había atesorado tanto poder en unas pocas empresas, y eso es realmente peligroso porque, sin control político, solo nos queda confiar en que sean buenos chicos (recordemos el «Don’t be evil» como lema de Google). Es como en la monarquías medievales y absolutas. El pobre vasallo debía confiar en que su señor sería buena gente, porque no existía herramienta jurídica para echarlo si no lo era. Por eso la etiqueta de tecnofeudalismo de la que habla Varoufakis entre otros, no va demasiado desencaminada a la hora de designar en lo que se está convirtiendo nuestro sistema. 

Pero además, siguiendo a Anders, si nuestra tecnología ha desbordado por completo nuestra capacidad de comprensión y, por tanto, de predicción, como parece estar pasando en el campo de la IA, no existe nadie competente para tratar con este tema. En palabras del propio Anders, «Lo que significa que, en este campo, nadie es competente y que el apocalipsis está por tanto, por esencia, en manos de los incompetentes». Yo no soy tan apocalíptico con respecto a la IA, he escrito ya muchísimas veces contra esta idea; pero sí que creo que la IA va a traer, y está ya trayendo, muchísimos problemas y que los responsables no lo están haciendo, hasta ahora, demasiado bien. Y la causa no es que sean malvados, sino, simplemente, que no saben cómo hacerlo bien. Resumiendo: tenemos que confiar en que gente que no ha mostrado un comportamiento con unos altos estándares éticos, ahora sí lo muestre, y en que, además, sea competente en un campo en el que, por definición, no es posible… ¿Qué puede salir mal?

(Continuará)

Post data: la filosofía de Anders me parece muy en sintonía con las fastuosas obras de Benjamín Labatut Un verdor terrible y Maniac. Son dos novelas que recomiendo muchísimo. Y, por supuesto, con la Oppenheimer de Nolan. 

Me lo he pasado pipa escuchando este podcast. Y es que, al contrario de lo que suele pasar en la mayoría de las entrevistas, el entrevistador ha intentado rebatir tenazmente los puntos en los que no estaba de acuerdo con el entrevistado.  Hay tensión, pero en ningún momento faltas de respeto. Además, los dos perfiles son muy interesantes para potenciar ese contraste de ideas: López de Mántaras es un académico de la vieja escuela con una larga trayectoria, que ha vivido casi en primera persona toda la historia de la IA (y ya se sabe que el diablo sabe más por viejo que por diablo); mientras que Jon Hernández carece, precisamente, de esa formación académica, pero está muy bien informado de todo lo que ocurre en la actualidad (su canal de divulgación está muy bien) y se mueve en el mundo empresarial. Así, se enfrentan las dos versiones: la de la academia y la de la empresa.  Veos el vídeo o escuchad el podcast, os garantizo que esas dos horas que dura serán muy provechosas. Paso a comentarlo. 

  1. López de Mántaras comienza sosteniendo que un gran problema es que no tenemos una definición consensuada de inteligencia y que, en los orígenes de la IA (con Minsky, Newell y Simon, Oliver Selfridge, etc. Los tiempos de la GOFAI), se entendía inteligencia en el mismo sentido estricto que inteligencia humana. Entonces, continúa, dada la gran diferencia que existe entre el funcionamiento de un LLM y la mente humana, solo tendría sentido hablar de inteligencia artificial dejando claro que lo hacemos en un sentido muy metafórico. Hernández le responde que lo interesante «para la gran mayoría de los mortales» es que el resultado sea indistinguible. López de Mántaras contesta (23:27) que si eres conductista sí, pero que a los filósofos y a los neurociéntificos les interesa lo que hay detrás, los mecanismos que producen esa conducta. Hernández vuelve a insistir de nuevo en que lo verdaderamente importante es el resultado. Aquí es donde se ve claramente la diferencia: al académico le interesa comprender y al empresario le interesa lo pragmático, el resultado. Sin embargo, hay un matiz muy interesante que Hernández no tiene en cuenta: el resultado de lo que hacen humanos y máquinas no es el mismo. Un ejemplo muy ilustrativo: hace ya casi medio siglo que las computadoras nos machacan al ajedrez ¿La conducta de una programa de ajedrez es similar a la de un ajedrecista? No: el programa tiene una forma diferente de jugar que los humanos. De hecho, se aconseja que si quieres tener una oportunidad contra él, mantengas un juego más conceptual o estratégico y menos táctico (ya que en táctica son invencibles), busques posiciones cerradas y poco comunes (que la máquina no tenga memorizadas), juegues rápido para intentar que, con la falta de tiempo, el programa tome decisiones menos profundas, etc. Creo que en esto hay que tener mucho cuidado: no es diferente estructura pero igual conducta, es muy diferente estructura y conducta con similitudes pero con notables diferencias. Y, precisamente, esa conducta diferente se debe a la estructura diferente, por lo que, para predecir posibles errores conductuales de fatales consecuencias, habría que entender la estructura interna. 
  2. Empero creo que López de Mántaras se equivoca cuando solo les concede inteligencia en modo metafórico. Creo que es demasiado radical sosteniendo que una IA capaz de superar el test de Turing no es nada interesante en el sentido en que una máquina preparada para engañarnos podría pasarlo (25:05). Es completamente cierto que el test de Turing está totalmente desprestigiado y es, hasta cierto punto, una prueba obsoleta hoy en día, pero, un programa capaz de superarla estaría mostrando, como mínimo, un alto dominio del lenguaje natural. Desde luego no es poco (o al menos no lo era en el campo de la IA hasta hace unos años) y parece demasiado negarle toda inteligencia. Una IA capaz de engañar a un interlocutor humano en el test de Turing a lo mejor no estaría mostrando tanta inteligencia como piensa el engañado pero, ¿no la muestra en algún grado? ¿No muestra algún destello, al menos, en tanto que capaz de engañar? También es cierto que hay que tener mucho cuidado con el hype y con el marketing de las grandes tecnológicas y de sus voceros, pero me parece excesivo negar toda inteligencia a la IA actual ¿Un MLL capaz de resumirme a la perfección un libro de doscientas páginas o de aprobar bachillerato carece de toda inteligencia?
  3. Citando al padre de la lingüística, Ferdinand de Saussure (26:45), López de Mántaras dice que los LLMs solo disponen de una semántica distribuida y no de una semántica denotativa con significado (concepto) y significante (expresión lingüística). Esto causa que los LLMs no comprendan en absoluto el lenguaje. Sin embargo, creo que hay que matizar. Cuando un LLM dispone de un espacio vectorial en donde las palabras están situadas según distancias semánticas, esas distancias no están ahí puestas aleatoriamente. Se calculan a partir de los textos del dataset de entrenamiento ¿Y que hay en el dataset? Textos escritos por personas que sí poseían una semántica denotativa. Entonces, no es que los LLMs carezcan de toda semántica denotativa (no funcionarían si así fuera), sino que la toman prestada de los humanos que escribieron los textos de su entrenamiento. Ejemplo ilustrativo: ChatGPT tiene en su semántica la palabra «perro» más cerca de «gato» que de «retroexcavadora», porque en todos los millones de textos donde se topó con ellas, «perro» y «gato» tenían más relación semántica denotativa entre ellas que con «retroexcavadora». Los LLMs transforman semántica denotativa en distribuida. Lo interesante es ver que esa transformación no es completa, se pierde algo. Y aquí tenemos la gran pregunta: ¿qué es exactamente lo que se pierde? 
  4. López de Mántaras también se equivoca con respecto a la productividad y el retorno de inversión (alrededor del min. 31). No hace falta recurrir a artículos como el de Daron Acemoglu (que como bien dice Hernández, aunque no tanto en toda la ciencia como en este tema en concreto, los hay para defender cualquier idea. Invito al lector a que haga una búsqueda rápida de artículos sobre trabajo y productividad para entender lo que digo) para darse cuenta de la obviedad del aumento de la productividad. Yo, en mi trabajo tengo que hacer muchos informes absurdos que nadie lee jamás. Ya siempre los hago con IA y, aunque tengo que corregir algunas cosas, ahorro muchísimo tiempo. Creo que López de Mántaras minusvalora lo bien que lo van haciendo los LLMs. También se equivoca con respecto a la programación. Al contrario de lo que piensa (33:33) los LLMs van siendo bastante competentes programando y parece muy evidente que un programador utilizando Cursor, Gemini Code Assist o Claude Code va a ahorrar muchísimo tiempo, por mucho que tenga que andar revisando y corrigiendo bugs. Y con las herramientas no code como Bubble, Looker Studio, Quickbase, etc. (hay miles) gente que no sabe programar podrá automatizar muchas tareas para las que antes necesitaba un programador.  
  5. Pero, aún así, López de Mántaras tiene razón en que no hay que creerse ni la mitad de los titulares que uno lee (38:00). De hecho, la afirmación del CEO de Amazon, citada precisamente como ejemplo por Hernández, de que se ahorraron 4.500 años-persona de trabajo en desarrolladores para actualizar todas sus aplicaciones a la versión 17 de Java, utilizando su IA Amazon Q, hay que cogerla con muchísimas pinzas. Parece una cifra muy espectacular pero hay que tener en cuenta que actualizar esas versiones es una tarea muy tediosa pero bastante fácil para un programador. Es un buen ejemplo de una implementación muy práctica  en una empresa, pero algo muy engañoso como prueba del rendimiento en programación de Amazon Q. Igualmente, cuando Elon Musk presentó a sus Optimus camareros, si bien es cierto que después salieron las imágenes de los operadores humanos que había detrás, en un primer momento los vídeos que todos vimos parecían indicar que no era así. Es una buena estrategia de marketing, pues gran parte del público no especializado solo vería los primeros vídeos y no indagaría más, creyendo que verdaderamente ya existen Optimus camareros completamente autónomos. Estamos ya muy acostumbrados a que las bigtechs hagan presentaciones muy capciosas y, de hecho, el mismo Hernández habla de ello en uno de sus vídeos. No entiendo por qué Hernández tacha de conspiranoico a López de Mántaras cuando las pone en duda. No es conspiración, es mero sentido crítico
  6. López de Mántaras (44:56) da en el clavo cuando nos habla del principal problema de los sistemas de IA generativa: los benchmarks son engañosos como métodos de medición de desempeño ya que se entrenan dichos sistemas con las propias pruebas del benchmark. Yo estoy completamente seguro de que una de las razones (entre muchas otras y todas turbias) por las que no se hacen públicos los datasets de entrenamiento, es que en ellos están los propios benchmarks. Y esto se ha demostrado muchas veces cuando se ha hecho a la IA pensar out of the box, es decir, se la ha puesto a prueba con cualquier tarea que se aleje mucho de su dataset. López de Mántaras cita un artículo (que, por cierto, no he sido capaz de encontrar) en el que a un MLL, sencillamente, se le cambiaba el tipo de movimiento de las piezas de ajedrez (por ejemplo, se permutaba el movimiento del alfil por el del caballo: el alfil daba saltos en L y el caballo se movía en diagonal), y ya no era capaz de comprender lo que pasaba en el tablero, algo que para nosotros sería completamente trivial. López de Mántaras cita los «contrafactuales» como forma de desenmascarar la falsa apariencia de razonamiento de la IA (Algo que, por cierto, ya desarrolló mucho Judea Pearl en su Libro del por qué). Hernández responde que eso mismo es lo que nos pasa a los humanos: es lo que llamamos experiencia. Cuando nos sacan de lo que sabemos nos equivocamos hasta que, tras probar muchas veces, conseguimos hacerlo bien. López de Mántaras responde: sí, pero nosotros somos capaces de abstraer, de generalizar de una situación concreta a otras similares. Nosotros entendemos el razonamiento, la lógica causal que hay detrás de la realidad, mientras que la IA generativa da la impresión de que no. Por eso afirma categóricamente que las máquinas ni razonan ni comprenden nada. 
  7. López de Mántaras también sostiene algo que hemos dicho muchas veces: los chalados que hablan del fin del mundo en manos de una IA aniquiladora de humanos como Bostrom, Yudkowsky o Hinton entre otros, representan una cortina de humo que nos aleja de lo realmente importante: de los problemas reales que la IA puede generar en el mundo. López de Mántaras se refiera en concreto a todo el omnímodo poder que han amasado media docena de empresas tecnológicas en buena sintonía con el gobierno de Donald Trump. Creo que en este punto Hernández no entiende que lo importante es estar siempre en el candelero aunque sea diciendo estupideces. Esa ha sido la estrategia que ha permitido a Trump ganar dos elecciones. Así, si dices que la IA va a destruir el mundo, verdaderamente, no estás perjudicando a las empresas de IA, todo lo contrario. Estamos en la época de la posverdad: da igual que lo que digas sea una majadería si consigues hacerlo viral. Claro, dice López de Mántaras (1:02:46), si tanto miedo les da la IA, ¿por qué no paran? Porque, obviamente, no se lo creen de verdad. Hernández responde que eso mismo le preguntaron a Sundar Pichai y que respondió que no era tan fácil, que él podía dimitir, pero que rápidamente pondrían a otro en su lugar ¡Valiente argumento el de Pichai! Si lo seguimos, todos los nazis que participaron en Auschwitz podían decir que exterminaron a seis millones de judíos porque si no lo hacían, el Führer pondría a otros en su lugar. Obviamente, ningún CEO de ninguna bigtech cree seriamente que la IA se va a convertir en Skynet. 
  8. López de Mántaras defenderá entonces una postura biologicista, el clásico chovinismo del carbono en el tema de la consciencia (Se ríe en varias ocasiones de las idioteces que dice Hinton a este respecto). Muchos critican esta posición apelando a que no demuestra claramente por qué una arquitectura de silicio no podría dar lugar a consciencia. De hecho, desde un funcionalismo fuerte, la base material carece de importancia siempre que consigamos replicar la estructura funcional ¿Por qué no íbamos a poder replicar la estructura del cerebro en una computadora? Mal, muy mal. Eso es caer en un ad ignorantiam: sacamos conclusiones del desconocimiento. El argumento es el mismo que los que argumentan que Dios existe porque nadie ha demostrado indudablemente que no existe. NO, la carga de la prueba está siempre en quien afirma. Si decimos que la consciencia es posible en silicio tenemos que aportar razones y evidencias para que así sea (recordemos la tetera de Russell). Y, de momento, aquí hay un cero patatero. No hay nada que se pueda parecer a una experiencia consciente ni en un LLM ni en ningún otro sistema de IA. Por tanto, la estrategia del chovinismo del carbono no es mala. Podemos decir que vale, no sabemos si se puede conseguir consciencia en otro sustrato que no sea carbono, pero el caso es que lo que sí sabemos es que, de momento, solo hay consciencia en seres de carbono. Por tanto, una vía de investigación clara es: vamos a intentar replicar lo máximo posible tanto la estructura como las propiedades materiales del carbono para ver si así conseguimos vislumbrar algo. 
  9. En 1:13:25 López de Mántaras se queja de otro punto muy importante: la antropomorfización constante que hacemos con la IA. Cuando una IA se equivoca y nos cuenta una chorrada, decimos que tiene una alucinación, como si verdaderamente sufriera una especie de ataque psicótico. Por mucho que yo diseñe un robot y a una de sus funciones la llame módulo de dolor y la programe para que cada vez que el robot choque con un objeto, en el monitor de mi computadora aparezca escrito «¡Ay!», eso no significa que el robot esté sufriendo dolor de alguna manera ¡Mucho cuidado con esto!
  10. A mí me pasa también como a él (1:24:25), que antes era mucho más escéptico con las posibilidades de los LLMs. Estoy muy sorprendido por los resultados obtenidos y hace unos años hubiera sostenido abiertamente que no iban a llegar tan lejos. Una de las cuestiones que más me inquietan, y fascinan a la vez, es cómo diablos una arquitectura de transformers puede hacerlo tan sumamente bien ¿Por qué esa forma de entrenamiento que, sencillamente, pondera la relevancia de un token en el contexto de frases en paralelo ha dado esos resultados tan espectaculares? López de Mántaras critica que el mítico artículo Attention is all you need donde se describen, es críptico, está mal escrito y no es reproducible. Subraya que se está llamando a la IA la ciencia de los resultados no reproductibles ya que nadie tiene en su casa un centro de datos con 100.000 GPUs para replicar tal o cual experimento. Tenemos que confiar en resultados hechos por empresas con intereses obvios en que los resultados sean siempre excelentes. Yo estoy seguro que, dentro de unos años, cuando cualquiera pueda reproducir estos resultados en el ordenador de su casa, veremos en muchas de esas «superaciones del estado del arte» unas estafas sonrojantes
  11. López de Mántaras se moja (1:30:00) diciendo que los nuevos agentes no serán capaces de crear por si mismos nuevos algoritmos para afrontar tareas. Creo que se apresura ya que, aunque los agentes han llegado hace solo unos meses y están en pañales, no parece tan complejo que puedan generar nuevos algoritmos. De hecho,  AlphaTensor  ha generado nuevos algoritmos más eficientes para la, computacionalmente muy costosa, multiplicación de matrices. López de Mántaras diría, muy acertadamente, que no ha sido AlphaTensor por sí mismo, sino que los auténticos descubridores han sido sus programadores utilizándolo como herramienta. De acuerdo, pero no parece muy descabellado que un AlphaTensor agéntico pudiera ir «eligiendo» de forma autónoma los pasos a seguir y terminar por explorar caminos que a sus programadores no se les hubiesen ocurrido. Estamos, como siempre, ante al problema de la autoría intelectual que remite al problema filosófico de qué es realmente un agente, que a su vez remite al problema del libre albedrío o de la consciencia. Muy complicado, pero insisto en que no me parece tan raro que IAs generen nuevos algoritmos de una forma que todos caracterizaríamos como bastante autónoma.    
  12. A partir del 1:41:00 se debate sobre la valoración del impacto de la IA en la sociedad: ¿ha sido buena o ha sido mala? Es una pregunta imposible de responder contundentemente porque no tenemos herramientas de ponderación para algo tan grande y complejo. Pero por aventurarnos un poco, diré que, a pesar de que soy un tecno-optimista convencido, creo que a día de hoy no se ha hecho tan buen uso como el que cabría esperar: armas autónomas, fakes, sesgos, discriminación, manipulación, intervención en procesos democráticos, plagio académico… Y si la parte más positiva es disponer de una herramienta de aumento de la productividad prodigiosa que no va a producir un mejor reparto de la riqueza, sino que va a dejar sin trabajo a gran parte de la población mundial… No sé, quizá no lo estamos haciendo demasiado bien. Me pasa lo mismo que con las redes sociales: miro mi dispositivo fascinado por la espectacular tecnología que hay detrás de su construcción, y veo vídeos de gatitos e influencers con labios siliconados, y me pregunto ¿qué bien han traído al mundo las redes sociales? ¿Entretenimiento a cambio de narcisismo y adicción? La solución, como bien repite López de Mántaras, pasa por la legislación y la educación. No nos queda otra. Sería fantástico que estuviésemos a la altura y que no dejáramos escapar la enorme oportunidad de que representa la IA para mejorar tantas y tantas cosas. 
  13. ¿Cuál es el futuro próximo de la IA? López de Mántaras predice desde lo académico (1:53:57): más IA corporeizada (algo ya muy desarrollado en las ciencias cognitivas) para desarrollar modelos del mundo (Por cierto, yo todavía no tengo nada claro qué es un «modelo de mundo»), y sistemas híbridos entre IA simbólica y redes neuronales (de hecho, gran parte de los sistemas de deep learning actuales son, realmente, híbridos. López de Mántaras subraya que AlphaFold tiene 32 algoritmos), la famosa IA neurosimbólica. En esto coincide con Yann LeCun: los LLMs por sí solos no son el camino hacia la AGI, modelos de mundo, sistemas más modulares y jerárquicos, o aprendizaje autosupervisado. Veremos hasta dónde llega su V-Jepa