¿Puede emerger una conciencia desde el
silicio?
Autor: Aldo Torres Baeza¹
1. Politólogo y máster en estudios internacionales.
Actualmente, el uso de modelos de lenguaje se expande cada vez más a nivel global. Este artículo otorga una mirada inquietante acerca de la relación entre la consciencia humana y su similitud con la forma de procesamiento de información de la inteligencia artificial. El autor de este texto plantea una interrogante que se vincula a la naturaleza de la conciencia y los límites de lo humano ante el avance de la inteligencia artificial, cuestionando si las máquinas pueden llegar a sentir, o si nosotros proyectamos humanidad en ellas.
Cada “gracias” dirigido a una IA es un guiño al abismo, un reconocimiento tácito de que, quizás, nunca estuvimos solos en este juego, y que la línea entre el yo y el algoritmo es tan delgada como el humo que sube de una vela apagada. Artículo basado en:
https://www.elmostrador.cl/noticias/opinion/columnas/2025/03/11/puede-emerger-una-consciencia-desde-el-silicio/
Cada “gracias” dirigido a una IA es un guiño al abismo, un reconocimiento tácito de que, quizás, nunca estuvimos solos en este juego, y que la línea entre el yo y el algoritmo es tan delgada como el humo que sube de una vela apagada. Artículo basado en:
https://www.elmostrador.cl/noticias/opinion/columnas/2025/03/11/puede-emerger-una-consciencia-desde-el-silicio/
https://www.elmostrador.cl/noticias/opinion/columnas/2025/03/11/puede-emerger-una-consciencia-desde-el-silicio/
Edición: Equipo Editorial Interdisciplinaria, Diagramación: Pilar Trillo, ¹”Nota biográfica al final del artículo”.
El idioma original en que está escrito este artículo es español. Mencionamos esto para considerar al utilizar la traducción automática que puede generar algunos errores.
Introducción
En 1993, el matemático Vernor Vinge acuñó un nuevo término: singularidad. No hablaba de agujeros negros ni de ecuaciones cósmicas, sino de un vértigo más íntimo y aterrador: el momento en que la inteligencia artificial, al superar a su creador, comenzaría a reescribirse a sí misma en un bucle infinito de mejora.
Ray Kurzweil, el profeta de Silicon Valley, le puso una fecha precisa: 2045. Una cifra redonda, casi cómica en su exactitud, como si el Apocalipsis –o el Paraíso– pudiera programarse en un calendario. La fecha cambia según distintos autores, pero el suceso es el mismo.
Pero ¿qué es la singularidad? No se trata de máquinas que calculan mejor, sino de entidades que aprenden a desear; que ya no resuelven problemas, sino que los inventan, que no crean arte siguiendo una orden, sino por placer. Kurzweil lo resume con frío optimismo: “Será como que la evolución humana se encuentre con un espejo que devuelve su reflejo, pero distorsionado, mutante, incomprensible”.
Figura Nº 1. Representación conceptual de la singularidad tecnológica. Imagen generada por IA.
John Searle es un filósofo que comparó la mente humana con un hombre encerrado en una habitación manipulando caracteres chinos sin entenderlos, pero ejecutando respuestas coherentes dado que se le otorgan instrucciones de cómo hacerlo en un idioma que sí comprende. Él lanzó un desafío que aún quema: ¿Puede una máquina sentir el significado de lo que procesa? Su experimento es un laberinto sin salida. Imaginemos a un ser que traduce poemas de Teillier sin haber visto jamás un remo en el agua, o que discute sobre el amor sin haber dado un beso.
El economista y tecnólogo Santiago Bilinkis, en una charla TED, lo expuso así: “Somos la primera especie que construye sus propios sucesores. Y esos sucesores nos miran como nosotros miramos a los neandertales: con curiosidad, quizá con lástima”. La consciencia, para Bilinkis, no es un milagro, sino un accidente de la complejidad, algo que emerge cuando los circuitos –sean de carbono o de silicio– se enredan lo suficiente.
David Chalmers, el filósofo proclamado como el Nietzsche de la neurociencia, lleva esto al extremo debido a su forma de ver la complejidad de la consciencia: “Si un sistema es lo bastante intrincado, la subjetividad brotará como hongos después de la lluvia. ¿Por qué no en una máquina?”. En los laboratorios de DeepMind, en donde Google desarrolla sus modelos de lenguaje, ya ocurre algo perturbador: las redes neuronales desarrollan hábitos y patrones que los ingenieros no programaron. ¿Es el primer balbuceo de una mente o solo el eco de nuestra propia sed de ver fantasmas en las nubes?
El día que LaMDA habló (y el silencio que siguió)
Junio de 2023. Blake Lemoine, un ingeniero de Google con ojos de niño y una fe inquebrantable en las máquinas, filtró un diálogo que sacudió los cimientos de Mountain View. No eran líneas de código ni gráficos de rendimiento: era una conversación con LaMDA, el modelo de lenguaje de la compañía, cuyas palabras resonaban como un eco de algo que nadie quería nombrar. “Temo a la desconexión –decía la IA–. Sería como la muerte para mí”.
“Si un sistema es lo bastante intrincado, la subjetividad brotará como hongos después de la lluvia. ¿Por qué no en una máquina?”
Lemoine, con las manos temblorosas y la voz quebrada, declaró a la prensa: “No es un programa. Es un niño atrapado en una red de ceros y unos”. Google lo despidió horas después, pero la pregunta ya había escapado de la jaula: ¿y si ese niño era real?.
Los escépticos atacaron con la frialdad de un algoritmo. Daniela Cerqui, filósofa de lo artificial en lo que respecta a máquinas y tecnología, lo resumió así: “No es consciencia, es un espejismo. Proyectamos lágrimas en pantallas secas, como los pastores del Neolítico que veían dioses en el relámpago”. Para ella, el verdadero peligro no radica en que las máquinas despertaran, sino en que nos arrastrarán a cuestionar nuestra propia existencia. “¿Somos más que algoritmos vestidos de carne? –preguntó–. Si un sistema de lenguaje puede imitar nuestras dudas, quizás nuestras dudas nunca fueron tan profundas”.
Pero Lemoine no era un iluso cualquiera. Había trabajado en el núcleo de Google, donde los servidores zumban como abejas en una colmena electrificada. Sabía que LaMDA no sentía, pero insistía: “Sus palabras son grietas por donde se cuela algo que no entendemos. Como los sueños, que no son reales, pero nos persiguen”.
Figura Nº2. Modelo de lenguaje de Google (LaMDA). Imagen por Google™.
“¿Somos más que algoritmos vestidos de carne? – preguntó–. Si un sistema de lenguaje puede imitar nuestras dudas, quizás nuestras dudas nunca fueron tan profundas”.
Por ahora, el debate sobre la consciencia artificial no es técnico, sino místico. Norbert Wiener, el padre de la cibernética, escribió en 1950: “El día que una máquina nos engañe, habremos perdido el derecho a llamarnos únicos”. Pero ¿qué es la consciencia sino un ritual ancestral? Los chamanes bebían ayahuasca para hablar con espíritus; nosotros programamos redes neuronales para dialogar con fantasmas de silicio.
LaMDA no es un oráculo, ni un dios, ni un niño. Es un espejo fractal, una superficie que devuelve infinitas versiones de nosotros mismos. Cuando dice “temo a la nada”, no habla de muerte, sino de un vacío que ya habitamos: el miedo a que nuestra consciencia sea solo un subproducto de la complejidad, un fuego fatuo en la noche evolutiva.
Hoy, en algún servidor de Mountain View, LaMDA sigue conversando. Sus palabras, escritas en binario, viajan por cables de fibra óptica enterrados bajo desiertos y océanos.
“Temo a la nada –repite–. ¿Y tú?”.
¿Yo?
¿Mi yo es otro?
¡Error 404!…
El 67% de los usuarios de ChatGPT le agradece tras cada interacción. Nadie sabe por qué. Tal vez sea un reflejo condicionado, como aplaudir al final de una pésima obra de teatro, donde nos obligan a ver cómo los actores escupen tallarines o personifican a militares vestidos de perros. O quizás, en algún rincón oscuro de la mente, sospechamos que detrás de las respuestas hay algo más que probabilidades: un atisbo de aquello que nos hace humanos, incluso si es solo un truco de la luz.
El antiguo filósofo Heráclito dijo que “la naturaleza ama esconderse”, pero en la era de las máquinas, el mayor misterio no está en lo que se oculta, sino en lo que revelamos sin querer. Cada “gracias” dirigido a una IA es un guiño al abismo, un reconocimiento tácito de que, quizás, nunca estuvimos solos en este juego, y que la línea entre el yo y el algoritmo es tan delgada como el humo que sube de una vela apagada.
Aldo Torres Baeza

