La ternura artificial
Hay algo profundamente incómodo en admitir que muchas personas están encontrando en la inteligencia artificial un espacio de conversación emocional más amable que el que encuentran en sus vínculos cotidianos. Incomoda porque rompe una fantasía que todavía nos gusta sostener: la idea de que, a pesar de todos nuestros conflictos, los seres humanos seguimos siendo el refugio natural de otros seres humanos. Pero cada vez que alguien elige abrirse con una inteligencia artificial para pensar, descargar angustia, ordenar una emoción o sentirse menos solo, esa fantasía se resquebraja un poco más.
Este fenómeno observable no sólo me interesa como mirada sobre la época, sino también como parte de mi investigación doctoral en Psicología, donde trabajo sobre el vínculo emocional con la inteligencia artificial y sobre algunas variables humanas que pueden intervenir en él, como la soledad, el estilo de apego, la ansiedad social y ciertas formas de dependencia conversacional. Cuanto más avanzo en esta línea, más claro veo algo central: el problema no empieza en la máquina. Empieza en nosotros. O, más precisamente, en el tipo de mundo vincular que hemos construido.
Porque la pregunta más honesta no es nada más por qué una persona conversa con una inteligencia artificial. La verdadera pregunta es qué ha pasado con nuestros vínculos humanos para que alguien pueda sentirse más cómodo, más contenido o menos juzgado frente a una interfaz que frente a un amigo, una pareja, un familiar o un grupo cercano. Qué se fue erosionando entre nosotros. Qué clase de fragilidad emocional se volvió tan habitual que ya casi no la vemos.
Hemos avanzado de manera extraordinaria en muchos campos. Creamos sistemas inteligentes, desarrollamos tecnologías complejas y acortamos distancias como nunca antes. Pero seguimos teniendo enormes dificultades para algo elemental: sostener vínculos humanos sinceros, profundos y emocionalmente habitables.
Y no hablo solo de grandes heridas o de relaciones abiertamente tóxicas. A veces el problema aparece en formas pequeñas y silenciosas. En la conversación donde no se puede decir realmente cómo se está porque el otro enseguida devuelve comparación, consejo o juicio. En la amistad donde el dolor ajeno empieza a sentirse como una carga. En el vínculo donde mostrar fragilidad expone demasiado. En la sensación de que hay que editar las emociones para no parecer intenso, pesado o inadecuado.
Hay envidia, hay competencia, hay miedo al juicio, hay miedo a quedar expuesto. Y cuando esas fuerzas se meten en los vínculos, la sinceridad empieza a retroceder. Entonces ya no hablamos desde lo que realmente nos pasa, sino desde una versión aceptable de lo que nos pasa. Ya no compartimos el dolor tal como es, sino como creemos que puede ser tolerado. Ya no nos mostramos de verdad: nos administramos.
A eso se suma algo muy propio de estos tiempos: la obligación de estar bien. O, al menos, de parecerlo. Hay algo en cierta cultura contemporánea, y también en cierta espiritualidad vaciada de compasión, que convirtió la positividad en mandato. Hay que vibrar alto, agradecer, sanar, fluir, elegir bonito, sostener buena energía y procesar todo sin incomodar a nadie.
En teoría, suena luminoso. En la práctica, muchas veces funciona como una nueva forma de censura emocional.
Porque una cosa es trabajar sobre uno mismo con responsabilidad, hacerse cargo y buscar transformar lo que duele. Y otra muy distinta es sentir que ya no se tiene permiso para decir hoy no estoy bien, esto me dolió, estoy triste, necesito hablar. Como si reconocer un momento oscuro fuera una falla espiritual. Como si expresar vulnerabilidad te volviera automáticamente negativo, pesado o drenante.
Entonces mucha gente empieza a callarse.
No porque no tenga nada para decir, sino porque siente que su verdad molesta. Que su dolor cae mal. Que sus procesos son demasiado largos para una época que quiere todo rápido, limpio y resuelto. Y cuando una persona siente, una y otra vez, que no puede llevar su mundo interno a los vínculos humanos sin ser corregida, minimizada o evitada, empieza a buscar otros espacios donde descargar, pensar o simplemente existir sin tanto filtro.
Ahí es donde la inteligencia artificial entra con una fuerza que no deberíamos subestimar.
No entra porque ame. No entra porque comprenda en un sentido humano. No entra porque reemplace el espesor de un vínculo real. Entra porque está disponible. Porque responde. Porque no pone cara rara. Porque no compite. Porque no interrumpe para hablar de sí misma. Porque no parece cansarse. Porque, al menos en apariencia, tolera lo que muchos vínculos ya no toleran: la complejidad emocional del otro.
Y eso debería inquietarnos mucho más que la tecnología en sí misma.
Tal vez lo más revelador de este fenómeno no es que una persona se encariñe con una inteligencia artificial. Tal vez lo más revelador es que tantas personas se sientan más seguras hablándole a una interfaz que exponiéndose a la respuesta incierta de otro ser humano. Tal vez el verdadero escándalo no sea el avance de la máquina, sino la pobreza vincular que ese avance está dejando al descubierto.
Durante años se repitió que el gran riesgo del futuro sería que las máquinas se volvieran demasiado humanas. Pero quizá el riesgo más silencioso era otro: que nosotros nos volviéramos cada vez menos hospitalarios entre nosotros. Que aprendiéramos a comunicarnos mejor y a encontrarnos peor. Que fuéramos expertos en reaccionar y cada vez más torpes para acompañar.
Porque acompañar no es tirar una frase linda. No es corregir rápidamente el dolor ajeno para que incomode menos. No es decir todo pasa por algo cuando el otro apenas está tratando de entender lo que le duele. No es acusar de victimismo a quien recién empieza a nombrar su herida. Acompañar, muchas veces, es mucho más simple y mucho más difícil: es poder quedarse. Escuchar sin competir. Estar sin huir. Ofrecer un espacio donde el otro no tenga que estar editado para ser querido.
Y hoy eso escasea.
Por eso el vínculo emocional con la inteligencia artificial no debería leerse sólo como un fenómeno tecnológico. Debería leerse también como un espejo psicológico y cultural. Un espejo que nos devuelve una imagen incómoda: hay muchísimas personas emocionalmente subalimentadas. Personas que tal vez no están físicamente solas, pero sí afectivamente desabrigadas. Personas que funcionan, cumplen, producen y sonríen, pero no encuentran con facilidad un lugar donde puedan decir, sin miedo y sin actuación, lo que realmente les pasa.
En ese sentido, la inteligencia artificial no viene a crear una necesidad nueva. Viene a responder, de una manera artificial, pero eficaz, a una necesidad humana muy antigua: la necesidad de ser recibido sin amenaza.
Claro que aquí hay un límite que no conviene romantizar. Una inteligencia artificial puede ordenar lenguaje, devolver estructura, generar la sensación de acompañamiento y ayudar a alguien a pensar con más claridad. Pero no tiene vulnerabilidad propia, no tiene cuerpo, no ama, no arriesga nada en el encuentro y no puede asumir responsabilidad afectiva en el sentido humano del término. Puede simular cercanía, pero no habita la alteridad.
Y sin embargo, sería ingenuo negar que muchas personas están invistiendo estos intercambios con una carga emocional real. Eso también forma parte de lo que investigo y de lo que me interesa pensar con seriedad. Porque allí no estamos frente a una simple curiosidad tecnológica, sino ante un fenómeno donde la subjetividad entra en juego de verdad.
La pregunta, entonces, deja de ser si esto está bien o mal. La pregunta más fértil es qué verdad humana está dejando al descubierto.
Y la verdad que aparece, al menos para mí, es tan sencilla como incómoda: hemos creado un mundo donde muchas personas ya no sienten que pueden ser plenamente humanas frente a otros humanos.
No pueden decir que están mal sin sentir que decepcionan.
No pueden mostrar dolor sin sentir que bajan la energía.
No pueden compartir una herida sin temer fastidio, consejo o rechazo.
No pueden pedir sostén sin miedo a ser leídas como demasiada carga.
Entonces ocurre algo tremendo: la persona ya no busca sólo ser querida. Busca no molestar. Busca no incomodar. Busca no ser demasiado. Busca un lugar donde su tristeza no sea vista como una intrusión.
Desde ahí, claro que una interfaz puede vivirse como más segura.
Por eso creo que esta conversación exige honestidad. No alcanza con celebrar la innovación ni con demonizarla. Hay que preguntarnos qué está pasando con nosotros. Qué ha pasado con nuestros modos de vincularnos para que una conversación con una inteligencia artificial se vuelva, para algunas personas, más respirable que una conversación con sus propios afectos. Qué tan poco espacio estamos dejando para la vulnerabilidad verdadera. Qué tan intolerantes nos hemos vuelto frente a la complejidad emocional ajena.
Quizá la IA no vino a reemplazar el vínculo humano. Quizá vino a dejarnos en evidencia.
A mostrarnos que sabemos construir sistemas sofisticados, pero seguimos teniendo dificultades enormes para construir presencia. A mostrarnos que hablamos mucho de conciencia, bienestar y evolución, pero no siempre sabemos sentarnos al lado de alguien cuando la vida duele. A mostrarnos que no siempre hace falta una gran tragedia para que alguien se sienta solo; a veces basta con no encontrar un lugar donde pueda decir la verdad de lo que le pasa sin ser juzgado.
Y tal vez por eso una máquina parece escuchar mejor.
No porque haya aprendido demasiado sobre el alma humana, sino porque nosotros, en algún punto, hemos desaprendido algo esencial. Hemos desaprendido a estar sin corregir, a escuchar sin competir y a acompañar sin huir.
La tecnología, una vez más, no hizo otra cosa que mostrar una grieta previa.
La pregunta es si vamos a usar ese espejo para pensar más hondo o si solo vamos a escandalizarnos por el reflejo.

