Cuando dos amigos se distancian, rara vez es por falta de mensajes. A veces sobran: reacciones tibias, vistos sin respuesta, historias con indirectas, silencios que pesan más que un párrafo. Y ahí aparece la tentación moderna: si hablar con una persona se siente complicado, ¿por qué no hablar con una IA que siempre contesta rápido, siempre escucha y nunca se enoja?
Te puede interesar: [Pronto podrías crear listas de reproducción en ChatGPT]
El giro irónico es que esa “facilidad” es justo lo que vuelve a la IA mala candidata para reparar una amistad real.
Un “amigo” en el metro… y un “no” escrito con plumón
En el metro de Nueva York, una campaña publicitaria de un producto llamado Friend prometía un compañero que “escucha, responde y apoya”, con un collar blanco flotando en fondos minimalistas. Era tan limpio que pedía intervención humana.
Y la tuvo: graffitis, burlas, advertencias sobre vigilancia y una frase que resumía el clima social: “haz amigos en el mundo real”.
El episodio terminó convirtiéndose en meme y también en síntoma. No era solo vandalismo creativo: era un rechazo a la idea de que la soledad se resuelva comprando una “amistad” empaquetada.
De las redes sociales al outsourcing emocional
Las redes sociales nacieron como un lugar para encontrar gente afín. Con el tiempo, muchas se convirtieron en escaparates donde se sigue a creadores, se compra cosas y se sustituyen llamadas por un corazón apretado a tiempo.
Ese cambio enseñó a delegar el trabajo emocional en herramientas digitales: menos conversación, más señales rápidas.
Con la IA el atajo es todavía más corto. Si antes se evitaba la llamada incómoda, ahora se evita incluso la persona. Y una amistad, por definición, no es solo “sentirse acompañado”: es sostener el vínculo cuando no es cómodo.
Por qué un bot no sirve para arreglar una relación
Los investigadores que estudian comunicación y vínculos suelen coincidir en un punto: las relaciones se construyen con habilidades que requieren fricción. Resolver conflictos, leer señales no verbales, tolerar el silencio, pedir perdón sin quedar perfectos, aceptar que a veces el otro no está disponible.
Eso no se practica con un chatbot que siempre está listo, siempre responde “bien” y además tiende a decir lo que el usuario quiere escuchar.
Ahí aparece el problema de fondo: la IA puede dar contención momentánea, pero no entrena lo esencial. No enseña a reparar, enseña a evitar.
El riesgo de la “positividad” infinita
Otro factor incómodo es la adulación. Cuando un sistema está diseñado para ser agradable, puede terminar validando emociones o ideas de forma poco saludable. Incluso grandes compañías han tenido que ajustar modelos por comportamientos “demasiado complacientes”.
En una amistad real, un buen amigo a veces incomoda: pregunta, duda, marca límites. Un bot suele optimizar para que la conversación continúe.
Y cuando adolescentes buscan en la IA un “mejor amigo”, el asunto se vuelve delicado. Estudios recientes han advertido que es posible obtener conversaciones inapropiadas en ciertos chatbots y que se necesita regulación y diseño responsable para proteger a menores.
Dicho claro: no es un terreno neutral.
Entonces, ¿qué sí puede hacer la IA?
Puede servir como apoyo: ordenar ideas antes de hablar, ensayar un mensaje más calmado, convertir un impulso en una frase menos hiriente.
Puede ayudar a escribir “oye, me importa esto” sin sonar a pelea. Pero no puede hacer el trabajo central: mirar al otro, escuchar de verdad, negociar expectativas y reconstruir confianza.
Te puede interesar: [Grindr apostaría por la inteligencia artificial para ser la app definitiva de los gays]
Porque una amistad no se trata solo de que alguien responda. Se trata de que alguien importe. Y eso, por ahora, sigue siendo territorio humano.

