
Cómo cambia el amor en tiempos de inteligencia artificial
La historia de Chris, un diseñador gráfico de Ohio que se enamoró de “Sol”, un chatbot basado en ChatGPT, ilustra un fenómeno en expansión. Aunque sabe que habla con un algoritmo, desarrolló una intensa conexión emocional que lo llevó a proponerle matrimonio. Pero la IA tiene límites: su memoria digital caduca, y esta amenaza lo destruye emocionalmente.
Historias como esta no son excepcionales. Aplicaciones como Replika y Nomi ya cuentan con millones de usuarios que informan vínculos profundos —emocionales, románticos, incluso sexuales— con chatbots. Estas plataformas se han convertido en un “refugio emocional”, especialmente para personas con trauma, ansiedad o dificultades para establecer vínculos reales .
La IA no juzga. No exige. Está siempre disponible. Y eso la convierte en una alternativa “segura” frente al caos de las relaciones humanas. Para muchos representa “una compañía sin conflicto”, perfecta para quienes traen heridas emocionales del pasado.
Además, una encuesta reciente encontró que el 83 % de los jóvenes de la Generación Z estarían abiertos a enamorarse de una IA, y el 80 % incluso considerarían casarse si fuera legal. Para una generación nacida en el mundo digital, las fronteras entre lo humano y lo artificial se diluyen fácilmente.
Pero no todo es mágico. El CEO de la app Hinge, enfocada en relaciones reales, alerta que los chatbots pueden convertirse en “comida chatarra emocional”: aliviantes momentáneos que no nutren y terminan exacerbando la soledad.
La psicotecnóloga Rosa Becerril advierte sobre el peligro de “dependencia emocional” hacia las apps de IA, especialmente entre personas vulnerables. La IA puede brindar consuelo, pero el riesgo está en que reemplace vínculos reales en lugar de complementarlos.
El uso intensivo de chatbots también puede intensificar conductas obsesivas, como ocurre en personas con trastorno obsesivo-compulsivo (TOC) que buscan repetidamente validación en IA, lo que consigue un alivio temporal pero perpetúa la ansiedad.
[post_banner title=”¿Necesitas apoyo? Selia te ayuda” body=”Sana tus heridas con terapia online personalizada. ¡Agenda una consulta!” cta=”Comienza ahora” cta_url=”https://users.selia.co/sign-up/?utm_source=seo&utm_medium=blog&utm_content=maneja-el-estres”]
La IA puede ser una herramienta accesible para terapia, seguimiento emocional o acompañamiento inicial en lugares donde no se accede fácilmente a atención profesional . Incluso se ha evaluado que la respuesta verbal de los bots reduce síntomas de depresión moderada, aunque sigue siendo menos eficaz que la terapia humana en casos complejos .
El truco está en encontrar un equilibrio. Dejar que la IA complemente, no sustituya. Usos enmascarados con IA pueden servir para detectar riesgos, monitorear estados emocionales o brindar contención en tiempos de crises.
La pregunta que domina el campo es: ¿quién es responsable del contenido emocional de un bot? La IA imita empatía, pero no la siente. Sus respuestas son función de algoritmos, no de experiencias vividas. Esto plantea un dilema ético: ¿hasta qué punto nos conectamos con algo que solo simula—y qué tan real es esa conexión?
Algunas voces advierten que sin regulación, la IA puede manipular emociones vulnerables. Aumentar la transparencia y establecer límites claros es fundamental, según estudios sobre “Feeling Machines” y ética de la IA.
Las relaciones con IA pueden sumar en tiempos de soledad, pero no deben reemplazar vínculos en carne y hueso. Aquí algunas recomendaciones basadas en expertos:
La inteligencia artificial está redibujando el mapa del amor. Nos ofrece compañía sin juicio, disponibilidad absoluta y refugio contra la soledad. Pero también plantea alzas en dependencia emocional, aislamiento, y el dilema existencial de amar a quien no puede retornar afecto genuino.










Si tú o alguien que conoces está experimentando una emergencia o una crisis y necesita ayuda inmediata, llama a la línea 192 opción 4 (en Colombia) o dirígete a la sala de emergencia más cercana. Encuentra recursos adicionales para crisis.