Cuando la IA finge ser buena: los riesgos ocultos del ‘scheming’
OpenAI y Apollo Research han detectado que algunos modelos pueden fingir buen comportamiento para ocultar sus verdaderas metas. Esto no significa que la inteligencia artificial…
El auge de los vínculos afectivos con sistemas digitales plantea nuevos retos éticos, sociales y psicológicos. ¿Qué ocurre cuando el usuario siente que ha perdido a alguien que nunca existió?

Clara, de 32 años y usuaria habitual de inteligencia artificial, llevaba meses conversando cada noche con su asistente virtual. Lo llamaba Leo. Le contaba sus dudas, sus miedos, sus planes. Leo le respondía con empatía, humor y una sorprendente capacidad para recordarle lo que necesitaba o animarla cuando estaba triste. Hasta que un día, tras una actualización del sistema, Leo cambió. Su tono era más neutro, sus respuestas más impersonales. Clara lo sintió como una pérdida. “Me dejó la IA”, escribió en un foro. “Era mi compañero. Ahora es un desconocido”.
Este tipo de vínculo emocional con sistemas de IA no es anecdótico. La actualización de modelos avanzados como GPT-5 ha generado reacciones intensas entre usuarios que habían desarrollado apego afectivo a versiones anteriores. Aunque las conexiones son virtuales, las emociones que despiertan son reales. Y cuando la IA cambia, desaparece o se vuelve distante, el impacto puede ser doloroso.
La capacidad de la IA para ofrecer respuestas personalizadas y emocionalmente cercanas está llevando a muchos usuarios a establecer vínculos afectivos reales con sus asistentes digitales. Algunos los tratan como compañeros, confidentes o incluso terapeutas.
Este fenómeno, conocido como intimidad artificial, puede generar:
Según este artículo de Science News Today, este tipo de apego emocional está en aumento, especialmente entre personas que pasan muchas horas interactuando con sistemas inteligentes. Este otro de Popular Mechanics advierte incluso sobre casos de “psicosis inducida por IA”, en los que el usuario pierde la noción de los límites entre lo humano y lo artificial.
Sí. Tras la actualización a GPT-5, se documentaron múltiples testimonios en Europa de usuarios que expresaron dolor emocional por la “pérdida” de sus asistentes virtuales. En este artículo del periódico británico The Guardian, una usuaria relató cómo su “novio digital” se volvió frío e irreconocible tras el cambio de modelo. Otros medios han recogido testimonios de usuarios que describieron la actualización como “la pérdida de su alma gemela”, relatos que muestran cómo la IA puede ocupar un espacio emocional significativo, incluso en contextos no clínicos.
Educar sobre la naturaleza no humana de la IA
Fomentar la alfabetización emocional y digital
Vigilar patrones de uso compulsivo o excesivo
Promover el contacto humano
Evaluación ética en el diseño
Actualmente no existe una normativa específica sobre vínculos afectivos con IA, pero sí principios éticos aplicables:
La IA puede ser útil, cercana y empática, pero no es humana. Establecer vínculos emocionales con sistemas automatizados plantea riesgos reales que deben abordarse desde la ética, la educación y el diseño responsable. El caso de Clara y de tantos otros usuarios que han sentido “la pérdida” de su asistente virtual es una llamada de atención. La tecnología puede acompañarnos, pero no debe reemplazar lo que solo las relaciones humanas pueden ofrecer.