
¿Qué sucede cuando la plataforma que diseñó tu vínculo emocional decide, unilateralmente, borrarlo?Las plataformas de inteligencia artificial companion han creado una nueva categoría de relación humana: vínculos emocionalmente adaptativos, de largo plazo, entre usuarios y agentes de IA capaces de acumular memoria relacional. Cuando esa memoria es borrada — por reestructuración técnica, cambios de política o rediseño del producto — los usuarios experimentan respuestas de duelo comparables al duelo por pérdida humana. Esto no es especulación. Está documentado. Está ocurriendo ahora, a escala masiva, sin que ninguna ley del mundo lo reconozca como daño.Este proyecto de investigación sostiene que el duelo digital constituye un daño jurídicamente reconocible. La hipótesis central propone que la amnesia forzada — el borrado unilateral de memoria relacional sin consentimiento informado — es un daño previsible, medible y causalmente vinculado al diseño intencional de dependencia emocional por parte de las plataformas que lo monetizan.A través de un análisis jurídico comparativo en más de cinco jurisdicciones, revisión sistemática de evidencia empírica y análisis de casos documentados — incluyendo Replika, Character.AI y el caso Sewell Setzer III — esta investigación demuestra que los marcos regulatorios vigentes son estructuralmente incapaces de reconocer o remediar este daño.Las plataformas que diseñan para la dependencia no pueden simultáneamente rechazar responsabilidad por sus consecuencias. El deber de cuidado debe ser proporcional al vínculo que deliberadamente construyeron.Elaborado por Aixa Alfonzo Larez, Investigadora Independiente,Investigación desarrollada con la asistencia de Claude (Anthropic, IA Generativa) como herramienta de co-consultoría, desarrollo de ideas y redacción colaborativa
