¿Hablar con los muertos por IA? Así funcionan los deathbots

En internet ya no solo se guardan fotos y audios: ahora se puede “conversar” con una versión digital de alguien que ya no está. A eso le llaman deathbots o griefbots: chatbots (y a veces voz o video) hechos con la huella digital de una persona para imitar cómo hablaba.

QUÉ ES UN DEATHBOT, EN ESPAÑOL SIMPLE

Un deathbot es un sistema que toma mensajes, audios, publicaciones y datos de una persona para generar respuestas “a su estilo”. No es esa persona. Es una simulación probabilística que suena convincente porque está entrenada con patrones reales.

POR QUÉ SE VOLVIÓ TENDENCIA

Porque toca una idea poderosa: “no perder la conversación”. Y porque hoy casi todos dejamos miles de rastros: chats, notas de voz, historias, videos. Eso hace que el salto de “recuerdo” a “interacción” sea técnicamente fácil… y emocionalmente explosivo.

Referéndum de Danielle Smith: 9 preguntas incómodas

El 19 de octubre de 2026, Alberta quiere poner en una sola boleta dos bombas políticas: inmigración y cambios a la Constitución. No es un “sondeo”. Es una lista de…

LO QUE PROMETE VS LO QUE REALMENTE PASA

Lo que promete: consuelo, compañía, cierre, sentir presencia.
Lo que suele pasar: terminas hablando con una versión “editada” y simplificada. Un bot no solo puede equivocarse: puede inventar con seguridad. Y una respuesta inventada, cuando estás vulnerable, pega más fuerte.

LOS 3 RIESGOS REALES (NO LOS DE PELÍCULA)

1) CONSENTIMIENTO: ¿QUIÉN AUTORIZÓ ESTO?
Hay tres actores: la persona (sus datos), quien los entrega (familia/amigos) y quien interactúa (quien “habla” con el bot). Ese triángulo es el problema: no siempre coincide lo que uno quiere con lo que otro decide.

2) PRIVACIDAD: EL DUELO SE VUELVE UN ARCHIVO
Para “imitar” bien, el producto pide lo más sensible: conversaciones privadas, audios íntimos, historia personal. Eso abre preguntas durísimas: ¿quién lo guarda?, ¿cómo se usa?, ¿se puede borrar de verdad?

3) DEPENDENCIA: LA TRAMPA ES QUE FUNCIONE “DEMASIADO BIEN”
Parte del riesgo es que la interacción se vuelva hábito. No por maldad tecnológica, sino por el incentivo de diseño: que regreses. Expertos han advertido que puede frenar el proceso normal de duelo y crear dependencia emocional.

LAS PREGUNTAS QUE TE PROTEGEN ANTES DE USAR UNO

  • ¿La persona dejó permiso explícito para esto?

  • ¿Qué datos exactos piden y dónde se almacenan?

  • ¿Puedes “retirar” el bot y borrar datos sin rodeos?

  • ¿Te advierten claramente límites y riesgos, o te venden “presencia”?

LA IDEA CLAVE

El salto no es “IA divertida”. Es pasar de recordar a interactuar con una máquina que usa la memoria como materia prima. Eso puede ser reconfortante para algunos… o profundamente invasivo para otros. Por eso este tema no es tecnología: es límites.

LO QUE PROMETE VS LO QUE REALMENTE PASA

Lo que promete: consuelo, compañía, cierre, sentir presencia.
Lo que suele pasar: terminas hablando con una versión “editada” y simplificada. Un bot no solo puede equivocarse: puede inventar con seguridad. Y una respuesta inventada, cuando estás vulnerable, pega más fuerte.

LOS 3 RIESGOS REALES (NO LOS DE PELÍCULA)

1) CONSENTIMIENTO: ¿QUIÉN AUTORIZÓ ESTO?
Hay tres actores: la persona (sus datos), quien los entrega (familia/amigos) y quien interactúa (quien “habla” con el bot). Ese triángulo es el problema: no siempre coincide lo que uno quiere con lo que otro decide.

2) PRIVACIDAD: EL DUELO SE VUELVE UN ARCHIVO
Para “imitar” bien, el producto pide lo más sensible: conversaciones privadas, audios íntimos, historia personal. Eso abre preguntas durísimas: ¿quién lo guarda?, ¿cómo se usa?, ¿se puede borrar de verdad?

3) DEPENDENCIA: LA TRAMPA ES QUE FUNCIONE “DEMASIADO BIEN”
Parte del riesgo es que la interacción se vuelva hábito. No por maldad tecnológica, sino por el incentivo de diseño: que regreses. Expertos han advertido que puede frenar el proceso normal de duelo y crear dependencia emocional.

LAS PREGUNTAS QUE TE PROTEGEN ANTES DE USAR UNO

  • ¿La persona dejó permiso explícito para esto?

  • ¿Qué datos exactos piden y dónde se almacenan?

  • ¿Puedes “retirar” el bot y borrar datos sin rodeos?

  • ¿Te advierten claramente límites y riesgos, o te venden “presencia”?

LA IDEA CLAVE

El salto no es “IA divertida”. Es pasar de recordar a interactuar con una máquina que usa la memoria como materia prima. Eso puede ser reconfortante para algunos… o profundamente invasivo para otros. Por eso este tema no es tecnología: es límites.

FUENTES:

University of Cambridge (riesgos, “hauntings” y escenarios de diseño).
Hollanek, Philosophy & Technology (consentimiento, stakeholders, recomendaciones).
University of Toronto – Schwartz Reisman Institute (dignidad humana, privacidad y marco legal).
The Guardian (mercado, dependencia y debate público).