DAVID: el chatbot que te asesora legalmente en alberta

Un chatbot con IA llamado DAVID ya está atendiendo a personas con reclamos por lesiones en Alberta. Contesta llamadas casi al instante, dice que la llamada se graba, hace preguntas, muestra posibles escenarios de un reclamo civil y luego pide honorarios. Suena eficiente. También abre una pregunta incómoda: ¿qué pasa cuando una herramienta “convincente” se equivoca?

QUÉ ES DAVID Y POR QUÉ ESTÁ DANDO DE QUÉ HABLAR

DAVID significa Digital Attorney for Victim Injury Disputes y lo opera Painworth, una firma de lesiones personales en Alberta. La promesa es clara: atención 24/7, en “casi cualquier idioma”, con un flujo tipo entrevista que recopila datos (nombre, dirección, detalles del accidente) y orienta sobre el posible resultado de un reclamo.

Aquí está el matiz clave: no es un abogado humano. Según la propia firma, cada cliente queda supervisado por uno de sus tres abogados. Es decir, se vende como “abogado IA”, pero en la práctica funciona más como asistente legal automatizado con revisión humana.

 

CÓMO PUEDE EXISTIR ALGO ASÍ SIN ROMPER LAS REGLAS

Porque Alberta lo está probando dentro del Innovation Sandbox de la Law Society of Alberta: un entorno controlado donde el regulador puede relajar o exentar reglas para probar nuevos modelos de servicios legales, con condiciones, supervisión y reportes.

El reportaje menciona exenciones que normalmente serían impensables, como permitir operación/propiedad no tradicional y excepciones relacionadas con “práctica no autorizada”, precisamente para poder probar el modelo.

Importante: “aprobado para probar” no significa “garantizado” ni “respaldado”. Painworth mismo publica un aviso de “no endorsement” (no certificación/endorso de calidad por parte del regulador).

POR QUÉ A MUCHOS LES VA A PARECER UN GAME CHANGER

Porque en lesiones personales hay tareas repetitivas: recopilar hechos, ordenar documentos, comparar con precedentes típicos, preparar pasos iniciales. Un profesor de IA y derecho lo resume con lógica económica: si un abogado cobra cientos por hora para tareas que una IA hace en minutos, el incentivo a automatizar es enorme.

Además, el acceso: si alguien se accidenta un fin de semana, la “puerta” tradicional puede estar cerrada. Un bot no duerme, no se va a comer y no “te responde el lunes”.

EL PROBLEMA: NO SOLO PUEDE FALLAR, PUEDE FALLAR CON CONFIANZA

La crítica más seria no es “la IA se equivoca”. Es: se equivoca sonando segura. Y en algo tan sensible como un accidente (dolor, estrés, dinero, miedo), esa seguridad puede enganchar.

También está el tema de privacidad: el flujo incluye grabación de llamada y recolección de datos personales desde el minuto uno. Si alguien está vulnerable, puede “soltar todo” antes de entender qué autorizó y cómo se almacenará.

SI ALGUIEN USA UN BOT ASÍ, ESTO ES LO INTELIGENTE

Sin entrar en asesoría legal, hay reglas de sentido común para no regalarse:

  • Confirmar quién es el abogado responsable del caso y en qué momento revisa lo que dijo la IA.

  • Preguntar por escrito qué datos se guardan, por cuánto tiempo y con qué fines (y si la llamada se grabará).

  • Pedir el acuerdo de honorarios antes de asumir que “ya estás representado”.

  • Tratar la orientación inicial como eso: orientación, no veredicto. Si algo suena demasiado redondo, vale la pena contrastarlo.

LO QUE ESTO ANTICIPA

Esto no es un caso aislado. El mismo Sandbox ha aprobado otros modelos basados en tecnología/IA, como herramientas para transacciones inmobiliarias y plataformas para acuerdos de pareja. La dirección es clara: más automatización, más modelos híbridos y más pruebas reguladas antes de abrir la puerta por completo.

FUENTES:

  • The Canadian Press (17 febrero 2026) – Reportaje sobre DAVID y Painworth.

  • Law Society of Alberta – Innovation Sandbox (qué es y cómo opera).

  • Law Society of Alberta – Approved Sandbox Participants (ejemplos: Jointly).

  • Painworth – Aviso de participación en Sandbox y “no endorsement”.