LE NEGARON LA RESIDENCIA CON UN PERFIL FALSO

La historia de Kémy Adé abre una pregunta incómoda para Canadá: ¿qué pasa cuando una solicitud migratoria recibe una negativa con información que no coincide con la realidad del expediente? El caso, reportado este 25 de marzo de 2026, no solo encendió alarmas por el error en sí, sino por el contexto: IRCC acaba de formalizar su estrategia de inteligencia artificial para apoyar parte de sus operaciones.

CUANDO UNA CARTA OFICIAL NO SE PARECE A TU VIDA REAL

Según el caso difundido, Adé —académica vinculada a McMaster University— recibió una negativa de residencia permanente en la que aparecían funciones laborales que no correspondían a su perfil. No era un detalle menor. No era una fecha mal capturada ni una palabra confusa. Era, en esencia, una descripción laboral ajena. Y ahí es donde la historia deja de ser un simple error administrativo y se vuelve una señal de alerta sobre cómo se está procesando información que puede cambiarle la vida a una persona.

IRCC YA NO OCULTA QUE USA IA

Lo importante de este caso es que no ocurre en el vacío. En su estrategia oficial de 2026, IRCC reconoce que lleva más de una década incorporando automatización e inteligencia artificial. El documento afirma que desde 2013 el departamento experimenta con estas herramientas; que desde 2017 aprobó modelos para generar reglas de automatización; que más de 7 millones de solicitudes han sido evaluadas por esa automatización; y que hoy también usa IA para clasificar alrededor de 4 millones de correos al año. Además, IRCC dice que busca usar IA para reducir atrasos, mejorar tiempos de procesamiento y fortalecer la integridad del sistema.

EL PROBLEMA NO ES SOLO LA IA, SINO QUIÉN LA SUPERVISA

Aquí está el punto que muchos pasan por alto. IRCC insiste en su estrategia que no utiliza agentes autónomos de IA para rechazar solicitudes, que debe mantenerse la supervisión humana, que sus sistemas no deben funcionar como “cajas negras” y que los resultados relacionados con IA deben ser explicables, auditables y validados. Incluso su AI Charter dice con claridad que los sistemas “nunca corren de forma autónoma” y que el departamento es responsable de todo lo que la IA haga. Suena bien en papel. El problema es que, si en una negativa oficial aparece un perfil laboral inventado, la pregunta ya no es si la IA actuó sola, sino cómo falló la cadena completa de revisión.

EL PROPIO GOBIERNO ADMITE QUE LA IA GENERATIVA PUEDE FALLAR

El contraste se vuelve todavía más fuerte cuando se revisa la guía federal sobre uso de IA generativa. El propio Gobierno de Canadá advierte que estas herramientas no deben usarse en todos los casos, que hay que evaluar riesgos antes de desplegarlas y que su opacidad puede afectar la equidad procesal. La guía también reconoce riesgos de contenido inexacto, sesgado o inconsistente, y advierte sobre la “automation bias”, es decir, la tendencia humana a aceptar demasiado rápido lo que arroja un sistema automatizado. Por eso recomienda usar estas herramientas como apoyo, no como sustituto del juicio humano.

UN “HUMANO EN EL LOOP” NO ARREGLA TODO

A veces se vende la idea de que basta con decir “un oficial tomó la decisión final” para que el problema desaparezca. No es así. La guía sobre el alcance de la Directiva sobre Toma Automatizada de Decisiones deja claro que las salvaguardas aplican incluso cuando hay un humano en el proceso o cuando un oficial conserva la decisión final. Si el sistema asiste el juicio en algún punto de una decisión administrativa, entran en juego exigencias de transparencia, calidad, posibilidad de impugnar y reporte público. En otras palabras: tener a una persona al final de la cadena no borra el riesgo; solo obliga a que esa supervisión sea real y no decorativa.

LO QUE ESTE CASO REALMENTE EXPONE

El caso de Adé importa porque rompe una ilusión cómoda: la de pensar que la tecnología solo acelera trámites sin alterar su fondo. No necesariamente. Cuando una herramienta resume, clasifica, prioriza o interpreta información, también puede deformarla. Y en inmigración, una deformación no es un detalle técnico. Puede significar la pérdida de una oportunidad, años de espera, gastos enormes y un golpe brutal a la confianza en el sistema. La IA puede servir para ordenar volumen y reducir tiempos, sí. Pero cuando entra en procesos complejos, la velocidad nunca puede valer más que la precisión.

LA PREGUNTA QUE CANADÁ YA NO PUEDE EVITAR

IRCC quiere presentarse como una institución moderna, eficiente y responsable en su adopción de inteligencia artificial. El problema es que casos como este cambian la conversación. Ya no se trata de si la IA ayuda a procesar más rápido. Se trata de si el sistema puede demostrar, de forma creíble, cuándo intervino una herramienta, qué hizo exactamente, qué revisó el oficial y cómo se corrige un error cuando la tecnología y la burocracia se mezclan mal. Porque una negativa migratoria con un perfil falso no solo afecta a una persona. También deja al descubierto algo más grave: que la confianza pública puede romperse mucho más rápido de lo que se procesa un expediente.

FUENTES
IRCC — Immigration, Refugees and Citizenship Canada’s Artificial Intelligence Strategy — estrategia oficial sobre cómo el departamento usa IA y cuáles son sus principios y límites.

Treasury Board of Canada Secretariat — Guide on the use of generative artificial intelligence — guía oficial sobre riesgos, sesgos, equidad procesal, transparencia y supervisión humana.

Treasury Board of Canada Secretariat — Guide on the Scope of the Directive on Automated Decision-Making — marco oficial sobre transparencia, calidad, recourse y decisiones asistidas por sistemas automatizados, incluso con humano en el proceso.

Toronto Star / Nicholas Keung — reportaje sobre el caso de Kémy Adé, visible en Google News el 25 de marzo de 2026.