CHATGPT: EL CASO QUE ENCENDIÓ A CANADÁ

Un tiroteo escolar en Tumbler Ridge (Columbia Británica) detonó una discusión que ya no es abstracta: qué debe hacer una plataforma de IA cuando detecta señales de violencia, y qué pasa cuando esa información no llega a las autoridades. En los días posteriores, el gobierno canadiense presionó a OpenAI por su manejo del caso y la empresa anunció cambios concretos en seguridad y en sus protocolos con policía.

QUÉ PASÓ

De acuerdo con reportes, la persona señalada por las autoridades como responsable del ataque (identificada como Jesse Van Rootselaar, de 18 años) habría interactuado con ChatGPT antes de los hechos. OpenAI reconoció que había suspendido una cuenta vinculada al caso en junio de 2025 por violaciones a políticas relacionadas con violencia, pero que en ese momento no consideró que hubiera evidencia suficiente para referirlo a fuerzas del orden.

POR QUÉ IMPORTA

Aquí está la parte incómoda: mucha gente asume que “si lo banean, se acabó”. No. El riesgo real es la reincidencia (volver con otra cuenta) y la zona gris del “umbral” para reportar a la policía. Si el umbral es demasiado bajo, se revientan privacidad y confianza; si es demasiado alto, se dejan pasar señales peligrosas. Canadá está usando este caso como catalizador para exigir respuestas rápidas y estándares más claros.

LA SEGUNDA CUENTA: EL TALÓN DE AQUILES

OpenAI dijo que la persona habría logrado acceder usando una segunda cuenta, pese a la suspensión previa, y que esa cuenta se identificó después de que la policía hiciera pública la identidad. Ese detalle, por sí solo, explica por qué este caso “encendió” a Canadá: no se trata solo de moderación de contenido, sino de evasión de sanciones y de qué tan bien detectan ese comportamiento las plataformas.

CANADÁ SUBE LA PRESIÓN

Según Reuters, Canadá convocó a personal de seguridad de OpenAI para conversaciones urgentes en Ottawa y advirtió que, si no veía mejoras suficientes, podría avanzar con medidas regulatorias. El mensaje político fue simple: “o lo corrigen ustedes, o lo corregimos nosotros con ley”.

QUÉ CAMBIOS ANUNCIÓ OPENAI

OpenAI indicó que fortalecerá medidas como:

  • Mejor detección de intentos de evadir suspensiones (por ejemplo, volver con otra cuenta).

  • Ajustes en los criterios de referencia a autoridades, con un enfoque más flexible para elevar casos potencialmente peligrosos.

  • Un punto de contacto directo con fuerzas del orden en Canadá para mejorar coordinación y tiempos de respuesta.

LA PREGUNTA QUE NADIE QUIERE CONTESTAR

Si una IA “ve” señales de riesgo, ¿quién decide qué es “suficiente” para reportar? Ese criterio, hoy, es una mezcla de política interna, interpretación de riesgo y miedo a equivocarse. El problema estratégico: después de una tragedia, la tolerancia social a ese margen de error se desploma. Y ahí es cuando los gobiernos entran con reglas duras.

FUENTES 

Reuters (23–26 febrero 2026) sobre la presión de Canadá y los cambios anunciados por OpenAI.
Associated Press (febrero 2026) sobre la segunda cuenta y la respuesta de OpenAI.
The Guardian (febrero 2026) sobre el baneo de 2025 y el debate de reporte