Altman pidió disculpas por una masacre escolar: la IA detectó al atacante ocho meses antes y decidieron no avisar

Una docena de empleados de OpenAI revisó la cuenta de la tiradora de Tumbler Ridge en junio de 2025; algunos pidieron alertar a la policía. La conducción decidió que no llegaba al umbral. Ocho meses después hubo ocho muertos en un pueblo canadiense de 2.300 habitantes

Guardar
Sam Altman pide disculpas a Tumbler Ridge tras el peor tiroteo escolar en Canadá en cuatro décadas.  REUTERS/Carlos Barria/File Photo
Sam Altman pide disculpas a Tumbler Ridge tras el peor tiroteo escolar en Canadá en cuatro décadas. REUTERS/Carlos Barria/File Photo

El jueves 23 de abril, Sam Altman firmó una carta de disculpa a la comunidad de Tumbler Ridge, un pueblo de 2.300 habitantes al pie de las Montañas Rocosas canadienses. La carta se publicó al día siguiente. En ella, el director ejecutivo de OpenAI reconoció que la empresa no avisó a las autoridades cuando sus propios sistemas detectaron actividad alarmante en una cuenta de ChatGPT.

Esa cuenta era la de Jesse Van Rootselaar, la joven de 18 años que el 10 de febrero entró a la escuela secundaria de Tumbler Ridge y mató a cinco niños y una profesora, después de haber asesinado en una vivienda cercana a su madre y a su hermano de once años.

Hubo 27 heridos, dos de gravedad. Es el peor tiroteo escolar de Canadá en casi cuatro décadas.

La discusión pública sobre esta tragedia se viene contando como una historia sobre los riesgos de la inteligencia artificial. Esa lectura es cómoda y es falsa.

OpenAI suspendió la cuenta del atacante ocho meses antes del ataque, pero no alertó a las autoridades por falta de obligación legal. (Western Standard/ Jordon Kosik/Handout via REUTERS)
OpenAI suspendió la cuenta del atacante ocho meses antes del ataque, pero no alertó a las autoridades por falta de obligación legal. (Western Standard/ Jordon Kosik/Handout via REUTERS)

La detección funcionó: la cadena de mando falló

Los sistemas automatizados de OpenAI detectaron la cuenta de Van Rootselaar en junio de 2025, ocho meses antes del ataque. La marcaron por uso del modelo “para fomentar actividades violentas”. La cuenta fue suspendida. Hasta ahí, el procedimiento estándar.

Lo que reveló The Wall Street Journal y amplió The Next Web esta semana es lo que pasó después de la suspensión. Aproximadamente una docena de empleados de OpenAI revisó el caso. Algunos recomendaron alertar a las fuerzas del orden. La conducción de la empresa los sobrepasó: aplicó un “umbral más alto” y concluyó que las conversaciones no llegaban a “riesgo inminente y creíble de daño físico grave a otros”.

No hubo aviso a la policía. No hubo aviso a la familia. La cuenta quedó suspendida y el archivo cerrado.

Canadá y Estados Unidos carecen de leyes que obliguen a las empresas de inteligencia artificial a reportar amenazas a la policía. (REUTERS/Jennifer Gauthier/File Photo)
Canadá y Estados Unidos carecen de leyes que obliguen a las empresas de inteligencia artificial a reportar amenazas a la policía. (REUTERS/Jennifer Gauthier/File Photo)

El argumento técnico que la industria viene usando hace tres años para evitar la regulación dice que los modelos son demasiado complejos para confiar en su criterio, y por eso hay que dejar la responsabilidad en manos humanas.

En Tumbler Ridge ocurrió exactamente eso. La parte automatizada hizo lo que tenía que hacer. La decisión humana, que es la que la propia industria reclama como salvaguarda, falló.

El segundo caso ya está abierto

Esta semana, mientras Altman firmaba la carta a Tumbler Ridge, el fiscal general de Florida, James Uthmeier, abrió una investigación penal contra OpenAI por un caso paralelo. En abril de 2025, un estudiante de la Florida State University mató a dos personas en el campus e hirió a varias más. Los fiscales revisaron sus conversaciones con ChatGPT. Uthmeier dijo que el modelo le dio al atacante “asesoramiento significativo”. Libró citaciones para obtener los protocolos internos de OpenAI sobre denuncia de delitos a las autoridades.

Dos casos en doce meses, en dos países, con el mismo patrón: detección interna que funciona, decisión humana que no escala. Ya no es un episodio.

Canadá no tiene ninguna ley que obligue a las empresas de IA a reportar amenazas que detectan. Estados Unidos tampoco. Por eso David Eby, primer ministro de Columbia Británica, dijo que la disculpa de Altman es necesaria pero “manifiestamente insuficiente”. OpenAI bajó voluntariamente el umbral de reporte después del ataque y abrió un canal con la Real Policía Montada de Canadá. Voluntariamente. La próxima decisión la va a tomar la misma empresa, bajo el mismo marco discrecional, sin consecuencias legales por equivocarse.

La compañía está valuada en USD 852.000 millones, sirve a cientos de millones de usuarios y ya tiene los sistemas que necesita para identificar riesgo en tiempo real. Lo que no tiene es obligación de hacer nada con lo que detecta.

La autorregulación voluntaria fracasó en su prueba más fácil: la de actuar cuando el sistema de la propia empresa pide actuar. Cualquier ley de IA que se discuta de acá a un año tiene que partir de eso.