Mal uso de la IA llevará a prisión: así es la nueva ley que impulsa el Senado en México

Se alista la primera Ley de IA del país con sanciones que van de multas hasta prisión por deepfakes, manipulación electoral y vigilancia masiva

Guardar
El proyecto legislativo impulsado en el Senado establece sanciones para delitos cometidos mediante sistemas inteligentes, prioriza la protección de sectores vulnerables y propone crear nuevas autoridades nacionales especializadas en supervisión y regulación tecnológica. (Infobae-Itzallana)
El proyecto legislativo impulsado en el Senado establece sanciones para delitos cometidos mediante sistemas inteligentes, prioriza la protección de sectores vulnerables y propone crear nuevas autoridades nacionales especializadas en supervisión y regulación tecnológica. (Infobae-Itzallana)

Manipular elecciones con inteligencia artificial, crear deepfakes sexuales sin consentimiento o usar sistemas autónomos letales sin supervisión humana tendrán consecuencias penales en México. El Senado de la República presentará esta semana la primera Ley de Inteligencia Artificial del país, una propuesta que llegó tras 10 meses de trabajo conjunto entre legisladores de Morena, PAN, PVEM, PRI, PT y Movimiento Ciudadano.

El texto no es menor: clasifica infracciones en tres niveles —leves, graves y gravísimas—, crea nuevas instituciones nacionales y pone en el centro de la regulación la protección de mujeres, niñas y grupos vulnerables.

¿Qué se considera una infracción “gravísima”?

Por primera vez en la historia legislativa de México, una ley incorpora el término “gravísimas” para describir las faltas más severas. Entre ellas destacan:

  • Usar IA para manipulación cognitiva, política o electoral con fines ilícitos.
  • Operar sistemas autónomos letales sin supervisión humana.
  • Implementar vigilancia masiva sin respaldo legal.
  • Introducir malware o puertas traseras en sistemas de inteligencia artificial.
  • Proveer herramientas diseñadas para el fraude, la extorsión o la suplantación de identidad.

Las infracciones graves, por su parte, incluyen operar sistemas de IA sin certificación, negarse a cooperar con auditorías o destruir registros algorítmicos.

Hombre solo en una habitación, cabizbajo frente a una laptop con una videollamada distorsionada, rosas y chocolates sobre la mesa.
La normativa, desarrollada tras meses de trabajo multipartidista, introduce clasificaciones de faltas, contempla infracciones de máxima severidad y define la creación de organismos responsables de garantizar la seguridad y el manejo ético de tecnologías. (Imagen Ilustrativa Infobae)

Deepfakes y violencia digital: el capítulo que más urge

Uno de los apartados más relevantes de la iniciativa es la protección frente a la violencia digital de género. La ley prohíbe expresamente la generación o difusión de deepfakes de contenido sexual sin consentimiento, con énfasis en que cuando las víctimas son niñas, niños o adolescentes, el consentimiento “será nulo e irrelevante”.

También quedan prohibidas la automatización de campañas de odio basadas en género, la manipulación de imágenes para acosar o extorsionar mujeres, y el diseño de sistemas orientados al ciberacoso o persecución digital.

Nuevas instituciones para vigilar la IA

La propuesta no solo pone límites: también construye la arquitectura institucional para hacerlos cumplir. El paquete incluye:

  • La Autoridad Nacional de Inteligencia Artificial, ente regulador central.
  • La Estrategia Nacional de IA, hoja de ruta para el desarrollo del sector.
  • El Fondo Nacional para el Desarrollo de la IA, con recursos para impulsar la innovación.
  • El Sistema Nacional de Certificación de la IA, para validar que los sistemas cumplan estándares de seguridad.
Generación Z - IA - jóvenes - tecnología - 19 de abril
La normativa, desarrollada tras meses de trabajo multipartidista, introduce clasificaciones de faltas, contempla infracciones de máxima severidad y define la creación de organismos responsables de garantizar la seguridad y el manejo ético de tecnologías. (Imagen ilustrativa Infobae)

Un enfoque de riesgos: no toda IA será tratada igual

La ley adopta un modelo de regulación escalonada según el impacto potencial de cada sistema. Los de alto riesgo —aquellos que incidan en derechos humanos, seguridad nacional o estabilidad democrática— estarán sujetos a registro obligatorio, auditorías y certificación. Los de uso personal o limitado solo deberán cumplir principios básicos de seguridad y transparencia.

La coordinación del proyecto estuvo a cargo del senador priista Rolando Zapata. La próxima semana comenzará su proceso formal de presentación ante el pleno.