
Instagram ha anunciado que enviará alertas a padres si sus hijos adolescentes buscan reiteradamente contenido relacionado con suicidio o autolesiones en la plataforma.
Esta medida de Meta, empresa matriz, se habilitará la próxima semana en Estados Unidos, Reino Unido, Australia y Canadá. El objetivo es ofrecer más herramientas de supervisión parental ante el creciente enfoque internacional en la protección de menores en redes sociales.
La nueva función está diseñada para familias que usan los controles parentales de Instagram. Cuando se detecten búsquedas repetidas de términos sensibles —por ejemplo, “suicidio” o “autolesión”—, los padres recibirán un aviso por correo electrónico, mensaje de texto, WhatsApp o notificación directa en la aplicación, según la información de contacto disponible. Así lo informaron EFE y BBC tras consultar a Meta.
Estos avisos incluirán materiales de expertos para guiar la conversación con el menor. La compañía asegura que el objetivo es dotar a los padres de información y recursos para abordar temas complejos en el entorno digital.

Meta explica que su política prohíbe cualquier contenido que promueva o glorifique la autolesión o el suicidio. No obstante, permite publicaciones personales sobre experiencias propias, pero las oculta automáticamente para los adolescentes, incluso si provienen de cuentas seguidas por ellos.
Según BBC, la activación de alertas dependerá de un “cambio repentino” en los hábitos de búsqueda o de patrones identificados en un corto periodo.
Meta reconoce que pueden generarse avisos incluso sin una amenaza real y sostiene que prefiere actuar con cautela para proteger a los usuarios. Esta función complementa otras medidas existentes, como el bloqueo de contenidos peligrosos y la derivación a líneas de ayuda.
Disponibilidad mundial y fechas clave
El despliegue inicial será en Estados Unidos, Reino Unido, Canadá y Australia para quienes tengan activos los controles parentales. Meta prevé extender la cobertura a escala global a finales de este año y seguir sumando este sistema por regiones en 2026, informaron EFE y BBC.

La expansión responde al aumento de la preocupación sobre la influencia de las plataformas en la salud mental de menores, particularmente en América y Europa.
De manera paralela, países como España, Francia y el propio Reino Unido evalúan restringir o limitar el acceso de menores de 16 años a redes sociales, atendiendo a iniciativas que surgieron tras la reciente prohibición de estas plataformas a menores en Australia.
Presión legal e investigaciones sobre Instagram
La activación de estas alertas ocurre en medio de un entorno judicial exigente para Meta. Como detalló EFE, la empresa enfrenta investigaciones y demandas por supuestamente desarrollar algoritmos que afectan la salud mental juvenil.
Mark Zuckerberg, director ejecutivo de Meta, compareció la semana pasada ante el Tribunal Superior de Los Ángeles en respuesta a una demanda de una usuaria que alega haber desarrollado adicción durante su adolescencia.

Las autoridades y legisladores, tanto de Estados Unidos como de otros mercados clave, han intensificado su vigilancia sobre Instagram y otras plataformas, presionando por mayor protección a menores. En su declaración judicial, Zuckerberg afirmó que la verificación de edad debería ser responsabilidad de los propietarios de tiendas de aplicaciones y sistemas operativos, no únicamente de quienes desarrollan las aplicaciones, informó EFE. Esto coincide con el debate internacional sobre cómo regular el acceso de jóvenes a contenidos sensibles.
Controversia y reacciones de ONGs y expertos
El anuncio ha generado críticas por parte de organizaciones dedicadas a la prevención del suicidio y a los derechos de la infancia. Según BBC, la Molly Rose Foundation calificó la iniciativa de “torpe”.
Andy Burrows, responsable de la fundación, señaló que aunque los padres desean conocer si sus hijos atraviesan dificultades, alertas de este tipo pueden dejarlos en estado de pánico y sin preparación adecuada para afrontar conversaciones tan delicadas.

La organización, creada tras el suicidio de Molly Russell —adolescente que se quitó la vida tras exponerse a contenido perjudicial en Instagram—, sostiene que la nueva política traslada en exceso la responsabilidad a los padres y no enfrenta el problema central: el acceso de menores a material peligroso.
Ian Russell, padre de Molly y fundador, expuso sus dudas sobre el valor real del sistema y el impacto emocional que puede causar. Otras organizaciones, como Papyrus Prevention of Young Suicide y 5Rights, se expresaron en el mismo sentido.
Ged Flynn, representante de Papyrus, puso en duda que la empresa aborde el problema de fondo, que es la exposición de niños y jóvenes a espacios digitales peligrosos. Para Leanda Barrington-Leach, portavoz de 5Rights, la protección de los menores debería estar incorporada “por diseño y por defecto”, citó BBC.
Por su parte, Meta defiende que estas políticas forman parte de su esfuerzo continuo para proveer a las familias de más herramientas frente a las nuevas dinámicas digitales.

La inteligencia artificial en la protección adolescente
Junto a la supervisión de búsquedas sensibles, Meta prepara alertas similares para casos en que adolescentes interactúen con los asistentes de inteligencia artificial (IA) de la plataforma acerca de suicidio o autolesiones.
Según EFE, la compañía identifica que los jóvenes recurren cada vez más a la IA para buscar apoyo emocional o información sobre bienestar. Por ello, trabaja en sistemas automáticos para avisar a los padres y ofrecerles orientación adicional si detecta estas interacciones.
Meta considera este desarrollo prioritario y planea compartir más detalles en los próximos meses, coinciden EFE y BBC. Las nuevas medidas buscan anticipar riesgos en un contexto donde los adolescentes exploran y comparten sus experiencias en línea de formas cada vez más diversas.
Cabe la pregunta de si un padre, al recibir una alerta sobre el posible riesgo de suicidio de su hijo durante su jornada laboral, logrará reaccionar adecuadamente en un momento de tanta angustia, más allá de los recursos que pueda ofrecer Meta.
Últimas Noticias
“La inteligencia artificial reemplaza empleos pero también crea nuevos”: el análisis de Delfina Arambillet luego de los despidos masivos en Block
La periodista especializada en datos e inteligencia artificial analizó en Infobae a la Tarde el impacto de la decisión de Jack Dorsey de despedir a 4.000 empleados en Block. Sostuvo que la automatización seguirá transformando el mercado laboral y pidió mirar los datos antes que alimentar el miedo

Códigos Free Fire para este fin de semana: cuáles son y cómo canjearlos
Al seguir estos pasos, los jugadores podrán obtener diamantes, skins y otros elementos clave sin gastar dinero

HBO Max endurece sus reglas y pone fin a las cuentas compartidas en 2026
La compañía busca convertir a los usuarios que antes accedían sin pagar en suscriptores individuales

Cómo tener alertas de Instagram para saber si mi hijo busca temas de autolesión
Meta consultó a expertos en seguridad infantil para definir los parámetros que activan las notificaciones ante riesgos psicológicos


