Instagram activa un sistema de alertas para padres ante búsquedas de contenido riesgoso en adolescentes

La nueva función de Meta permitirá a las familias recibir notificaciones cuando el sistema identifique situaciones de riesgo. Aseguran que estará disponible en todo el mundo a finales de 2026

Guardar
La nueva función de Instagram
La nueva función de Instagram permitirá alertar a padres sobre búsquedas sensibles realizadas por adolescentes en la plataforma

Instagram ha anunciado que enviará alertas a padres si sus hijos adolescentes buscan reiteradamente contenido relacionado con suicidio o autolesiones en la plataforma.

Esta medida de Meta, empresa matriz, se habilitará la próxima semana en Estados Unidos, Reino Unido, Australia y Canadá. El objetivo es ofrecer más herramientas de supervisión parental ante el creciente enfoque internacional en la protección de menores en redes sociales.

La nueva función está diseñada para familias que usan los controles parentales de Instagram. Cuando se detecten búsquedas repetidas de términos sensibles —por ejemplo, “suicidio” o “autolesión”—, los padres recibirán un aviso por correo electrónico, mensaje de texto, WhatsApp o notificación directa en la aplicación, según la información de contacto disponible. Así lo informaron EFE y BBC tras consultar a Meta.

Estos avisos incluirán materiales de expertos para guiar la conversación con el menor. La compañía asegura que el objetivo es dotar a los padres de información y recursos para abordar temas complejos en el entorno digital.

Meta implementa medidas de supervisión
Meta implementa medidas de supervisión parental para abordar el riesgo de autolesiones y suicidio en menores (Imagen Ilustrativa Infobae)

Meta explica que su política prohíbe cualquier contenido que promueva o glorifique la autolesión o el suicidio. No obstante, permite publicaciones personales sobre experiencias propias, pero las oculta automáticamente para los adolescentes, incluso si provienen de cuentas seguidas por ellos.

Según BBC, la activación de alertas dependerá de un “cambio repentino” en los hábitos de búsqueda o de patrones identificados en un corto periodo.

Meta reconoce que pueden generarse avisos incluso sin una amenaza real y sostiene que prefiere actuar con cautela para proteger a los usuarios. Esta función complementa otras medidas existentes, como el bloqueo de contenidos peligrosos y la derivación a líneas de ayuda.

Disponibilidad mundial y fechas clave

El despliegue inicial será en Estados Unidos, Reino Unido, Canadá y Australia para quienes tengan activos los controles parentales. Meta prevé extender la cobertura a escala global a finales de este año y seguir sumando este sistema por regiones en 2026, informaron EFE y BBC.

Los avisos incluirán recursos de
Los avisos incluirán recursos de expertos para guiar a las familias ante situaciones delicadas detectadas en redes sociales (Imagen Ilustrativa Infobae)

La expansión responde al aumento de la preocupación sobre la influencia de las plataformas en la salud mental de menores, particularmente en América y Europa.

De manera paralela, países como España, Francia y el propio Reino Unido evalúan restringir o limitar el acceso de menores de 16 años a redes sociales, atendiendo a iniciativas que surgieron tras la reciente prohibición de estas plataformas a menores en Australia.

Presión legal e investigaciones sobre Instagram

La activación de estas alertas ocurre en medio de un entorno judicial exigente para Meta. Como detalló EFE, la empresa enfrenta investigaciones y demandas por supuestamente desarrollar algoritmos que afectan la salud mental juvenil.

Mark Zuckerberg, director ejecutivo de Meta, compareció la semana pasada ante el Tribunal Superior de Los Ángeles en respuesta a una demanda de una usuaria que alega haber desarrollado adicción durante su adolescencia.

Organizaciones advierten sobre los posibles
Organizaciones advierten sobre los posibles efectos emocionales de recibir alertas sin preparación adecuada. (Imagen Ilustrativa Infobae)

Las autoridades y legisladores, tanto de Estados Unidos como de otros mercados clave, han intensificado su vigilancia sobre Instagram y otras plataformas, presionando por mayor protección a menores. En su declaración judicial, Zuckerberg afirmó que la verificación de edad debería ser responsabilidad de los propietarios de tiendas de aplicaciones y sistemas operativos, no únicamente de quienes desarrollan las aplicaciones, informó EFE. Esto coincide con el debate internacional sobre cómo regular el acceso de jóvenes a contenidos sensibles.

Controversia y reacciones de ONGs y expertos

El anuncio ha generado críticas por parte de organizaciones dedicadas a la prevención del suicidio y a los derechos de la infancia. Según BBC, la Molly Rose Foundation calificó la iniciativa de “torpe”.

Andy Burrows, responsable de la fundación, señaló que aunque los padres desean conocer si sus hijos atraviesan dificultades, alertas de este tipo pueden dejarlos en estado de pánico y sin preparación adecuada para afrontar conversaciones tan delicadas.

Las autoridades internacionales debaten nuevas
Las autoridades internacionales debaten nuevas regulaciones para limitar el acceso de menores a redes sociales (Imagen Ilustrativa Infobae)

La organización, creada tras el suicidio de Molly Russell —adolescente que se quitó la vida tras exponerse a contenido perjudicial en Instagram—, sostiene que la nueva política traslada en exceso la responsabilidad a los padres y no enfrenta el problema central: el acceso de menores a material peligroso.

Ian Russell, padre de Molly y fundador, expuso sus dudas sobre el valor real del sistema y el impacto emocional que puede causar. Otras organizaciones, como Papyrus Prevention of Young Suicide y 5Rights, se expresaron en el mismo sentido.

Ged Flynn, representante de Papyrus, puso en duda que la empresa aborde el problema de fondo, que es la exposición de niños y jóvenes a espacios digitales peligrosos. Para Leanda Barrington-Leach, portavoz de 5Rights, la protección de los menores debería estar incorporada “por diseño y por defecto”, citó BBC.

Por su parte, Meta defiende que estas políticas forman parte de su esfuerzo continuo para proveer a las familias de más herramientas frente a las nuevas dinámicas digitales.

La inteligencia artificial será clave
La inteligencia artificial será clave en la supervisión de interacciones adolescentes sobre temas de bienestar y suicidio (Imagen Ilustrativa Infobae)

La inteligencia artificial en la protección adolescente

Junto a la supervisión de búsquedas sensibles, Meta prepara alertas similares para casos en que adolescentes interactúen con los asistentes de inteligencia artificial (IA) de la plataforma acerca de suicidio o autolesiones.

Según EFE, la compañía identifica que los jóvenes recurren cada vez más a la IA para buscar apoyo emocional o información sobre bienestar. Por ello, trabaja en sistemas automáticos para avisar a los padres y ofrecerles orientación adicional si detecta estas interacciones.

Meta considera este desarrollo prioritario y planea compartir más detalles en los próximos meses, coinciden EFE y BBC. Las nuevas medidas buscan anticipar riesgos en un contexto donde los adolescentes exploran y comparten sus experiencias en línea de formas cada vez más diversas.

Cabe la pregunta de si un padre, al recibir una alerta sobre el posible riesgo de suicidio de su hijo durante su jornada laboral, logrará reaccionar adecuadamente en un momento de tanta angustia, más allá de los recursos que pueda ofrecer Meta.