Las principales redes sociales aceptan una evaluación independiente sobre su seguridad para adolescentes

El compromiso de las mayores plataformas digitales permite que expertos analicen sus políticas y herramientas, en medio de crecientes demandas sociales y legales por asegurar un entorno digital más protegido para los jóvenes

Guardar
Las principales redes sociales aceptaron
Las principales redes sociales aceptaron evaluaciones independientes para mejorar la seguridad adolescente en plataformas digitales (Imagen Ilustrativa Infobae)

Las principales redes sociales del mundo decidieron someterse a una revisión independiente sobre su impacto en la salud mental de los adolescentes. Bajo el escrutinio de expertos, estas plataformas serán evaluadas de acuerdo con nuevos estándares, en un contexto donde crece la preocupación social, política y judicial por el bienestar de los jóvenes en línea.

Acuerdo de redes sociales para ser evaluadas

En respuesta a la presión pública y a múltiples demandas, Meta, propietaria de Facebook e Instagram, junto a TikTok y Snap, aceptaron participar en un sistema de evaluación que medirá la protección que ofrecen a sus usuarios adolescentes.

El acuerdo implica que las plataformas permitirán que expertos externos revisen sus políticas y herramientas con el objetivo de verificar si cumplen con los requisitos de seguridad exigidos para este grupo etario. Dicha decisión marca un cambio de postura en la industria, que hasta ahora había resistido mecanismos de control independientes de esta naturaleza.

Meta, TikTok y Snap acuerdan
Meta, TikTok y Snap acuerdan someterse a revisión externa de expertos para verificar la protección de la salud mental de los adolescentes (Imagen Ilustrativa Infobae)

Estándares y criterios del sistema de calificación

El corazón de la iniciativa reside en un conjunto de dos docenas de estándares desarrollados por especialistas en salud mental. Estos criterios buscan determinar en qué medida las redes sociales priorizan el bienestar de los jóvenes.

Entre los aspectos que serán evaluados destacan la existencia de funciones que limiten el tiempo de uso, la posibilidad de desactivar el desplazamiento infinito y la presencia de pausas obligatorias.

Además, se analizarán políticas sobre exposición a contenidos relacionados con suicidio y autolesiones, así como la transparencia en la gestión de información y la educación sobre riesgos digitales.

Las plataformas que obtengan una calificación elevada recibirán un distintivo de escudo azul, mientras que aquellas con resultados deficientes serán identificadas como incapaces de bloquear contenido dañino.

El nuevo sistema de calificación
El nuevo sistema de calificación de redes sociales utiliza dos docenas de estándares desarrollados por especialistas en salud mental juvenil (Freepik)

Participación de empresas y proceso de evaluación

Las tres compañías pioneras —Meta, TikTok y Snap— ya se han inscrito en el proceso, que será gestionado por una coalición de organizaciones especializadas. El procedimiento contempla la entrega de políticas internas y diseños de producto para que expertos externos realicen su valoración.

El sistema se inspira en procesos similares, como la clasificación de películas por edades o las pruebas de seguridad de vehículos. La evaluación cubrirá aspectos como la supervisión interna de las plataformas, la educación de los usuarios y los mecanismos de control parental.

La inscripción en el programa es voluntaria, pero las empresas que decidan participar podrán demostrar públicamente su compromiso con la seguridad adolescente a través del distintivo que otorga la evaluación.

Contexto de presiones legales, regulatorias y demandas

El lanzamiento de estos estándares ocurre en un contexto de creciente presión sobre la industria tecnológica. Legisladores y tribunales de Estados Unidos y otros países analizan leyes para proteger a los menores en línea, al tiempo que proliferan demandas que acusan a las plataformas de diseñar productos adictivos y poco transparentes.

En particular, se presentaron juicios que alegan que las redes sociales incentivan hábitos perjudiciales en niños y adolescentes. Sin embargo, la aplicación de nuevas regulaciones enfrenta obstáculos legales y desacuerdos políticos, lo que ha dificultado la aprobación de normas efectivas.

Las plataformas serán analizadas por
Las plataformas serán analizadas por su transparencia, políticas ante contenidos peligrosos y educación sobre riesgos digitales para menores (Imagen Ilustrativa Infobae)

Opiniones de las plataformas tecnológicas involucradas

Las empresas tecnológicas han manifestado su respaldo a la iniciativa. Meta señaló que los nuevos estándares permitirán que el público evalúe la protección ofrecida a los jóvenes y exija responsabilidades a las compañías.

Por su parte, TikTok expresó entusiasmo por el proceso de calificación, mientras que Snap calificó de valiosa la labor de la Mental Health Coalition, la organización promotora del proyecto.

Estas declaraciones reflejaron la voluntad de los gigantes tecnológicos de mostrar apertura ante el escrutinio y de colaborar con organizaciones externas para mejorar sus entornos digitales.

Debate sobre el impacto de las redes sociales en la salud mental adolescente

Aunque existe consenso en que el uso intensivo de redes sociales puede asociarse a problemas de salud mental, la comunidad científica no ha llegado a una conclusión definitiva acerca de su efecto global en niños y adolescentes.

Algunos estudios advirtieron que los usuarios más intensivos presentan peores indicadores de bienestar, mientras que otras investigaciones señalaron que la ausencia de conexión digital también puede generar dificultades.

La evaluación revisa funciones como
La evaluación revisa funciones como límites de tiempo, desactivación de desplazamiento infinito y pausas obligatorias en redes sociales (Imagen Ilustrativa Infobae)

No obstante, los adolescentes reportaron crecientes niveles de malestar por el tiempo que pasan en línea. Encuestas recientes mostraron que muchas jóvenes, especialmente mujeres, relacionan el uso de aplicaciones con disminución de la autoestima, alteraciones en el sueño y deterioro de su salud mental.

El desarrollo y aplicación de estos estándares representa, para muchos expertos, un primer paso significativo hacia entornos digitales más seguros, aunque no sustituye la necesidad de regulaciones legales formales.