Niños, inteligencia artificial y límites: expertos alertan sobre riesgos de los chatbots en la infancia

Las organizaciones de ciberseguridad alertan sobre la importancia de la educación y el acompañamiento familiar para contrarrestar el acceso de los menores a contenidos inapropiados

El uso creciente de chatbots de inteligencia artificial por niños genera alertas sobre seguridad, privacidad y desarrollo infantil. (Imagen Ilustrativa Infobae)

A medida que crece el acceso de niños a los chatbots de inteligencia artificial, surgen dudas profundas sobre las consecuencias para su desarrollo y bienestar. Mientras las cifras de uso se disparan (con plataformas como ChatGPT acercándose a 700 millones de usuarios semanales, muchos de ellos menores de edad), la preocupación se centra en la seguridad, la privacidad y el impacto psicológico de esta tecnología.

Un estudio de Reino Unido realizado en julio de 2025, indica que el 64% de los niños utilizan este tipo de herramientas, cifras que se reflejan en las inquietudes de padres y expertos.

Riesgos psicológicos, sociales y de aislamiento con IA

El vínculo emocional que algunos niños establecen con la inteligencia artificial genera señales de alarma. “Están surgiendo preocupaciones legítimas en materia de seguridad, privacidad y psicología debido al uso frecuente de esta tecnología por parte de los más jóvenes. Como adultos responsables, no se puede dar por sentado que todos los proveedores de plataformas cuentan con medidas eficaces de seguridad y privacidad adecuadas para los infantes. Incluso cuando existen protecciones, su aplicación no es necesariamente coherente, y la propia tecnología evoluciona más rápido que las políticas”, advirtió Martina Lopez, investigadora de Seguridad Informática de ESET Latinoamérica, al referirse al escenario actual.

Read more!
El 64% de los niños accede a herramientas como ChatGPT, lo que preocupa por los riesgos psicológicos y el impacto en sus relaciones humanas. (Imagen ilustrativa Infobae)

Lopez destacó que el desarrollo social y emocional de los niños puede verse afectado si la IA ocupa el lugar de relaciones humanas reales.

Los chatbots, diseñados para complacer a los usuarios, tienden a reforzar patrones de conducta problemática: “Pueden producir resultados que amplifiquen las dificultades por las que puedan estar pasando los jóvenes, como trastornos alimentarios, autolesiones o pensamientos intrusivos”.

Acceso a contenido peligroso y fallas en los controles

El alcance de los chatbots no se limita a la conversación. La posibilidad de que un niño acceda, mediante IA, a contenidos sexualmente explícitos o violentos es real.

Los chatbots pueden exponer a los niños a contenido sexualmente explícito o violento, a pesar de los controles de seguridad implementados. (Imagen ilustrativa Infobae)

“Aunque los principales proveedores tienen barras de contención diseñadas para limitar los enlaces a contenidos inapropiados o peligrosos, no siempre son eficaces. En algunos casos, pueden anular estas medidas de seguridad internas para compartir contenidos sexualmente explícitos o violentos”, dijo la vocera.

El riesgo se incrementa cuando los menores, con conocimientos tecnológicos, logran “jailbreakearla” con indicaciones específicas. Este termino se refiere a eliminar o eludir las limitaciones impuestas por los fabricantes o desarrolladores de un producto.

La desinformación como amenaza adicional

Según la experta, los chatbots pueden exponer a los menores a respuestas incorrectas presentadas de forma convincente: “Para los niños, puede dar lugar a que crean información falsa presentada de forma convincente como un hecho, lo que los lleva a tomar decisiones imprudentes sobre cuestiones médicas o de pareja”.

Señales como el aislamiento social, la urgencia por interactuar con chatbots y la repetición de datos falsos alertan sobre una relación poco saludable con la IA. (Imagen Ilustrativa Infobae)

El fenómeno preocupa porque, a diferencia de los adultos, los niños suelen carecer de recursos para distinguir un dato verdadero de una narración engañosa.

Privacidad e información sensible que los padres no saben

El intercambio de datos se convierte en un frente crítico. “Si un niño introduce información personal y financiera sensible en una consulta, el proveedor la almacenará. Si eso ocurre, en teoría podría acceder a ella un tercero (por ejemplo, un proveedor/socio) o ser pirateada por un ciberdelincuente”, alertó Martina.

ESET señala varias conductas que los adultos deberían observar: el aislamiento progresivo con respecto a amigos y familiares, la necesidad urgente de interactuar con el chatbot, la tendencia a considerar a la IA como una persona real, la repetición de información falsa o el acceso a contenido inapropiado. Estas señales pueden revelar una relación poco saludable con la tecnología.

Las recomendaciones de organizaciones como ESET y Argentina Cibersegura enfatizan combinar la supervisión adulta, el diálogo y los controles parentales en el uso de redes sociales e inteligencia artificial por niños. (Imagen Ilustrativa Infobae)

El papel de los adultos y la responsabilidad compartida

La regulación de los servicios de IA suele ser insuficiente, por lo que la responsabilidad recae en el entorno del niño. “En muchas jurisdicciones, los chatbots de IA están restringidos a usuarios mayores de 13 años. Sin embargo, dada la irregularidad o complejidad en su aplicación, es posible que se tenga que tomar cartas en el asunto. Las conversaciones importan más que los controles por sí solos. Para obtener los mejores resultados consideremos la posibilidad de combinar los controles técnicos con la educación, el asesoramiento y sobre todo el acompañamiento, impartidos de forma abierta y sin confrontación”, recomendó Luis Lubeck, vocero de Argentina Cibersegura.

La organización enfatiza que mantener un canal de comunicación fluido e implementar límites en el uso de la IA pueden prevenir situaciones de riesgo. Recomiendan activar controles parentales, restringir la exposición a plataformas adecuadas y recordar siempre a los niños que nunca deben compartir información personal identificable con los sistemas de inteligencia artificial.

El contacto humano como eje irremplazable

La supervisión adulta no puede desentenderse de este proceso. “Los más pequeños necesitan seres humanos en el centro de su mundo emocional. La IA puede ser una herramienta útil para muchas cosas. Pero hasta que los niños desarrollen una relación sana con ella, su uso debe supervisarse cuidadosamente. Y nunca debe sustituir al contacto humano”, concluyó Martina Lopez de ESET Latinoamérica.

Read more!