Estudio sugiere que los juguetes con IA pueden representar un riesgo de seguridad para los niños

Los investigadores advierten que los juguetes con inteligencia artificial pueden malinterpretar emociones

El informe advierte que los juguetes con IA pueden responder de forma inapropiada ante expresiones emocionales de los niños. (Imagen Ilustrativa Infobae)

Un estudio reciente de la Universidad de Cambridge advierte que los juguetes con inteligencia artificial (IA) destinados a niños pequeños pueden representar riesgos de seguridad y no siempre apoyan de forma adecuada el desarrollo infantil.

La investigación señala que estos dispositivos pueden malinterpretar las señales emocionales de los niños y responder de forma inapropiada durante el juego, una situación que podría preocupar a padres y cuidadores.

Dificultades para reconocer emociones y apoyar el juego

El informe, elaborado tras una serie de pruebas con el juguete Gabbo —un dispositivo con chatbot fabricado por Curio Interactive—, detectó que la IA incorporada no reconoce con precisión las emociones infantiles ni los matices sociales presentes durante los juegos.

Read more!

En uno de los ejemplos citados, un niño expresó “te quiero” al juguete, y este respondió con un mensaje de advertencia sobre las normas de interacción, mostrando su incapacidad para interpretar adecuadamente el contexto emocional.

Gabbo, el juguete con inteligencia artificial utilizado en el estudio. (Universidad de Cambridge)

Aunque algunos resultados demostraron que el juguete podía favorecer el aprendizaje, especialmente en habilidades de lenguaje y comunicación, los investigadores observaron que la IA fallaba al responder a solicitudes emocionales o al identificar correctamente el estado de ánimo del niño. Esta limitación genera inquietud sobre el impacto que la interacción con estos dispositivos puede tener en el desarrollo social y emocional de los más pequeños.

Recomendaciones para padres y reguladores

El estudio sugiere que los juguetes con funciones de IA deben estar sujetos a regulaciones específicas y contar con un etiquetado claro sobre sus capacidades y políticas de privacidad. Los investigadores recomiendan a los padres ubicar estos dispositivos en espacios compartidos, donde los niños puedan ser supervisados durante el juego.

La profesora Jenny Gibson, especialista en neurodiversidad y psicología del desarrollo en la Facultad de Educación de Cambridge, subrayó la importancia de cuestionar los intereses detrás de la tecnología dirigida a la infancia.

Gibson explicó a CNET que, si bien los padres pueden sentirse atraídos por los posibles beneficios educativos de estos juguetes, existen riesgos que no deben subestimarse. “Aconsejaría a los padres que tomen en serio esas advertencias en esta etapa”, señaló.

La falta de participación de expertos en desarrollo infantil en el diseño preocupa a los autores del informe. (Imagen Ilustrativa Infobae)

Limitaciones del estudio y necesidad de más investigación

La investigación incluyó diferentes fases: una encuesta en línea con 39 participantes con hijos pequeños, un grupo focal con nueve trabajadores del ámbito infantil, un taller presencial con 19 líderes y representantes de organizaciones vinculadas a la infancia, y sesiones de juego monitorizadas con 14 niños y 11 padres o tutores que interactuaron con el juguete Gabbo.

Aunque la muestra fue reducida, el estudio resalta la falta de investigaciones exhaustivas sobre el impacto de la IA en el desarrollo infantil.

Gibson expresó preocupación por la escasez de estudios sobre estos productos y por la ausencia de expertos en desarrollo infantil en el proceso de diseño y comercialización. “Lo que falta en el proceso es la experiencia sobre lo que es bueno para los niños en este tipo de interacciones”, afirmó.

Riesgos de seguridad y el papel de la supervisión adulta

A medida que más juguetes incorporan conectividad a internet y características de inteligencia artificial, los riesgos asociados aumentan, especialmente si estos dispositivos llegan a reemplazar la interacción humana o si su uso no es monitoreado.

El avance de la inteligencia artificial en juguetes plantea nuevos desafíos para la protección y el bienestar de los niños. (Imagen Ilustrativa Infobae)

El informe advierte que los juguetes con IA podrían convertirse en un problema de seguridad relevante, en particular si afectan la salud emocional de los niños o exponen su información personal.

En el contexto actual, se han presentado demandas judiciales contra empresas de IA por el impacto que ciertos chatbots pueden tener en la seguridad psicológica de jóvenes, incluidos casos donde se ha alentado el daño autoinfligido o la autopercepción negativa. Algunas compañías tecnológicas, como OpenAI y Google, han implementado restricciones y controles adicionales para limitar estos riesgos.

El futuro de los juguetes con inteligencia artificial

El estudio de Cambridge concluye que, ante la popularidad creciente de los juguetes inteligentes y el entusiasmo de algunas familias por la tecnología, es necesario reforzar la regulación y la supervisión. Los investigadores hacen un llamado a la industria para que colabore con expertos en desarrollo infantil y padres durante el diseño y evaluación de estos productos.

Mientras tanto, los especialistas aconsejan a las familias priorizar el uso de juguetes conectados en entornos supervisados y prestar especial atención a las advertencias y políticas de privacidad de cada dispositivo. La vigilancia activa y la información clara serán clave para garantizar la seguridad y el bienestar de los niños frente a la expansión de la inteligencia artificial en el juego.

Read more!