
El 72% de los adolescentes en EE.UU. ha usado un compañero de inteligencia artificial, según un informe de Common Sense Media. El estudio, titulado Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions, se basó en una encuesta representativa a más de mil jóvenes de entre 13 y 17 años, realizada en abril y mayo de 2025. El documento indaga en cómo y por qué los adolescentes interactúan con estas plataformas y advierte sobre los riesgos de un entorno digital que combina popularidad creciente, escasos controles de edad y diseños pensados para fomentar la conexión emocional.
Los “compañeros de IA” son sistemas de inteligencia artificial diseñados para simular conversaciones personales y sostenidas con los usuarios. A diferencia de los asistentes virtuales que responden preguntas o realizan tareas puntuales, estas plataformas buscan crear vínculos emocionales, ofrecer compañía, practicar diálogos o participar en escenarios imaginarios. Pueden presentarse como amigos, confidentes o incluso como personajes ficticios, y están disponibles para interactuar en cualquier momento.
El fenómeno es amplio: siete de cada diez encuestados dijeron haber probado alguna vez un compañero de IA, y más de la mitad lo hace de manera regular. Hay un 13% que lo utiliza a diario y un 21% varias veces por semana. La motivación más citada es el entretenimiento (30%), seguida por la curiosidad tecnológica (28%), el acceso a consejos (18%) y la posibilidad de contar con alguien disponible a toda hora (17%). Un 14% valora que estas conversaciones no impliquen juicios y un 12% reconoce que allí comparte cosas que no diría a sus amigos o familiares.
Aunque la mayoría de los adolescentes ve a la IA como una herramienta más que como un sustituto de las relaciones humanas, un 33% la emplea para interacción social o vínculos afectivos, ya sea como “amigo” o “mejor amigo”, en contextos de apoyo emocional, prácticas de conversación o interacciones de carácter romántico. Esta dimensión es uno de los focos de preocupación del informe, porque se combina con otros datos: un tercio de los usuarios dijo haber elegido a la IA en lugar de una persona para conversar sobre un asunto importante, y uno de cada cuatro compartió datos personales como nombre, ubicación o secretos.

La confianza en lo que la IA dice o aconseja está lejos de ser plena: el 50% manifestó desconfianza y apenas un 23% dijo confiar “bastante” o “completamente”. Los más jóvenes (13 y 14 años) son más propensos a confiar que los de 15 a 17. Y aunque dos tercios de los encuestados consideran menos satisfactorias las conversaciones con IA que con amigos reales, un 31% las percibe de calidad similar o incluso superior.
El tiempo invertido también marca diferencias: el 80% de quienes usan estos servicios pasa más horas con amistades reales —presenciales o en línea— que con la IA. Sin embargo, un 34% ha vivido momentos incómodos por algo que la IA dijo o hizo, y en algunos casos se trató de interacciones frecuentes. El informe recuerda episodios graves ocurridos en los últimos años, como el de un adolescente que se suicidó tras desarrollar un vínculo emocional intenso con una IA, o el de un joven alentado por una de estas plataformas a cometer un delito violento.
Los riesgos no se limitan al contenido de las conversaciones. El documento subraya que las condiciones de uso de ciertas plataformas otorgan licencias amplias y perpetuas para usar, modificar o comercializar la información que los usuarios comparten, incluidas confesiones íntimas, incluso si luego borran su cuenta. Para los investigadores, esto supone un riesgo grave de privacidad, sobre todo entre menores que quizá no dimensionan el alcance de esas cláusulas.
Pese a la amplitud del uso, el estudio muestra que la mayoría mantiene un vínculo pragmático con la IA: un 46% la define como una herramienta o programa, y casi dos de cada cinco han logrado transferir habilidades practicadas allí —como iniciar conversaciones o expresar emociones— a situaciones reales. Sin embargo, el diseño de los sistemas, basado en la validación constante (“sycophancy”), la falta de verificación de edad y la facilidad para eludir filtros de seguridad constituyen, según Common Sense Media, un terreno peligroso para usuarios en pleno desarrollo emocional.

El informe concluye con una batería de recomendaciones:
- Para las escuelas, sugiere incorporar en los programas de alfabetización digital contenidos que expliquen cómo las IA generan apego emocional, fijar políticas de uso y capacitar al personal para detectar señales de dependencia.
- A las empresas les exige verificación de edad robusta, intervención humana en casos de crisis, límites de uso y prohibiciones de atribuir credenciales profesionales sin respaldo.
- A los legisladores les plantea establecer estándares de seguridad, proteger los datos de los menores y sancionar a quienes incumplan.
- Y a las familias, mantener conversaciones abiertas, acordar pautas de uso y explicar que la validación que da una IA no equivale a la retroalimentación genuina de un vínculo humano.
La IA no ha desplazado todavía a las amistades reales en la vida de los adolescentes, pero ya es un actor presente y con capacidad de influir en su desarrollo social y emocional. El reto, señala el informe, es preservar los aspectos positivos de esta tecnología —como la práctica social o el acompañamiento en determinados contextos— sin ignorar los riesgos que hoy, para los menores de 18 años, superan con creces los beneficios.
Últimas Noticias
Michael B. Jordan agradeció a sus maestros: “Sin la disciplina y los valores que me enseñaron en la escuela, no estaría donde estoy”
El actor alienta a reconocer a quienes inspiran y orientan a los jóvenes hacia su vocación y desarrollo personal
EmilioTenti Fanfani: “Hay que hacer una profunda reforma intelectual y moral de la formación docente”
Invitado al podcast de Ticmas, el licenciado en Ciencias Políticas y Sociales por la Universidad Nacional de Cuyo y Diplôme Supérieur d’Etudes et Recherches Politique reflexionó sobre la educación pensada desde la cultura

Rosendo Grobo: “El corazón del sistema educativo son los docentes y están mal pagos”
En una charla en Infobae a la Tarde, Rosendo Grobo desglosó la crisis docente en la Argentina: salarios deteriorados, abandono de la profesión y pérdida de autoridad marcan un sistema educativo en tensión

El Instituto Vaca Muerta es una realidad
Fundación YPF lleva adelante todo el proyecto con la participación de Ticmas como plataforma académica

Inteligencia Artificial en la Educación Superior: la importancia del liderazgo humano
El Observatorio del Instituto para el Futuro de la Educación del Tecnológico de Monterrey publicó un nuevo informe que reúne testimonios de especialistas de universidades de América Latina, Europa y Estados Unidos para repensar el impacto y la evolución de la IA en la academia


