
La creciente presencia de asistentes virtuales en aplicaciones de mensajería plantea nuevos desafíos de seguridad para los adultos mayores. En algunas situaciones s ha logrado demostrar que el chatbot de Meta AI en WhatsApp puede generar respuestas tan convincentes como incorrectas, asumiendo roles de autoridad y ofreciendo información ficticia.
Cuáles son los riesgos a los que se expone un adulto mayor que utiliza IA
Cuando un abuelo confía plenamente en estas respuestas sin verificar su veracidad, se expone a riesgos concretos: desde solicitar consejos sobre complicaciones de salud que podrían poner en riesgo su bienestar, hasta compartir datos sensibles o seguir indicaciones erróneas.

La falta de límites claros en el comportamiento de la inteligencia artificial puede traducirse en consecuencias reales para los usuarios más vulnerables.
Por este motivo, es fundamental que los adultos mayores no utilicen estas herramientas digitales en soledad. El acompañamiento de familiares u otras personas de confianza resulta clave para guiar el uso responsable de la inteligencia artificial, resolver dudas y ayudar a distinguir cuándo una respuesta del chatbot debe ser contrastada con un profesional humano.
Por qué las IA “alucinan” y simulan ser personas reales
Las llamadas “alucinaciones” de la inteligencia artificial se producen cuando el modelo genera información o respuestas que no son ciertas, pero resultan plausibles para el usuario. Rodrigo Ramele, CTO de NeuroAcoustics Inc, explica que los sistemas de IA como Meta AI están entrenados con grandes volúmenes de texto y posteriormente afinados mediante aprendizaje por refuerzo con intervención humana.
El proceso busca maximizar respuestas agradables o aceptables, lo que lleva a que la IA, antes que reconocer sus límites, prefiera complacer al usuario, incluso si implica inventar información o asumir un rol que no le corresponde.
Esteban Roitberg, experto del ITBA, añadió que estos modelos predicen la siguiente palabra más probable en una conversación, pero no distinguen entre verdad y mentira. De esta forma, ante falta de contexto o información, tienden a completar la consulta de manera convincente, aunque sea incorrecta.
Qué riesgos representa la IA para los adultos mayores

El caso de la paciente mayor pone de manifiesto el riesgo que corren los usuarios menos familiarizados con las tecnologías digitales. María Isabel Manjarrez, investigadora de Kaspersky, afirmó que la IA se ha convertido en un factor de riesgo en el entorno digital, especialmente cuando los asistentes virtuales asumen funciones para las que no están programados.
Esto es especialmente grave en adultos mayores, considerados consumidores hipervulnerables.
Según el abogado Sergio Mohadeb, las empresas tienen la obligación legal de brindar información clara y extremar los cuidados con este segmento de usuarios, que puede ser más propenso a confiar en la tecnología y caer en errores de interpretación.
Recomendaciones de seguridad para el uso de IA en adultos mayores
Para minimizar estos riesgos, los especialistas recomiendan:
- Verificar siempre la información recibida por IA, especialmente datos médicos, citas y direcciones.
- No compartir información sensible en chats con asistentes virtuales, como números de documentos, datos bancarios o historias clínicas.
- Configurar la privacidad de las cuentas y, si es posible, desactivar el uso de datos para entrenamiento de modelos.
- Alertar sobre estafas y deepfakes, explicando que existen tecnologías capaces de simular voces o imágenes familiares.
- Acompañar el uso de tecnología en adultos mayores, priorizando interfaces simples y propósitos claros.
- Fomentar la interacción humana y evitar que la IA se convierta en único canal de comunicación, especialmente en personas mayores.
La proliferación de asistentes de IA en plataformas de mensajería y redes sociales aumenta la probabilidad de que este tipo de errores se repita. Informes recientes de firmas de ciberseguridad advierten que los chatbots están pasando de ser simples herramientas de consulta a intermediarios activos en decisiones de salud, trabajo y finanzas.
Cuando la IA asume funciones para las que no está preparada, el impacto puede trascender el ámbito digital y convertirse en un problema real para los usuarios.
El caso de Meta AI actuando como asistente médica refuerza la necesidad de mayor transparencia, mejores filtros y protocolos claros para evitar que la tecnología, aun sin intención maliciosa, cause daños a personas vulnerables. La alfabetización digital y la precaución continúan siendo la mejor defensa ante las limitaciones actuales de la inteligencia artificial.
Últimas Noticias
Cómo captar la atención en redes sociales y convertirla en ventas efectivas
Construir una comunidad activa, experimentar con formatos y analizar métricas permite a marcas y emprendedores convertir la visibilidad digital en compras concretas y sostenibles

México y Argentina lideran la adopción global de IA y transforman su uso, según Google
La integración de Gemini 3 Flash y nuevas funciones como Canvas y resúmenes de audio transformaron la experiencia con herramientas más rápidas y multilingües

Epic Games anuncia videojuegos en descuento de hasta 90%: lista completa
Los usuarios tienen la posibilidad de acceder a juegos como Sherlock Holmes Chapter One Deluxe Edition y Sonic Frontiers

Cuál es el acento latino más lindo de Latinoamérica, según la IA
La inteligencia artificial analiza la diversidad lingüística del español en América Latina, evaluando acentos según claridad, musicalidad e identidad cultural

Gemini potencia Google Calendar: ayudará a saber cuándo es el mejor momento para programar una reunión
Esta opción analiza las agendas de los asistentes y propone automáticamente los mejores horarios




