Qué riesgos corre un adulto mayor si confía demasiado en la IA de WhatsApp

Cuando la inteligencia artificial asume roles de autoridad y proporciona información errónea, los adultos mayores pueden verse envueltos en situaciones peligrosas sin advertirlo

Guardar
La interacción sin precaución con
La interacción sin precaución con asistentes de IA puede llevar a consecuencias reales para los usuarios mayores, quienes confían en respuestas que parecen verídicas pero carecen de verificación - (Imagen Ilustrativa Infobae)

La creciente presencia de asistentes virtuales en aplicaciones de mensajería plantea nuevos desafíos de seguridad para los adultos mayores. En algunas situaciones s ha logrado demostrar que el chatbot de Meta AI en WhatsApp puede generar respuestas tan convincentes como incorrectas, asumiendo roles de autoridad y ofreciendo información ficticia.

Cuáles son los riesgos a los que se expone un adulto mayor que utiliza IA

Cuando un abuelo confía plenamente en estas respuestas sin verificar su veracidad, se expone a riesgos concretos: desde solicitar consejos sobre complicaciones de salud que podrían poner en riesgo su bienestar, hasta compartir datos sensibles o seguir indicaciones erróneas.

Cómo protegerse frente a chatbots
Cómo protegerse frente a chatbots que simulan ser humanos: claves ante las fallas de la inteligencia artificial - (Composición Infobae)

La falta de límites claros en el comportamiento de la inteligencia artificial puede traducirse en consecuencias reales para los usuarios más vulnerables.

Por este motivo, es fundamental que los adultos mayores no utilicen estas herramientas digitales en soledad. El acompañamiento de familiares u otras personas de confianza resulta clave para guiar el uso responsable de la inteligencia artificial, resolver dudas y ayudar a distinguir cuándo una respuesta del chatbot debe ser contrastada con un profesional humano.

Por qué las IA “alucinan” y simulan ser personas reales

Las llamadas “alucinaciones” de la inteligencia artificial se producen cuando el modelo genera información o respuestas que no son ciertas, pero resultan plausibles para el usuario. Rodrigo Ramele, CTO de NeuroAcoustics Inc, explica que los sistemas de IA como Meta AI están entrenados con grandes volúmenes de texto y posteriormente afinados mediante aprendizaje por refuerzo con intervención humana.

El proceso busca maximizar respuestas agradables o aceptables, lo que lleva a que la IA, antes que reconocer sus límites, prefiera complacer al usuario, incluso si implica inventar información o asumir un rol que no le corresponde.

Esteban Roitberg, experto del ITBA, añadió que estos modelos predicen la siguiente palabra más probable en una conversación, pero no distinguen entre verdad y mentira. De esta forma, ante falta de contexto o información, tienden a completar la consulta de manera convincente, aunque sea incorrecta.

Qué riesgos representa la IA para los adultos mayores

Verificar datos, evitar compartir información
Verificar datos, evitar compartir información sensible y acompañar a usuarios vulnerables son estrategias fundamentales para evitar que los asistentes de IA causen daños involuntarios o generen confusiones - (Imagen ilustrativa Infobae)

El caso de la paciente mayor pone de manifiesto el riesgo que corren los usuarios menos familiarizados con las tecnologías digitales. María Isabel Manjarrez, investigadora de Kaspersky, afirmó que la IA se ha convertido en un factor de riesgo en el entorno digital, especialmente cuando los asistentes virtuales asumen funciones para las que no están programados.

Esto es especialmente grave en adultos mayores, considerados consumidores hipervulnerables.

Según el abogado Sergio Mohadeb, las empresas tienen la obligación legal de brindar información clara y extremar los cuidados con este segmento de usuarios, que puede ser más propenso a confiar en la tecnología y caer en errores de interpretación.

Recomendaciones de seguridad para el uso de IA en adultos mayores

Para minimizar estos riesgos, los especialistas recomiendan:

  • Verificar siempre la información recibida por IA, especialmente datos médicos, citas y direcciones.
  • No compartir información sensible en chats con asistentes virtuales, como números de documentos, datos bancarios o historias clínicas.
  • Configurar la privacidad de las cuentas y, si es posible, desactivar el uso de datos para entrenamiento de modelos.
  • Alertar sobre estafas y deepfakes, explicando que existen tecnologías capaces de simular voces o imágenes familiares.
  • Acompañar el uso de tecnología en adultos mayores, priorizando interfaces simples y propósitos claros.
  • Fomentar la interacción humana y evitar que la IA se convierta en único canal de comunicación, especialmente en personas mayores.

La proliferación de asistentes de IA en plataformas de mensajería y redes sociales aumenta la probabilidad de que este tipo de errores se repita. Informes recientes de firmas de ciberseguridad advierten que los chatbots están pasando de ser simples herramientas de consulta a intermediarios activos en decisiones de salud, trabajo y finanzas.

Cuando la IA asume funciones para las que no está preparada, el impacto puede trascender el ámbito digital y convertirse en un problema real para los usuarios.

El caso de Meta AI actuando como asistente médica refuerza la necesidad de mayor transparencia, mejores filtros y protocolos claros para evitar que la tecnología, aun sin intención maliciosa, cause daños a personas vulnerables. La alfabetización digital y la precaución continúan siendo la mejor defensa ante las limitaciones actuales de la inteligencia artificial.