La interacción con sistemas de inteligencia artificial como ChatGPT ha transformado la forma en la que los usuarios acceden a información y resuelven dudas. La idea de mantener una conversación con una IA capaz de procesar múltiples temas en tiempo real genera altas expectativas. No obstante, especialistas advierten sobre los límites de ciberseguridad, privacidad y calidad informativa en este tipo de plataformas digitales.
Algunas preguntas nunca deberían realizarse dentro de estos sistemas debido a los riesgos que conllevan para el usuario y para su entorno personal o laboral.
Preguntas que contengan información personal
Entre las advertencias principales realizadas por WeLiveSecurity, portal oficial de la compañía de ciberseguridad ESET, uno de los mayores riesgos está en compartir información confidencial o sensible con la IA.

La popularidad de ChatGPT y herramientas similares ha convertido a estas plataformas en objetivos relevantes para ciberdelincuentes, cuyas actividades incluyen la comercialización de cuentas robadas en foros de la dark web.
Ante este panorama, los expertos hacen hincapié en que ninguna plataforma de inteligencia artificial asegura un entorno cifrado para datos personales. Los usuarios que introducen contraseñas, datos bancarios, números de identificación o información médica exponen esa información tanto a potenciales intrusiones como al procesamiento interno del propio sistema.
Jamás debe compartirse información de propiedad de una empresa, como reportes financieros, listas de clientes o estrategias comerciales, en chats de IA pública. Dicha información puede filtrarse, copiarse y almacenarse en servidores externos, sin que la persona que la publica tenga control sobre su uso posterior.
En qué respuestas puede fallar la IA
Además de los riesgos digitales, la organización hace énfasis en los riesgos derivados de buscar en la IA respuestas definitivas en campos como la salud, el derecho o las finanzas. Consultar a ChatGPT sobre diagnósticos médicos, tratamientos, interpretación de síntomas, decisiones legales o inversiones puede llevar a interpretaciones erróneas, al no contar la plataforma con acceso integral al contexto personal de cada usuario.

Desde WeLiveSecurity advirtieron que recurrir a la inteligencia artificial en temas médicos, legales y financieros puede traer consecuencias graves, ya que las respuestas proporcionadas carecen de validación profesional. Este tipo de sistemas no reemplaza el análisis personalizado ni la intervención de especialistas con formación acreditada.
Por qué no se debe utilizar a ChatGPT como terapeuta
La inteligencia artificial no posee conciencia ni capacidad emotiva, por lo que preguntar sobre sus preferencias, opiniones, valores o sentimientos genera únicamente simulaciones lingüísticas, desligadas de toda autenticidad. Al consultar a una IA qué decisión tomaría en determinada situación personal, la respuesta carecerá de sustento real y no sustituirá la perspectiva humana de un amigo, familiar o especialista.
Es frecuente que quienes consultan asocien la fluidez del diálogo con la posibilidad de tomar consejos sobre cuestiones trascendentales, como cambios laborales, familiares o personales. Sin embargo, la toma de decisiones relevantes debe incluir un análisis que trascienda las respuestas automatizadas.

Para situaciones de alto impacto emocional, la IA puede funcionar como punto de partida informativo, pero no reemplaza la consulta con personas de confianza o asesores expertos capacitados para evaluar todas las aristas de cada caso.
Por esta razón, tanto los entornos personales como profesionales deben ajustar las preferencias de privacidad en ChatGPT y evitar introducir información identificable. El reporte de ciberseguridad resaltó la importancia de establecer límites claros sobre los contenidos y temas para consultar a la IA no solo protege la privacidad individual y empresarial, sino que contribuye a la seguridad general en el uso de tecnologías emergentes.
El aprovechamiento de ChatGPT y sistemas equivalentes tiene el potencial de mejorar la productividad si el usuario actúa con un enfoque informado. Usar la inteligencia artificial como herramienta adicional implica asumir una actitud crítica y consciente ante sus limitaciones, acudiendo a personas o plataformas autorizadas para toda consulta sensible, confidencial o relevante desde el punto de vista profesional y personal.
Últimas Noticias
Estados Unidos rechazó la iniciativa de la ONU para establecer una gobernanza mundial de la inteligencia artificial
Michael Kratsios, delegado de Trump en la cumbre de IA de Nueva Delhi, dijo que la administración estadounidense rechaza la centralización y la burocracia
Por qué las claves generadas por inteligencia artificial no serían seguras, según expertos
Especialistas en ciberseguridad y estudios académicos advierten que esta práctica podría exponer a usuarios y empresas a riesgos inesperados

Cómo puedes saber con ChatGPT si una llamada, dirección o enlace son seguros o fraudulentos
Si el correo o número aparece como sospechoso, el asistente lo comunica de inmediato y sugiere medidas de seguridad

Copilot bajo la lupa: vulnerabilidad en Microsoft Office compromete la privacidad de correos
El incidente afecta directamente a la función Copilot Chat disponible en la pestaña de trabajo de las aplicaciones de Microsoft 365

Estudio revela que los CEO perciben poco impacto real de la IA en sus operaciones empresariales
Aunque dos de cada tres directivos reconocieron utilizar IA en sus procesos, el tiempo real dedicado es mínimo: cerca de 1,5 horas semanales


