
El uso de herramientas como ChatGPT se ha extendido a los espacios de trabajo. Los usuarios aprovechan la IA para diferentes tareas y optimizar su tiempo. Pero como todo servicio en internet, existen una serie de riesgos que se deben tener en cuenta para no ceder datos importantes y ponernos en peligro a nosotros mismos o a la compañía.
Al ver las oportunidades de mejora gracias a la IA, las empresas han implementado esta tecnología para, por ejemplo, tener una atención al cliente y soporte técnico automatizado, así como para traducir documentos y generar contenidos web. Labores en las que hay un alto flujo de datos y hay que tener muchos cuidados.
Riesgos de usar ChatGPT en el trabajo
- Seguridad de la información
Uno de los riesgos más significativos es la seguridad de la información. ChatGPT, al igual que otras herramientas de IA, recopila y guarda todo lo que se escribe en ella, utilizando estos datos para mejorar sus futuras respuestas.
Esto significa que cualquier información sensible compartida, ya sea de forma intencionada o accidental, podría ser vulnerable a la exposición. Por ejemplo, si un desarrollador pide a al chatbot que depure un código o si se transmiten datos personales de empleados, esta información podría terminar expuesta a otros usuarios.

- Falta de transparencia en los resultados de capacitación
Otro riesgo importante es la falta de transparencia en los resultados de las pruebas de capacitación. ChatGPT puede responder preguntas de manera automática y rápida durante evaluaciones laborales. Si los empleados utilizan la herramienta para “saltarse” capacitaciones importantes, aprobando las evaluaciones sin haber adquirido realmente el conocimiento, esto puede tener consecuencias negativas para la organización.
- Evaluación dudosa de las habilidades laborales
Relacionado con lo anterior, la evaluación de las habilidades laborales puede volverse dudosa. ChatGPT puede proporcionar instrucciones paso a paso para completar tareas específicas dentro de software como Excel, Salesforce o Google Analytics.
Si los empleados logran obtener ascensos o promociones basados en habilidades adquiridas artificialmente mediante la IA, la empresa corre el riesgo de depender de un personal cuyo verdadero desempeño no está alineado con sus calificaciones personales.
- Integridad de los exámenes de certificación
Participantes de evaluaciones para certificaciones pueden utilizar ChatGPT para responder o incluso completar problemas complejos. Si las empresas emiten certificaciones sin verificar la autenticidad de las respuestas, se puede dañar gravemente la reputación de los programas de certificación y, por ende, la percepción de la marca por parte de los clientes y la comunidad.

- Evaluación de nuevos candidatos
En procesos de contratación, es cada vez más frecuente que los postulantes utilicen herramientas como ChatGPT para aprobar evaluaciones que normalmente requieren una experiencia profunda. Esto plantea un riesgo significativo, ya que contratar a personas cuyas habilidades y conocimientos han sido sobrevalorados por el uso de IA podría resultar costoso a largo plazo para la empresa.
Cómo evitar estos riesgos y seguir usando ChatGPT
Para evitar estos problemas, las empresas deben implementar prácticas adecuadas de control de la IA y establecer límites claros para el uso de ChatGPT. Aquí algunos consejos y estrategias:
- Solicitar respuestas basadas en casos específicos
Una forma de hacer que ChatGPT sea menos efectivo en evaluaciones es solicitar respuestas a preguntas basadas en casos actuales y específicos de la empresa. La IA no tiene acceso a recursos específicos y recientes de la organización, lo que limita su capacidad para generar respuestas precisas.

- Uso de software de bloqueo del navegador
Aunque limitado, el uso de software que bloquee el acceso a ciertas aplicaciones durante evaluaciones puede ser útil. Sin embargo, es importante asegurarse de que los evaluados no tengan acceso a dispositivos adicionales como teléfonos móviles.
- Supervisión en línea automatizada
El uso de software de supervisión en línea, puede ser una solución efectiva. Este tipo de software restringe el acceso a sitios web, aplicaciones y extensiones de IA durante las evaluaciones, monitorea la sesión mediante reconocimiento facial y grabación de pantalla, inhabilita atajos de teclado comunes y escanea la sala en busca de otros dispositivos no autorizados.
Además, emite reportes detallados que permiten a los evaluadores tomar medidas rápidas y apropiadas en caso de detectar uso indebido de la IA.
Últimas Noticias
Colombia vs. Croacia: los peligros de ver en vivo el partido en Xuper TV y Magis TV desde tu celular
La búsqueda de alternativas gratuitas para ver el amistoso ha disparado el uso de apps no oficiales, poniendo en peligro la privacidad y la seguridad de miles de dispositivos

Así puedes convertir un televisor viejo en Smart TV y darle una segunda vida
Dispositivos como Roku, Fire TV Stick y Chromecast transforman cualquier pantalla, siempre que el electrodoméstico cuente con un puerto HDMI libre y acceso a WiFi

Pokémon Champions: el nuevo juego de la saga se estrena en Switch con habilidades inéditas y juego cruzado
A partir de abril, los entrenadores podrán disfrutar de combates multiplataforma, nuevas megaevoluciones y la integración directa con Pokémon GO y HOME

¿Borraste tus fotos de WhatsApp? El riesgo de seguridad de la “papelera oculta” que sigue guardando tus archivos
Al eliminar mensajes o fotos en chats, los archivos pueden permanecer en carpetas ocultas del sistema del teléfono

PlayStation elimina más de 1.000 juegos de baja calidad y hechos con IA de su tienda online
La medida busca devolver la confianza a la comunidad y priorizar experiencias originales, mejorando la visibilidad de títulos destacados y frenando la proliferación de proyectos poco trabajados




