Riesgos de usar ChatGPT en el trabajo: tú y la empresa pueden estar en peligro

Los empleados y las compañías deben hacer un uso consciente de estas herramientas, porque sus datos pueden quedar expuestos

Guardar
Herramientas como ChatGPT, necesitan de datos para funcionar y los empleados pueden dar información de más, exponiendo a las empresas. (REUTERS/Dado Ruvic/Illustration/File Photo)
Herramientas como ChatGPT, necesitan de datos para funcionar y los empleados pueden dar información de más, exponiendo a las empresas. (REUTERS/Dado Ruvic/Illustration/File Photo)

El uso de herramientas como ChatGPT se ha extendido a los espacios de trabajo. Los usuarios aprovechan la IA para diferentes tareas y optimizar su tiempo. Pero como todo servicio en internet, existen una serie de riesgos que se deben tener en cuenta para no ceder datos importantes y ponernos en peligro a nosotros mismos o a la compañía.

Al ver las oportunidades de mejora gracias a la IA, las empresas han implementado esta tecnología para, por ejemplo, tener una atención al cliente y soporte técnico automatizado, así como para traducir documentos y generar contenidos web. Labores en las que hay un alto flujo de datos y hay que tener muchos cuidados.

Riesgos de usar ChatGPT en el trabajo

  • Seguridad de la información

Uno de los riesgos más significativos es la seguridad de la información. ChatGPT, al igual que otras herramientas de IA, recopila y guarda todo lo que se escribe en ella, utilizando estos datos para mejorar sus futuras respuestas.

Esto significa que cualquier información sensible compartida, ya sea de forma intencionada o accidental, podría ser vulnerable a la exposición. Por ejemplo, si un desarrollador pide a al chatbot que depure un código o si se transmiten datos personales de empleados, esta información podría terminar expuesta a otros usuarios.

Herramientas como ChatGPT, necesitan de datos para funcionar y los empleados pueden dar información de más, exponiendo a las empresas.  (AP Foto/Michael Dwyer, Archivo)
Herramientas como ChatGPT, necesitan de datos para funcionar y los empleados pueden dar información de más, exponiendo a las empresas. (AP Foto/Michael Dwyer, Archivo)
  • Falta de transparencia en los resultados de capacitación

Otro riesgo importante es la falta de transparencia en los resultados de las pruebas de capacitación. ChatGPT puede responder preguntas de manera automática y rápida durante evaluaciones laborales. Si los empleados utilizan la herramienta para “saltarse” capacitaciones importantes, aprobando las evaluaciones sin haber adquirido realmente el conocimiento, esto puede tener consecuencias negativas para la organización.

  • Evaluación dudosa de las habilidades laborales

Relacionado con lo anterior, la evaluación de las habilidades laborales puede volverse dudosa. ChatGPT puede proporcionar instrucciones paso a paso para completar tareas específicas dentro de software como Excel, Salesforce o Google Analytics.

Si los empleados logran obtener ascensos o promociones basados en habilidades adquiridas artificialmente mediante la IA, la empresa corre el riesgo de depender de un personal cuyo verdadero desempeño no está alineado con sus calificaciones personales.

  • Integridad de los exámenes de certificación

Participantes de evaluaciones para certificaciones pueden utilizar ChatGPT para responder o incluso completar problemas complejos. Si las empresas emiten certificaciones sin verificar la autenticidad de las respuestas, se puede dañar gravemente la reputación de los programas de certificación y, por ende, la percepción de la marca por parte de los clientes y la comunidad.

Herramientas como ChatGPT, necesitan de datos para funcionar y los empleados pueden dar información de más, exponiendo a las empresas. (REUTERS/Dado Ruvic/Illustration)
Herramientas como ChatGPT, necesitan de datos para funcionar y los empleados pueden dar información de más, exponiendo a las empresas. (REUTERS/Dado Ruvic/Illustration)
  • Evaluación de nuevos candidatos

En procesos de contratación, es cada vez más frecuente que los postulantes utilicen herramientas como ChatGPT para aprobar evaluaciones que normalmente requieren una experiencia profunda. Esto plantea un riesgo significativo, ya que contratar a personas cuyas habilidades y conocimientos han sido sobrevalorados por el uso de IA podría resultar costoso a largo plazo para la empresa.

Cómo evitar estos riesgos y seguir usando ChatGPT

Para evitar estos problemas, las empresas deben implementar prácticas adecuadas de control de la IA y establecer límites claros para el uso de ChatGPT. Aquí algunos consejos y estrategias:

  • Solicitar respuestas basadas en casos específicos

Una forma de hacer que ChatGPT sea menos efectivo en evaluaciones es solicitar respuestas a preguntas basadas en casos actuales y específicos de la empresa. La IA no tiene acceso a recursos específicos y recientes de la organización, lo que limita su capacidad para generar respuestas precisas.

Herramientas como ChatGPT, necesitan de datos para funcionar y los empleados pueden dar información de más, exponiendo a las empresas. (Imagen Ilustrativa Infobae)
Herramientas como ChatGPT, necesitan de datos para funcionar y los empleados pueden dar información de más, exponiendo a las empresas. (Imagen Ilustrativa Infobae)
  • Uso de software de bloqueo del navegador

Aunque limitado, el uso de software que bloquee el acceso a ciertas aplicaciones durante evaluaciones puede ser útil. Sin embargo, es importante asegurarse de que los evaluados no tengan acceso a dispositivos adicionales como teléfonos móviles.

  • Supervisión en línea automatizada

El uso de software de supervisión en línea, puede ser una solución efectiva. Este tipo de software restringe el acceso a sitios web, aplicaciones y extensiones de IA durante las evaluaciones, monitorea la sesión mediante reconocimiento facial y grabación de pantalla, inhabilita atajos de teclado comunes y escanea la sala en busca de otros dispositivos no autorizados.

Además, emite reportes detallados que permiten a los evaluadores tomar medidas rápidas y apropiadas en caso de detectar uso indebido de la IA.

Guardar