En la actualidad, la inteligencia artificial ya está presente dentro de las organizaciones, incluso dentro de aquellas que creen que todavía no la usan. Las áreas de marketing, legales, finanzas y aún dentro de los procesos comerciales. El problema es que también está abriendo puertas que muchas empresas ni siquiera saben que existen. La IA no llegó como una herramienta más: llegó como una bomba de eficiencia… y de riesgos.
Cualquier pyme argentina que quiere mantenerse competitiva está en este momento mirando herramientas de inteligencia artificial para automatizar tareas, generar contenido, potenciar el capital humano o darle un empujón a su productividad. Pero todavía no se habla de los posibles riesgos que atentan contra la seguridad de la información. La adopción de este tipo de tecnología se traduce en un vector de fuga de datos, una puerta inesperada para ataques o la causa de decisiones erróneas basadas en información manipulada. Y lo más preocupante: muchas empresas no son plenamente conscientes de esto.
Luego de un relevamiento realizado en cada uno de nuestros clientes, detectamos que el 67% de quienes lideran las áreas de ciberseguridad informática afirma que la adopción de IA generativa (GenAI) incrementó su “superficie de ataque” en el último año. Es decir: usar IA —sin protecciones adecuadas— elevó directamente el riesgo de exposiciones.
Cualquier pyme argentina que quiere mantenerse competitiva está en este momento mirando herramientas de inteligencia artificial
Estos datos evidencian que las pymes ya enfrentan un panorama complejo de amenazas, y la incorporación de IA —sin políticas claras de seguridad— puede amplificar esos riesgos.
Lo que se sube a la IA es información que no puede ser eliminada de la web nunca más (escapa a nuestro control).
El primer malentendido común es que las herramientas de IA funcionan como una “persona más inteligente y más rápida”, cuando no lo es. Todo dato que se envía a un modelo de IA —ya sea para pedirle un análisis, cargar un documento o consultar sobre un cliente— sale del perímetro de control de la empresa. Según la política de la plataforma utilizada, esa información puede almacenarse, analizarse o incluso reutilizarse para entrenar modelos.
Los riesgos son concretamente los siguientes:
- Subir contratos con datos sensibles de clientes, información comercial o código propio puede constituir una fuga involuntaria;
- Compartir datos personales sin consentimiento podría implicar infracción a normativas de protección de datos;
- Aún usando IA de forma “segura”, siempre existe la posibilidad del error humano al copiar y pegar.
- Aumenta la “superficie de ataque”: quien usa IA podría estar abriendo nuevas puertas para phishing, malware, suplantaciones, errores de uso, etc.
Las pymes ya enfrentan un panorama complejo de amenazas, y la incorporación de IA puede amplificar esos riesgos
Herramientas aparentemente inocuas pueden convertirse en vectores de ataques: phishing sofisticado, deepfakes, suplantación, “malware disfrazado de IA”, manipulación de datos, etc.
Un ejemplo reciente: Kaspersky detectó que en 2025 crecieron más del 115 % los archivos maliciosos o no deseados que se hacían pasar por plataformas de IA populares, con muchas víctimas entre pymes. La clave hoy para una empresa pequeña o mediana no es el ataque en sí mismo, sino la prevención. Si se ha desarrollado una estrategia de ciberseguridad, o no.
Innovación y seguridad
El error habitual es creer que si la empresa impone algún tipo de control o restricción en el uso de IA, entonces los empleados no la utilizarán. Eso es tan ingenuo como pensar que prohibir WhatsApp, evita que la gente lo utilice. La pregunta correcta sería: ¿Cómo hacemos para que la IA se implemente de manera segura y alineada con el negocio?
- Definir una política interna de uso de IA. Lo importante es dejar claro qué tipo de datos pueden (o no) subirse, qué herramientas están permitidas, y cuáles son los protocolos ante incidentes.
- Capacitar a los equipos. Enseñar riesgos básicos, presentar buenas prácticas y dar ejemplos concretos. La formación en ciberseguridad puede marcar la diferencia.
- Proponer la adopción de herramientas con controles (incluso si cuestan un poco más). Las versiones empresariales de muchas plataformas de IA incluyen cláusulas de privacidad y evitan que los datos sometidos se utilicen para entrenar modelos. Esa inversión vale mucho más que un incidente.
- Analizar la responsabilidad compartida de las herramientas. La IA “inventa”, se confunde y puede ser manipulada. Siempre debe haber supervisión humana antes de publicar, compartir o usar decisiones automatizadas.
- Prepararse para auditorías, regulaciones y cumplimiento. La regulación sobre datos y ciberseguridad avanza, incluso en América Latina. Las empresas que desde ahora documenten su uso responsable, tendrán una ventaja competitiva.
Hoy para una pyme se impone la necesidad de que la innovación no sea ajena al cuidado de la información. Crecer digitalmente significa proteger digitalmente.
La ciberseguridad no es un gasto, sino una inversión en continuidad, confianza y sostenibilidad del negocio.
La autora es COO Platinum Cibersecurity