
A partir del 24 de abril de 2026, GitHub Copilot cambiará sus reglas de privacidad: si eres usuario de la versión gratuita, Pro o Pro+, tu código y tus interacciones dentro de la plataforma serán utilizados de manera automática para entrenar modelos de inteligencia artificial, salvo que decidas lo contrario.
Este cambio afecta a desarrolladores en todo el mundo y convierte cada fragmento de código, nombre de archivo o comentario en una fuente de aprendizaje para la IA. Si quieres proteger tu privacidad y no contribuir con tus datos al entrenamiento de Copilot, existe un proceso sencillo para desactivar esta opción en unos minutos.
Cómo evitar que GitHub Copilot use tu código para entrenar IA
GitHub ha implementado el entrenamiento por defecto en Copilot para la mayoría de sus usuarios individuales, tanto en la versión gratuita como en las de pago personalizadas.

Esto implica que todos los datos generados a partir de tu actividad —incluidos los prompts, sugerencias aceptadas, la estructura de tus carpetas y el contexto que rodea el cursor— serán recopilados y utilizados para mejorar los modelos de IA, a menos que expreses tu negativa.
Para desactivar el uso de tus datos, solo necesitas seguir estos pasos desde la propia configuración de Copilot:
- Ingresa a GitHub.com e inicia sesión con tus credenciales.
- Accede al menú de Configuración (“Settings”) haciendo clic en tu foto de perfil, ubicada en la esquina superior derecha.
- En el panel lateral izquierdo, desplázate hasta la sección “Code, planning, and automation” y selecciona “Copilot”.
- Dirígete hacia abajo hasta encontrar el apartado “Privacy” (Privacidad).
- Busca la opción “Allow GitHub to use my data for AI model training” (Permitir que GitHub use mis datos para el entrenamiento de modelos de IA).
- Cambia el valor a “Disabled” (Desactivado).
Si ya habías denegado permisos de recolección de datos en el pasado, GitHub mantendrá tu decisión y no activará el entrenamiento con tus aportes.

Qué datos utiliza GitHub Copilot y quiénes están excluidos
La actualización de política de GitHub no solo abarca el código final que aceptas, sino también el contexto en el que escribes: los nombres de archivo, los patrones de navegación y los comentarios quedan bajo el radar de la IA. Todo esto se suma para alimentar el proceso de aprendizaje automático y, según la empresa, incrementar la precisión y utilidad de Copilot.
Sin embargo, existe una excepción importante: los usuarios de Copilot Business y Enterprise no se ven afectados por este cambio. GitHub mantiene la privacidad de los datos empresariales y no los utiliza para entrenar modelos globales.
Este detalle resulta especialmente relevante para empresas que gestionan algoritmos propietarios o lógica de negocio confidencial, así como para equipos de desarrollo que requieren un entorno de mayor seguridad.

Por qué GitHub recopila tus datos y cómo impacta en la comunidad
El objetivo de GitHub con esta estrategia es mejorar la calidad y alcance de Copilot. La compañía busca replicar, a mayor escala, el éxito obtenido al entrenar modelos con datos internos de Microsoft, ampliando la fuente de aprendizaje a situaciones reales de usuarios de todo el mundo.
De esta manera, la IA puede aprender a identificar errores antes de que el código llegue a producción y a comprender flujos de trabajo complejos que no aparecen en ejemplos teóricos.
GitHub está comunicando este cambio de manera proactiva: los usuarios recibirán notificaciones por correo electrónico y encontrarán alertas visibles en la plataforma.
La decisión de mantener o no el entrenamiento con datos propios está en manos del usuario, pero la opción por defecto es la recopilación activa, lo que convierte a los desarrolladores en “profesores gratuitos” de una inteligencia artificial que, en muchos casos, puede llegar a automatizar parte de su propio trabajo.

Diferencias entre Copilot personal y empresarial en la nueva política de datos
El cambio de política marca una clara distinción entre las versiones individuales y las empresariales de Copilot. Mientras que las ediciones Business y Enterprise —de mayor costo— garantizan la privacidad de los datos y evitan su uso para entrenar modelos de IA, las versiones personales y gratuitas permiten que GitHub recopile material para sus algoritmos, salvo que el usuario lo desactive manualmente.
Esta segmentación responde, en parte, a la sensibilidad de la información que se maneja en entornos corporativos y a la necesidad de proteger propiedad intelectual exclusiva. Para la mayoría de los desarrolladores que trabajan en proyectos personales, la exposición de datos resulta menos problemática, aunque la decisión final depende siempre del usuario.
La implementación de este sistema transforma la relación entre programadores y plataformas de IA, haciendo imprescindible revisar las opciones de privacidad y decidir de manera activa el destino de los propios aportes en GitHub Copilot.
Últimas Noticias
Las mejores películas para ver en Semana Santa si te quedas en casa
Para facilitar la decisión, se recurrió a Gemini, que elaboró una selección de películas pensada para distintos públicos y preferencias

Después del tren británico, así podría usarse la navegación cuántica en América Latina
Con sensores cuánticos a bordo, el centro de control podría conocer la ubicación precisa de cada convoy aunque fallen los sistemas tradicionales o se presenten robos de cables

Ingenieros ya no escriben código: la IA Claude lo hace y ellos solo lo revisan
Dario Amodei, CEO de Anthropic, ha confirmado que en su empresa los ingenieros ya no programan código directamente

¿Tu SSD está casi lleno? Descubre por qué el rendimiento cae al superar el 90 %
Para mitigar los efectos del espacio lleno, los SSD modernos implementan sistemas de recolección de basura (Garbage Collection)




