
Una gran sospecha recae sobre el laboratorio que entrenó a DeepSeek, una inteligencia artificial. Tras el lanzamiento del último modelo, se ha especulado del posible uso de datos de Google Gemini para su funcionamiento.
Esta tecnología ha llamado la atención por su capacidad para resolver problemas complejos de matemáticas y programación, pero ahora todo todas las miradas apuntan a la implementación de información de una IA que pertenece a otra compañía.
Por qué se especula que DeepSeek uso Gemini para su entrenamiento
La polémica gira en torno a la especulación de que DeepSeek podría haber utilizado datos del modelo Gemini 2.5 Pro de Google para entrenar su último modelo. Aunque la empresa no ha revelado las fuentes específicas de los datos, varias señales han levantado dudas razonables entre los investigadores del sector.
El desarrollador australiano Sam Paech, conocido por sus evaluaciones de inteligencia emocional, ha sido uno de los primeros en detectar similitudes en el lenguaje y las expresiones utilizadas por R1-0528, comparables a las preferidas por Gemini.

Según expuso en una publicación en X, la preferencia de términos y estructuras gramaticales en el modelo de DeepSeek se asemeja notablemente a aquellos de Gemini.
A estas afirmaciones se unen las observaciones del creador anónimo de SpeechMap, una herramienta que evalúa la libertad de expresión en modelos de IA. Este desarrollador notó que las “trazas” o pasos intermedios generados por R1-0528 a medida que avanza hacia una conclusión, guardan similitudes con las generadas por Gemini.
Estas coincidencias plantean preguntas sobre si DeepSeek ha recurrido a estos datos externos, lo que desencadenaría implicaciones tanto éticas como legales.
Prácticas cuestionables detrás de DeepSeek
No es la primera vez que DeepSeek se enfrenta a acusaciones de entrenar modelos con datos de sus competidores. En diciembre de 2024, llamó la atención cuando su modelo V3 se identificó erróneamente como ChatGPT, lo que sugirió un posible entrenamiento con registros de conversaciones de la plataforma de OpenAI.

Este tipo de acciones generan inquietud en términos de competencia y ponen en cuestión el respeto a los términos de servicio de las empresas desarrolladoras de IA.
OpenAI ha señalado previamente que detectó prácticas de destilación empleadas por DeepSeek, una técnica que, si bien es común y legal en muchos casos, puede infringir normativas si se usan outputs de modelos de empresas rivales para entrenar productos competidores.
Esta técnica permite generar modelos más pequeños utilizando datos de modelos más grandes y avanzados, una práctica que OpenAI explícitamente prohíbe con sus resultados.
Contaminación de datos: el gran desafío
El contexto de estas sospechas se ve agravado por el fenómeno de la “contaminación de datos”. En la actualidad, la web abierta está cada vez más saturada de contenido generado por IA, lo cual dificulta la identificación de datos limpios y precisos para el entrenamiento de nuevos modelos.

Plataformas como Reddit y redes sociales inundan la web con contenido generado automáticamente con fines comerciales, afectando la calidad de las bases de datos.
Este entorno altamente contaminado facilita una convergencia en los resultados lingüísticos y estilísticos entre diversos modelos, complicando determinar si una similitud se debe a una copia intencional o simplemente es una coincidencia estadística resultante del uso de datos de la web.
Cuáles serían las implicaciones del uso de datos de Gemini en DeepSeek
Las acusaciones contra DeepSeek abren un debate crucial en torno a la ética y la propiedad intelectual en el ámbito de la IA. Si se comprobara que la IA china ha utilizado datos de Google Gemini, se plantearían serias cuestiones sobre la equidad y competencia en el mercado tecnológico.
Además, el uso indebido de datos podría tener graves repercusiones legales y comerciales, afectando significativamente a la empresa implicada.

Para prevenir este tipo de situaciones, las compañías líderes en el sector han comenzado a reforzar sus medidas de seguridad. OpenAI ha implementado un proceso de verificación de identidad para acceder a sus modelos avanzados, excluyendo automáticamente a empresas de países que no cumplen con sus requisitos, como China.
Google, por su parte, ha optado por resumir las trazas generadas por sus modelos a través de AI Studio, limitando así la posibilidad de entrenar modelos competidores basados en estos datos.
Últimas Noticias
Cómo puedes saber con ChatGPT si una llamada, dirección o enlace son seguros o fraudulentos
Si el correo o número aparece como sospechoso, el asistente lo comunica de inmediato y sugiere medidas de seguridad

Copilot bajo la lupa: vulnerabilidad en Microsoft Office compromete la privacidad de correos
El incidente afecta directamente a la función Copilot Chat disponible en la pestaña de trabajo de las aplicaciones de Microsoft 365

Estudio revela que los CEO perciben poco impacto real de la IA en sus operaciones empresariales
Aunque dos de cada tres directivos reconocieron utilizar IA en sus procesos, el tiempo real dedicado es mínimo: cerca de 1,5 horas semanales

IA y redes eléctricas en Estados Unidos: desafíos y soluciones frente al crecimiento sostenido del consumo digital
El sector enfrenta la necesidad de modernizar la infraestructura y coordinar inversiones para responder al impacto de la inteligencia artificial sin comprometer la continuidad del servicio, según advierte Fortune




