
La sobrecarga de memoria al trabajar con modelos de inteligencia artificial representa uno de los principales desafíos para el desarrollo y la eficiencia en operaciones a gran escala. De acuerdo con el medio Europa Press, Google ha creado una nueva tecnología denominada TurboQuant, cuyo objetivo consiste en optimizar el uso de los recursos de sistemas basados en inteligencia artificial mediante la reducción del consumo de memoria sin que ello implique un descenso en la precisión del procesamiento de datos. Esta innovación, centrada en algoritmos de compresión, busca ofrecer soluciones a los habituales cuellos de botella en la recuperación de información dentro de los modelos de lenguaje grandes, conocidos como LLM por sus siglas en inglés.
La información dada por Europa Press detalla que TurboQuant enfrenta un obstáculo que hasta ahora persistía pese a los avances en cuantización vectorial: la sobrecarga de memoria generada por las técnicas utilizadas para comprimir la memoria caché en los sistemas de inteligencia artificial. La memoria caché es fundamental porque almacena información de uso frecuente y acelera la recuperación de datos durante processamientos complejos. Google precisa en su plataforma web que los modelos de IA emplean vectores para representar tanto información simple como atributos básicos, así como para captar la complejidad de conceptos relacionados con el significado de palabras o frases. Esos vectores de alta dimensión, imprescindibles para las tareas semánticas, requieren un espacio considerable y suelen convertirse en una fuente de sobrecarga en la memoria caché.
Según Europa Press, la cuantización vectorial, que consiste en comprimir la información contenida en los vectores, ha ayudado parcialmente a contener ese consumo de memoria, pero introduce un inconveniente: la aparición de uno o dos bits adicionales por vector, producto del propio método de compresión. Esto genera una sobrecarga que, en escenarios a gran escala como los de Google, se traduce en costos adicionales de espacio y disminución de la eficiencia.
Para resolver esta limitación, TurboQuant implementa un proceso compuesto por dos fases y combina tecnologías desarrolladas por Google: PolarQuant y Quantized Johnson-Lindenstrauss (QJL), según el reporte de Europa Press. PolarQuant emplea una técnica basada en la rotación aleatoria de vectores, lo cual permite comprimirlos con un alto nivel de calidad. Posteriormente, el sistema aplica QJL, herramienta que elimina errores ocultos que puedan haberse generado durante la primera etapa, con el fin de asegurar que la compresión no implique pérdida alguna en la precisión de los datos.
Google, citado por Europa Press, sostiene que este proceso deriva en un algoritmo capaz de mantener la integridad total de la información procesada, disminuir al mínimo el empleo de memoria y acelerar los tiempos de recuperación de datos. "Esto hace que la búsqueda semántica a la escala de Google sea más rápida y eficiente", indicó la empresa en el comunicado recogido por Europa Press.
El anuncio de TurboQuant ha provocado distintas reacciones en las redes sociales, donde según relata Europa Press, algunos usuarios señalaron similitudes entre el desarrollo de Google y la trama de Pied Piper, startup ficticia de la serie 'Silicon Valley' de HBO. En la ficción, los fundadores de Pied Piper idean un algoritmo de compresión cuya principal característica es ofrecer una reducción del tamaño de archivos sin pérdidas significativas de datos, un planteamiento comparable al que ahora implementa Google en el ámbito de la inteligencia artificial.
Al situar la investigación y desarrollo de TurboQuant dentro del contexto de la gestión eficiente de recursos en IA, Google busca responder tanto a las demandas de optimización de memoria como a la necesidad de mantener la exactitud de los resultados en aplicaciones masivas y de alta complejidad. Europa Press puntualiza que este avance se integra dentro del esfuerzo por perfeccionar los modelos que sustentan la búsqueda semántica y las aplicaciones basadas en la interpretación automática del lenguaje por parte de sistemas artificiales. La compañía destaca que la capacidad de buscar información precisa y rápidamente a nivel global depende de la eficiencia en la gestión de datos y el procesamiento sin sacrificio de la fiabilidad en los resultados.
Últimas Noticias
Omán recuerda su neutralidad e investiga la procedencia de los drones que impactaron en Salalá
Tras los ataques con aviones no tripulados en el puerto de Salalá, el gobierno local condena la violencia en la región, impulsa una solución diplomática y realiza pesquisas para esclarecer quién está detrás de la agresión y los daños registrados

Optan por "dejar en paz" a ballena jorobada para que recupere fuerzas y vuelva sola al mar
Candidato de Podemos "tiende la mano" a Maíllo (IU) para "negociar" una candidatura unitaria: "Tenemos tiempo"

La Marina iraní declara que el golfo de Omán, entrada al estrecho de Ormuz, también está bajo su control
El contraalmirante Shahram Irani advirtió a Washington que el ejército persa responderá militarmente si el 'Abraham Lincoln' se aproxima, mientras confirma que Irán mantiene vigilancia constante sobre las maniobras estadounidenses en la entrada al golfo Pérsico

Miles de vallisoletanos acompañan 'La Borriquilla' en un Domingo de Ramos marcado por el frío
