
La sobrecarga de memoria al trabajar con modelos de inteligencia artificial representa uno de los principales desafíos para el desarrollo y la eficiencia en operaciones a gran escala. De acuerdo con el medio Europa Press, Google ha creado una nueva tecnología denominada TurboQuant, cuyo objetivo consiste en optimizar el uso de los recursos de sistemas basados en inteligencia artificial mediante la reducción del consumo de memoria sin que ello implique un descenso en la precisión del procesamiento de datos. Esta innovación, centrada en algoritmos de compresión, busca ofrecer soluciones a los habituales cuellos de botella en la recuperación de información dentro de los modelos de lenguaje grandes, conocidos como LLM por sus siglas en inglés.
La información dada por Europa Press detalla que TurboQuant enfrenta un obstáculo que hasta ahora persistía pese a los avances en cuantización vectorial: la sobrecarga de memoria generada por las técnicas utilizadas para comprimir la memoria caché en los sistemas de inteligencia artificial. La memoria caché es fundamental porque almacena información de uso frecuente y acelera la recuperación de datos durante processamientos complejos. Google precisa en su plataforma web que los modelos de IA emplean vectores para representar tanto información simple como atributos básicos, así como para captar la complejidad de conceptos relacionados con el significado de palabras o frases. Esos vectores de alta dimensión, imprescindibles para las tareas semánticas, requieren un espacio considerable y suelen convertirse en una fuente de sobrecarga en la memoria caché.
PUBLICIDAD
Según Europa Press, la cuantización vectorial, que consiste en comprimir la información contenida en los vectores, ha ayudado parcialmente a contener ese consumo de memoria, pero introduce un inconveniente: la aparición de uno o dos bits adicionales por vector, producto del propio método de compresión. Esto genera una sobrecarga que, en escenarios a gran escala como los de Google, se traduce en costos adicionales de espacio y disminución de la eficiencia.
Para resolver esta limitación, TurboQuant implementa un proceso compuesto por dos fases y combina tecnologías desarrolladas por Google: PolarQuant y Quantized Johnson-Lindenstrauss (QJL), según el reporte de Europa Press. PolarQuant emplea una técnica basada en la rotación aleatoria de vectores, lo cual permite comprimirlos con un alto nivel de calidad. Posteriormente, el sistema aplica QJL, herramienta que elimina errores ocultos que puedan haberse generado durante la primera etapa, con el fin de asegurar que la compresión no implique pérdida alguna en la precisión de los datos.
PUBLICIDAD
Google, citado por Europa Press, sostiene que este proceso deriva en un algoritmo capaz de mantener la integridad total de la información procesada, disminuir al mínimo el empleo de memoria y acelerar los tiempos de recuperación de datos. "Esto hace que la búsqueda semántica a la escala de Google sea más rápida y eficiente", indicó la empresa en el comunicado recogido por Europa Press.
El anuncio de TurboQuant ha provocado distintas reacciones en las redes sociales, donde según relata Europa Press, algunos usuarios señalaron similitudes entre el desarrollo de Google y la trama de Pied Piper, startup ficticia de la serie 'Silicon Valley' de HBO. En la ficción, los fundadores de Pied Piper idean un algoritmo de compresión cuya principal característica es ofrecer una reducción del tamaño de archivos sin pérdidas significativas de datos, un planteamiento comparable al que ahora implementa Google en el ámbito de la inteligencia artificial.
PUBLICIDAD
Al situar la investigación y desarrollo de TurboQuant dentro del contexto de la gestión eficiente de recursos en IA, Google busca responder tanto a las demandas de optimización de memoria como a la necesidad de mantener la exactitud de los resultados en aplicaciones masivas y de alta complejidad. Europa Press puntualiza que este avance se integra dentro del esfuerzo por perfeccionar los modelos que sustentan la búsqueda semántica y las aplicaciones basadas en la interpretación automática del lenguaje por parte de sistemas artificiales. La compañía destaca que la capacidad de buscar información precisa y rápidamente a nivel global depende de la eficiencia en la gestión de datos y el procesamiento sin sacrificio de la fiabilidad en los resultados.
Últimas Noticias
La presidenta de Banco Santander demanda un erasmus para las universidades iberoamericanas
OMS afirma que una parte de los indicadores de salud en el mundo se estancan o retroceden
Arón Piper denuncia el drama de la vivienda en 'Hugo 24': "Lo más cruel es que la mitad del sueldo se vaya a tu techo"

Berlín dice que el destructor ruso en Báltico podría explicarse por OTAN y flota fantasma
Making Science impulsa su expansión internacional y su apuesta por la IA propia
