Cuatro claves para entender GPT-4, una nueva versión de la inteligencia artificial

Con esta tecnología se podrán hacer solicitudes con texto, videos e imágenes

Compartir
Compartir articulo
Esta nueva versión permitirá el lenguaje multimodal. (Unsplash)
Esta nueva versión permitirá el lenguaje multimodal. (Unsplash)

GPT-4 es oficial. Después de un fuerte crecimiento de ChatGPT a finales de 2022 y la aparición de esta inteligencia artificial en múltiples plataformas, OpenAI, la empresa dueña del proyecto, anunció una nueva versión que promete mejoras en su rendimiento.

Desde 2020, se había lanzado la tercera versión pero tras la masificación de los últimos meses, su actualización era muy esperada por usuarios y desarrolladores, especialmente tras la inversión que recibió de Microsoft y la integración en el buscador Bing.

Le puede interesar: Una extensión de ChatGPT para Chrome está robando información

Qué es GPT-4

La primera clave para entender la importancia de esta nueva versión es comprender exactamente de qué se trata.

ChatGPT es un programa que ofrece respuestas y textos según las peticiones, pero hay una tecnología que está detrás y es la que lo hace funcionar.

GPT es el sistema que ha sido entrenado con datos y algoritmos para responder a las solicitudes en cualquier idioma, con la posibilidad de mantener una conversación, dar recomendaciones, ofrecer información, generar documentos y una larga lista de opciones, que se adaptan a una herramienta.

Así que la llegada de una nueva versión significa que esas plataformas van a tener una tecnología más avanzada para sus diferentes funciones. Especialmente en apartados como la precisión, la complejidad, la naturalidad y la cercanía con lo que haría un ser humano.

Le puede interesar: Cómo instalar ChatGPT en el Apple Watch

Esta nueva versión permitirá el lenguaje multimodal. (Unsplash)
Esta nueva versión permitirá el lenguaje multimodal. (Unsplash)

Qué mejoras tendrá frente a GPT-3

De momento, OpenAI ha sido cauteloso con la información que da, dejando que los desarrolladores sean quienes descubran el potencial del sistema y las diferencias frente a su versión anterior.

Un punto importante en este contexto son los parámetros, que es la cantidad de información que alimenta el aprendizaje. Sin embargo, la compañía considera que no es necesario ampliar radicalmente este número para presentar un avance importante, sino que la esencia está en su funcionamiento.

“En el futuro, mucha gente se sorprenderá de lo potente que puede llegar a ser la IA sin que crezcan los parámetros”, afirmó Sam Altman, CEO de la empresa.

Le puede interesar: ChatGPT: así se pueden crear contratos, ensayos y correos con inteligencia artificial

Para lograr su mejora, GPT-4 permitirá lenguaje multimodal, es decir, que ya no solo las solicitudes se harán a través de texto, sino que se pueden unir con imágenes, videos y audios. Algo que en la práctica serviría para hacer el resumen de un video de YouTube, por ejemplo.

Otro aspecto importante será la fidelidad de la información, ya que muchos de estos chatbots empezaban a inventar hechos y datos. Pero desde la empresa aseguran que esta nueva versión “tiene un 82 % menos de probabilidades de responder a solicitudes de contenido no permitido y un 40 % más de probabilidades de producir respuestas fácticas”.

Esta nueva versión permitirá el lenguaje multimodal. (Unsplash)
Esta nueva versión permitirá el lenguaje multimodal. (Unsplash)

Cómo utilizar GPT-4

Al ser una tecnología que salió recientemente, son pocas las opciones que hay para utilizarla. Inicialmente, quienes paguen ChatGPT Plus tendrán acceso a esta nueva versión, aunque durante un tiempo limitado mientras los desarrolladores ajustan los detalles de su funcionamiento.

En el caso de ser un desarrollador y querer llevar esta versión a una plataforma, ya hay una lista de espera en OpenAI para tener la API de este modelo de lenguaje.

Qué se podrá hacer con GPT-4

En un principio, todo lo que ya se puede realizar con la tecnología actual: pedir resúmenes, recetas, recomendaciones, buscar información o plantear una conversación.

Pero parte de la clave estará en el lenguaje multimodal y la creatividad del usuario. Por ejemplo, habrá la opción de crear guiones para un video de redes sociales y que haya mucho más detalle en cada uno de elementos, al combinar textos e imágenes.

En general, esta tecnología hará que las peticiones sean más creativas, de mayor calidad, con más precisión y que aporten variedad para acercarse a lo que haría un humano en esa situación.