Los nuevos bots conversacionales podrían cambiar el mundo: ¿se puede confiar en ellos?

Siri, Google Search, el marketing online y los deberes de tu hijo nunca volverán a ser lo mismo. Luego está el problema de la desinformación

Guardar

Nuevo

Aaron Margolis, un científico de datos, dice que los nuevos chatbots son notables, pero sus respuestas pueden mezclar realidad con ficción, al igual que Internet de la que aprendieron (Valerie Plesch/The New York Times)
Aaron Margolis, un científico de datos, dice que los nuevos chatbots son notables, pero sus respuestas pueden mezclar realidad con ficción, al igual que Internet de la que aprendieron (Valerie Plesch/The New York Times)

Este mes, Jeremy Howard, un investigador de inteligencia artificial (IA), le presentó a su hija de 7 años un bot conversacional en línea llamado ChatGPT. Había sido lanzado pocos días antes por OpenAI, uno de los laboratorios de IA más ambiciosos del mundo.

Howard le dijo a su hija que le preguntara al bot conversacional experimental lo que se le ocurriera. La niña le preguntó para qué servía la trigonometría, de dónde venían los agujeros negros y por qué las gallinas incubaban sus huevos. Cada vez, la IA respondió con una prosa clara y bien puntuada. Cuando le pidió un programa de computadora que pudiera predecir la trayectoria de una pelota lanzada al aire, también se lo dio.

En los siguientes días, Howard —científico de datos y profesor cuyo trabajo inspiró la creación de ChatGPT y tecnologías similares— llegó a ver al bot conversacional como un nuevo tipo de tutor personal. Podría enseñarle a su hija matemáticas, ciencias e inglés, por no mencionar algunas otras lecciones importantes. La más importante de ellas: no creas todo lo que te dicen.

“Es emocionante verla aprender de este modo”, afirmó Howard. “Pero también le dije: ‘No creas en todo lo que te dé. Puede cometer errores’”.

Jeremy Howard, un investigador en inteligencia artificial, le pidió a su pequeña hija que usara un sistema de chatbot de IA de última generación (David Kelly/The New York Times)
Jeremy Howard, un investigador en inteligencia artificial, le pidió a su pequeña hija que usara un sistema de chatbot de IA de última generación (David Kelly/The New York Times)

OpenAI se encuentra entre las muchas empresas, laboratorios académicos e investigadores independientes que trabajan para crear bots conversacionales más avanzados. Estos sistemas no pueden conversar de forma exacta como un humano, pero a menudo pareciera que lo hicieran. También pueden recuperar y reempaquetar información a una velocidad que los humanos jamás podrían. Se pueden considerar como asistentes digitales —como Siri o Alexa— mejorados para comprender qué es lo que estás buscando y proporcionártelo.

Tras el lanzamiento de ChatGPT —que ha sido utilizado por más de un millón de personas—, muchos expertos creen que estos nuevos bots conversacionales están destinados a reinventar o incluso remplazar los motores de búsqueda de internet como Google y Bing.

Pueden ofrecer información en oraciones concretas, en lugar de largas listas de enlaces azules. Explican conceptos en maneras que las personas puedan comprender. Pueden brindar datos reales y al mismo tiempo generar planes de negocios, temas de trabajos académicos y otras ideas nuevas desde cero.

“Ahora tenemos una computadora que puede responder cualquier pregunta de una manera que tiene sentido para un ser humano”, afirmó Aaron Levie, director ejecutivo de Box, una compañía de Silicon Valley, y uno de los muchos ejecutivos que están explorando las formas en que estos bots conversacionales cambiarán el entorno tecnológico. “Puede extrapolar y tomar ideas de diferentes contextos y fusionarlas”.

Los nuevos bots conversacionales hacen esto con lo que pareciera ser una confianza total. Pero no siempre dicen la verdad. A veces incluso se equivocan en aritmética simple. Mezclan la realidad con la ficción. Y a medida que continúen mejorando, las personas podrían utilizarlos para generar y difundir mentiras.

Google creó hace poco un sistema específicamente para la conversación llamado LaMDA (sigla en inglés de “modelo de lenguaje para aplicaciones de diálogo”). Esta primavera, un ingeniero de Google aseguró que el sistema tenía la capacidad de sentir. No era así, pero eso cautivó la imaginación del público.

LaMDA es lo que los investigadores de inteligencia artificial llaman una red neuronal, un sistema matemático basado libremente en la red de neuronas en el cerebro. Esta es la misma tecnología que traduce entre francés e inglés en servicios como Google Translate y que hace que los vehículos autónomos que navegan por las calles de la ciudad identifiquen a los peatones.

Una red neuronal aprende habilidades mediante el análisis de datos. Al identificar patrones en miles de fotos de gatos, por ejemplo, puede aprender a reconocer a un gato.

Hace cinco años, los investigadores de Google y de laboratorios como OpenAI comenzaron a diseñar redes neuronales que analizaban enormes cantidades de texto digital, incluidos libros, artículos de Wikipedia, noticias y registros de chats en línea. Los científicos las llaman “large language models” (“grandes modelos de lenguaje”). Al identificar miles de millones de patrones distintos en la forma en que las personas conectan palabras, números y símbolos, estos sistemas aprendieron a generar texto por sí mismos.

Su capacidad para generar lenguaje sorprendió a muchos investigadores en el campo, incluidos muchos de los investigadores que los construyeron. La tecnología podía imitar lo que la gente había escrito y combinar conceptos dispares. Podrías pedirle que escribiera una escena de “Seinfeld” en la que Jerry aprende una técnica matemática esotérica llamada “algoritmo de clasificación de burbujas”, y lo haría.

Con ChatGPT, OpenAI se ha esforzado en refinar la tecnología. No mantiene una conversación fluida tan bien como LaMDA de Google. Fue diseñado para operar más como Siri, Alexa y otros asistentes digitales. Al igual que LaMDA, ChatGPT se entrenó en un mar de texto digital extraído de internet.

A medida que las personas probaban el sistema, este les pedía que calificaran sus respuestas. ¿Fueron convincentes?, ¿útiles?, ¿veraces? Luego, a través de una técnica llamada aprendizaje de refuerzo, utilizó las calificaciones para perfeccionar el sistema y definir de manera más cuidadosa que cosa debía o no hacer.

“Esto nos permite llegar al punto en que el modelo puede interactuar contigo y admitir cuando esté equivocado”, afirmó Mira Murati, directora de tecnología de OpenAI. “Puede rechazar algo que es inapropiado, y puede desafiar una pregunta o una premisa que es incorrecta”.

El método no era perfecto. OpenAI advirtió a quienes utilizaran ChatGPT que “puede generar ocasionalmente información incorrecta” y “producir instrucciones dañinas o contenido sesgado”. Pero la empresa tiene previsto seguir perfeccionando la tecnología, y recuerda a quienes la utilicen que sigue siendo un proyecto de investigación.

Google, Meta y otras empresas también están abordando problemas de precisión. Hace poco, Meta retiró un avance en línea de su chatbot, Galactica, porque generaba repetidamente información incorrecta y sesgada.

Los expertos han advertido de que las empresas no controlan el destino de estas tecnologías. Sistemas como ChatGPT, LaMDA y Galactica se basan en ideas, trabajos de investigación y códigos informáticos que circulan libremente desde hace años.

Empresas como Google y OpenAI pueden hacer avanzar la tecnología a un ritmo más rápido que otras. Pero sus últimas tecnologías se han reproducido y distribuido ampliamente. No pueden evitar que la gente utilice estos sistemas para difundir información errónea.

Al igual que Howard esperaba que su hija aprendiera a no fiarse de todo lo que leía en Internet, esperaba que la sociedad aprendiera la misma lección.

“Se podrían programar millones de estos bots para que parecieran humanos y mantuvieran conversaciones diseñadas para convencer a la gente de un punto de vista concreto”, afirmó. “Llevo años advirtiendo de esto. Ahora es obvio que está a punto de ocurrir”.

© The New York Times 2022

Guardar

Nuevo