¿Qué esperamos realmente de la IA? La debacle de Gemini de Google abrió un debate para el futuro

Los fallos del chatbot no solo revelan un error de cálculo, sino que también nos invita a cuestionar el desarrollo de la inteligencia artificial

Compartir
Compartir articulo
(Google)
(Google)

El reciente despliegue de Gemini, el chatbot insignia de inteligencia artificial de Google, resultó ser un campo minado de críticas y controversias. La ambición de la empresa por erradicar los sesgos en su IA terminó por generar uno altamente parcial, una situación que ha servido de munición para las críticas de figuras como Elon Musk, quienes acusan a las grandes tecnologías de caer en esquemas excesivamente preocupados por la corrección política.

Este episodio recuerda al breve bloqueo por parte de Twitter de una historia del New York Post sobre el portátil de Hunter Biden en 2020, un movimiento que fue rápidamente capitalizado por figuras como Ted Cruz, señalando el error como una muestra de sesgo en las grandes plataformas tecnológicas.

Los comentarios no se han hecho esperar, con observadores del mundo de la cultura de internet como Max Read ofreciendo evaluaciones agudas sobre el asunto. La pregunta central parece desplazarse de “¿cómo o por qué ocurrió esto?” a “¿qué es lo que realmente esperamos que hagan nuestros chatbots?”.

Para Read, la idea de depender de una IA para generar comparaciones morales entre figuras históricas resulta ajena y poco práctica, resaltando la inusualidad de la situación en que Gemini se negó a posicionar a Adolf Hitler como peor que Elon Musk.

El caso de Gemini se erigió como un gran desafío para Google, considerando las altas expectativas puestas en esta tecnología como una apuesta hacia el futuro. A pesar de que la mayoría fuera del ecosistema de la compañía podría no estar al tanto de estos contratiempos, internamente es visto como un considerable traspié.

FOTO DE ARCHIVO: El logo de Google y las palabras Inteligencia Artificial se ven en esta ilustración tomada el 4 de mayo de 2023. REUTERS/Dado Ruvic/Ilustración/Archivo
FOTO DE ARCHIVO: El logo de Google y las palabras Inteligencia Artificial se ven en esta ilustración tomada el 4 de mayo de 2023. REUTERS/Dado Ruvic/Ilustración/Archivo

Aunque nos estamos acostumbrando a la idea de que los chatbots no pueden ser confiables al 100% debido a que “alucinan”, es diferente preocuparse de que puedan estar intencionalmente equivocados por cómo fueron diseñados.

La discusión se extiende más allá de la controversia, llegando a cuestionamientos sobre el propósito real y las aplicaciones futuras de la IA. Mientras que son excelentes resumiendo textos, lo que supone una disrupción económica significativa, otras aplicaciones imaginadas, como la idea de que chatbots se conviertan en “aliados” de por vida que entienden profundamente a los usuarios, según predice el inversor y promotor de la IA Marc Andreessen, aún parecen lejanas.

Ante este panorama, quizás sea momento de tomar un respiro y reevaluar qué es lo que esta tecnología realmente puede y no puede hacer. La situación de Gemini no solo pone en tela de juicio la eficacia de los algoritmos para evitar sesgos, sino que también invita a una reflexión más amplia sobre el rol y las expectativas puestas en la inteligencia artificial en nuestra sociedad.