(Foto: Especial)
(Foto: Especial)

Por Alejandro Fuentes*

Hace algunos días, en una plática sobre inteligencia artificial, un expositor afirmaba que a veces es más fácil explicar un concepto complicado si usas su efecto opuesto. En el caso de la inteligencia artificial, decía, no funciona porque su meta no es solucionar la estupidez natural. Tal vez. O tal vez no. Hay experimentos basados en inteligencia artificial que ponen en jaque cualquier noción actual de estupidez, de ingenuidad o de genialidad humana. Un par de ejemplos sobre contenido noticioso pueden mostrar esto.

Primero veamos el caso positivo. En 1992, en medio de las insistentes teorías de la conspiración sobre el asesinato del John F. Kennedy, el Congreso de EU ordenó que la documentación sobre el tema fuera desclasificada… en 2017. El plazo llegó y cientos de periodistas que durante años se frotaron las manos para leer los informes encontraron un obstáculo: para diciembre del 2017 ya se habían liberado 337,000 páginas, y el volumen crecía día con día. Leer esa cantidad de documentos tomaría casi una década para una persona común (a un ritmo de 100 páginas diarias durante 365 jornadas ininterrumpidas, tomaría 9.2 años).

La inteligencia artificial vino a resolver el problema. A grandes rasgos, los documentos en papel fueron escaneados; se pudieron digitalizar no sólo los textos hechos con máquina de escribir, sino también acotaciones en letra de molde y manuscrita. Concluida la digitalización, se pudieron crear tags, que a su vez dieron paso a campos semánticos. Cada vez que un término aparecía en un texto se podían buscar los términos asociados e incluso imágenes, pues fueron clasificadas con la misma lógica del texto. Por ejemplo, al buscar 'Oswald', puede verse con frecuencia la presencia de Silvia Durán, la supuesta amante mexicana, que habría vinculado a Lee Harvey Oswald con el régimen ruso a través de Cuba. Esto también permitió descubrir el nombre en código que se le daba a Oswald (GPFLOOR), así que las máquinas, al saber que ambos términos eran sinónimos, pudieron hacer más descubrimientos.

Uno de estos descubrimientos fue que en algunos documentos que hacían mención a GPFLOOR se habían tachado líneas enteras. La inteligencia artificial también lo resolvió, pues al analizar el contraste entre el color de fondo y los pixeles fue posible extraer los trazos, incluso cuando eran manuscritos. Varios medios estadounidenses han sido capaces de usar estos datos desde entonces. Suficientemente sorprendente y esperanzador como para fortalecer el optimismo de cualquiera. Sin embargo, la capacidad de los humanos para dar resultados diametralmente opuestos con una misma herramienta es igualmente abrumadora. Y aquí hay casos potencialmente perniciosos que pueden aplicarse a la información.

Aún hace falta un marco ético y regulatorio para la aplicación de la inteligencia artificial en el campo de la información (Foto: Grosby)
Aún hace falta un marco ético y regulatorio para la aplicación de la inteligencia artificial en el campo de la información (Foto: Grosby)

Por ejemplo, y tomando el mismo caso, ¿qué pasaría si después de todo el esfuerzo para extraer los datos del caso Kennedy se divulgara un video en el que Lee Harvey Oswald confiesa que el autor intelectual del asesinato fue Adolfo López Mateos, presidente de México en aquel 1963? Obviamente es descabellado, pero la inteligencia artificial, concretamente las redes neuronales convolucionales, podrían hacerlo posible. Apenas el 20 de mayo del 2019 un trabajo presentado en la Universidad de Cornell muestra cómo es posible, por ejemplo, hacer 'hablar' a la Mona Lisa. Hay un video disponible del resultado en YouTube. Así, una confesión falsa de Oswald también podría ser creada para fortalecer las preconcepciones de quienes, en la era de la posverdad, sólo están dispuestos a confiar en la información que confirme sus propias creencias. Más que conciliar al mundo a través de los hechos reales, la discordia podría crecer gracias a la verdad alternativa digital.

Apenas estamos vislumbrado algunas de las aplicaciones prácticas de la IA en la información. Todavía hace falta un marco ético regulatorio, pero todo parece indicar que en menos tiempo del que presupuestamos veremos resultados sorprendentes. Para bien y para mal.

*Alejandro Fuentes es Market Lead de MSN México

Lo aquí publicado es responsabilidad del autor y no representa la postura editorial de este medio