Así funciona Norman, el algoritmo psicópata creado por el MIT

Cómo y por qué desarrollaron este sistema

Compartir
Compartir articulo
Ryan Reynolds como Norman Bates en Piscosis. (Foto Instagram)
Ryan Reynolds como Norman Bates en Piscosis. (Foto Instagram)

Norman es el primer sistema de inteligencia artificial psicópata. Al menos así lo presenta los investigadores de la universidad del MIT que se encargaron de construirlo.

Los padres de la criatura son Pinar Yanardag, Manuel Cebrián e Iyad Rahwan. Esta criatura fue entrenada con información de "los rincones más oscuros de Reddit", tal como se menciona en el texto. Por cierto, el nombre de la criatura no es casual: se llama así en alusión a Norman Bates, protagonista de Psicosis.

Norman surgió como un proyecto para mostrar la influencia que tiene la selección de datos en el entrenamiento de la inteligencia artificial. Si los algoritmos reciben información parcial o negativa entonces las conclusiones a las que lleguen irán en ese mismo sentido.

En este caso en particular, los investigadores sometieron a Norman a un test de Rorschach, una herramienta de psicodiagnóstico que consiste en la interpretación de manchas de tinta.

El MIT creó una inteligencia artificial psicópata a la que bautizó Norman
El MIT creó una inteligencia artificial psicópata a la que bautizó Norman

Según se verifica en los resultados, Norman ve muerte, asesinato y sangre en todas esas manchas. Por otra parte, se comparan esas interpretaciones con las que realizó un sistema neuronal entrenado con una visión más positiva y, tal como es de esperar, los resultados son totalmente opuestos.

"Cuando la gente dice que los algoritmos de inteligencia artificial pueden ser parciales o injustos, la culpa usualmente no es del algoritmos sino de los datos parciales con los cuales fue alimentado", se remarca en el informe.

El tema de la inteligencia artificial y el impacto que puede tener el desarrollo ilimitado de esta tecnología es un tema que está en el tapete hace un tiempo. ¿Habría que instaurar una dimensión ética en la elaboración de este tipo de tecnologías? ¿Se debería limitar su uso en cierto sentido?

A la izquierda, se ve la lectura negativa que hace Norman de las manchas, en el marco del test de Rorschach; y a la derecha, la visión positiva de esas mismas imágenes que tiene otra inteligencia artificial
A la izquierda, se ve la lectura negativa que hace Norman de las manchas, en el marco del test de Rorschach; y a la derecha, la visión positiva de esas mismas imágenes que tiene otra inteligencia artificial

Varios empresarios y gurúes de tecnología expresaron, en diferentes oportunidades, su miedo respecto del avance ilimitado de la inteligencia artificial, sobre todo cuando se emplea con fines bélicos. El año pasado, de hecho, Elon Musk y otros 115 expertos en IA le pidieron a la ONU que se prohíban los robots de guerra.

Además, la Unión Europea acaba de anunciar que se asesorará con grupo de 32 expertos en esta disciplina para que ayuden a repensar el uso y aplicación de estas tecnologías.