Mundo virtual y cibervigilancia: lo que Black Mirror anticipó y ya es realidad

Estéban Ierardo, filósofo y escritor habló con Infobae sobre su último libro donde analiza el sistema de crédito social que funciona en China y las transformaciones que las sociedades atraviesan en un entorno cada vez más digitalizado. Algoritmos, inteligencia artificial y redes sociales: ¿crean un mundo más integrado o profundizan las desigualdades?

Compartir
Compartir articulo

¿Se puede decir que la tecnología está mejorando nuestras vidas? ¿O acaso es todo lo contrario? A Estéban Ierardo, filósofo, escritor y autor del libro Mundo virtual: Black Mirror, postapocalipsis y ciberadicción le gusta pensar que es necesario despojarse de una mirada totalmente inocente y hacer un análisis crítico; pero sin por eso caer en el terror o la paranoia absoluta.

"Nunca tenemos que olvidar los aspectos peligrosos que supone la construcción de este mundo, cada vez más mediado por una invasión y mejoramiento de los medios tecnodigitales. Hay aspectos sumamente prometedores, pero hay otros que requieren una mirada de alerta", explica Ierardo, en diálogo con Infobae.

El autor analiza las redes sociales y la construcción de identidades virtuales, así como la vigilancia que llega de la mano de los avances de la inteligencia artificial. En el libro hace referencia la cuarta temporada de Black Mirror y establece un paralelismo entre ciertas características de esa visión distópica que impregna la serie con algunas cuestiones que ya son parte de la actualidad.

Durante su visita a Infobae, Ierardo hizo un recorrido por algunos de estos temas y otros que describen el panorama de un universo cada vez más "inteligente", digital y de a ratos escalofriante; pero sin por eso olvidar los beneficios que llegan, también, del avance tecnológico.

— En el libro habla de capitalismo algorítmico, ¿cómo sería eso?

— Tiene que ver con que los procesos económicos que construyen las llamadas sociedades capitalistas están mediados por el cambio y la transformación tecnológica. Es un hecho descriptivo de algo obvio. Por cómo el capitalismo hoy se organiza, también tenemos que observar la llamada inteligencia artificial y el lenguaje algorítmico para determinar el modo de realizar las tareas mediadas por la computación y el mundo informatizado. Por lo tanto, estos algoritmos que circulan, incluso por la prensa, tienen que ver con una forma de inteligencia, de organización del funcionamiento práctico; con la computación que cada vez regula más el mundo de la producción, de los servicios y de la realidad global del capitalismo. Lo podemos ver en ejemplos cotidianos, cuando hacemos búsquedas en internet; y de forma inmediata, en una nueva búsqueda, nos aparece una publicidad relacionada con nuestra búsqueda anterior. Por lo tanto, hay una mediación de ese tipo de lenguaje algorítmico que busca mejorar la eficacia práctica de los intereses económicos, que están vinculados con el modo en el cual se organiza el capitalismo hoy. Y que ya no es como era en otras etapas, únicamente vinculado con lo industrial, con la maquinaria pesada, sino que ahora, este mundo informatizado está mediado por ese lenguaje que regula las prestaciones informáticas que es ese lenguaje algorítmico. Por eso, creo que es pertinente hablar de un capitalismo algorítmico, es un poco describir un proceso que se está dando a nivel planetario, global.

— ¿Presiente que esta practicidad que surge a raíz de la implementación de inteligencia artificial mejora o empeora la distribución de la riqueza?

— Bueno, ahí están ya los temas de posiciones filosóficas vinculadas con los procesos sociales actuales, donde se pueden tener distintos puntos de vista. Yo, en lo personal, soy partidario de una visión mesurada, un poco invocando el ejemplo de la ética de Aristóteles, que es la famosa búsqueda del punto medio. Yo entiendo que es mesurado evitar los puntos extremos, maniqueos. Es decir:  la tecnología es un absoluto mal, o la tecnología es un absoluto bien, una promesa de desarrollo para la humanidad. Desde un punto de vista intermedio, mesurado, el tema puede ser bastante sencillo. Siempre hemos escuchado que, por ejemplo, la energía nuclear no es en sí nada malo, sino que tiene que ver con el uso que se le dé, y siempre se invocaba antes, en la etapa predigital el ejemplo de Hiroshima y Nagasaki que era un ejemplo negativo del uso de una energía. Pero la energía nuclear puede ser algo positivo vinculado con la generación de la electricidad.

(Santiago Saferstein)
(Santiago Saferstein)

-¿Cómo sería esto en el caso de la tecnología?

-Trasladándolo al mundo de la cronología de la inteligencia artificial yo creo que tenemos que tomar una postura intermedia, es decir, observar los aspectos benéficos. Creo que hay cuestiones vinculadas con el mundo de la medicina o con el mundo de las prestaciones de los servicios, con la eficacia de los transportes, incluso con el mejoramiento de la planificación del tráfico en las grandes ciudades que son positivos. Pero, por otro lado, hay aspectos que pueden ser inquietantes, vinculados con mejorar el espionaje informático y el sondeo de las tendencias políticas para su mejor manipulación. Es decir, en la vida, casi todo, tiene dos caras. Como el viejo dios romano Jano, dos rostros. Y creo que una visión completa es saber las dos tendencias o las dos posibilidades: los aspectos peligrosos y los aspectos benéficos. Yo soy partidario de decir que nunca tenemos que olvidar los aspectos peligrosos que supone la construcción de este mundo, que está cada vez más mediado por una invasión y mejoramiento de los medios técnico digitales. Hay aspectos sumamente prometedores, pero hay otros que requieren una mirada de alerta, de conocimiento. Una actitud crítica respecto de sus peligros, suponiendo que uno considere que la libertad, la libre elección es algo que constituye al ser humano. Por otra parte, el poder de manipulación de las voluntades mediante su mejor conocimiento y mediante los perfiles, a partir de los datos, que dejás sembrados en las redes, yo creo que eso es un aspecto inquietante y peligroso. Por lo tanto, y en definitiva, la inteligencia artificial no asegura en modo alguno un mejoramiento de la distribución de la riqueza acumulada en el mundo.

— ¿Es entonces la manipulación el mayor peligro o riesgo que viene asociado a esta época?

— Yo creo que hay un núcleo de poder que atraviesa la historia, que tiene que ver con los aspectos inmóviles que no cambian: la búsqueda de poder, de dominación, la búsqueda de satisfacer los intereses propios es algo que se manifiesta de distintas maneras, pero es una misma estructura que atraviesa toda la historia. A pesar de toda la sofisticación tecnológica, la revolución de las comunicaciones que se dio hace algunas décadas, ese núcleo de búsqueda de acumulación de poder no ha cambiado. Ahora, esa estructura tiene nuevos instrumentos, que son los instrumentos de un mundo informatizado y de la inteligencia artificial. Obviamente, esa estructura de poder no va a buscar usar esos medios para que la humanidad supere esa estructura de búsqueda del poder donde algunos son más afortunados que otros. Por lo tanto, en ese sentido, el desafío, a mi entender, es seguir construyendo una expansión de las libertades, un conocimiento crítico de los ciudadanos respecto de los peligros, respecto de ser más manipulados. Porque la manipulación siempre es algo que socava la libertad real de los individuos. Y el poder como acumulación nunca fue aliado del aumento real de las libertades. Por lo tanto, no es un problema inherente a la tecnología en sí misma, sino al uso de la misma.

— ¿Cree que el día de mañana se podría instalar una suerte de comunismo algorítmico, en donde solamente los robots trabajaran, el dinero desapareciera por completo y se asegurara una distribución de riqueza igualitaria?

— Bueno, esos son argumentos que tienen que ver con la celebración utópica de las posibilidades de la tecnología. Dejemos que fluya el desarrollo tecnológico sin obstáculos porque la automatización, en definitiva, no sería un peligro, sino que sería eximir del trabajo a la gente. Pero yo creo que esa es una visión un tanto idílica que puede ser atractiva para guiones de películas o para algún tipo de novelas con algún público interesado en esa visión. Pero no veo, personalmente, que eso tenga posibilidades de plasmarse en el mundo real futuro. ¿Por qué? Porque para que se dé ese salto hacia un mundo de mayor justicia y libertad, tiene que haber una transformación psicológica existencial y mental previa. Ese núcleo, vinculado con el poder tendría que modificarse. Yo, personalmente, no alcanzo a ver nada que indique que ese núcleo de poder que busca usar los nuevos medios para mejor acumular ciertas riquezas vaya a cambiarse como consecuencia del avance tecnológico. No sería optimista en ese sentido. Pero eso no significa que, por esa falta de visión positiva, o plenamente alegre o festiva respecto del futuro, uno caiga en una postura que niega los aspectos del avance tecnológico que sí tienen que ser preservados y cultivados como es el desarrollo científico, las mejoras de la medicina y la mejora, como antes decíamos, de lo que es la organización práctica de las sociedades.

— ¿Pero entonces el ser humano sigue combatiendo con los mismos demonios? ¿Esencialmente es el mismo desde siempre?

— Creo que esa dimensión más profunda, filosófica, respecto a nunca olvidar que detrás de las máquinas, más allá de toda la sofisticación que estas puedan tener, sigue estando el hombre. Sus deseos, sus frustraciones, sus inquietudes. Digamos, ese núcleo de poder del cual hablamos no es una suerte de entidad metafísica que atraviesa la historia, sino que tiene que ver con cierto modo del humano de constituirse en la historia. Constituirse buscando poder de uno sobre otros. Y eso es algo vinculado al hecho de cómo se constituye el ser humano. Cuál es su realidad filosófica profunda en la historia, en el pasado y en el presente. Digamos, la dirección del deseo tendría que modificarse: que el ser humano realmente desee construirse en comunidad; construirse en la relación con el otro; en la empatía. Y ese tipo de cambios profundos del deseo del humano o del poder que atraviesan la historia, yo, por lo menos, no lo veo claro. Por lo tanto, vuelvo a una actitud de escepticismo respecto a que el avance tecnológico asegure de por sí una mejora en la calidad de la vida o en la transformación positiva de la humanidad.

— El control ciudadano es uno de los temas que está muy presente en el libro. Se hace mención a Black Mirror y hay muchas comparaciones con esa serie de ciencia ficción. Hay algunas que, de hecho, ya se han vuelto realidad, por ejemplo, el sistema de crédito social que se está aplicando en China en donde los ciudadanos reciben una puntuación en función de su comportamiento y a partir de ahí se decide si pueden, por ejemplo, viajar o no. ¿Cree que ese sistema, que es un tanto polémico, se puede llegar a extender al resto del mundo?

— Yo quisiera que no, pero obviamente, siempre entre lo que uno desea y la realidad hay un abismo. Por lo tanto, el caso de China ilustra una triste posibilidad de que la tecnología sea parte de la construcción de una sociedad de la vigilancia cada vez más eficaz, en cuanto a poder monitorear las acciones de los ciudadanos a fin de mejor controlarlos y de mejor presionarlos para actuar de la forma que la sociedad así lo dispone. Por ejemplo, hay una infracción de tránsito y de inmediato se ve a la persona en una pantalla que está cometiendo una infracción de tránsito y eso supone algo que va en contra de su perspectiva de un mejor crédito. Eso parece también una sociedad futurista, tipo Black Mirror, postapocalíptica. Algo vinculado con el cine más que con la realidad. Pero en China, de a poco, según muchos observadores, se está empezando a construir. Todavía está muy lejos de llegar a un sistema de cámaras para monitorear a los millones de chinos. Pero hay un tipo de uso de la tecnología en pos de la vigilancia del ciudadano que se está construyendo y que da una señal de cómo estos procesos hablan de futuros no muy lejanos y de cómo se está construyendo la realidad en este mundo globalizado. Y dice que tenemos que empezar a verlo no solo como una cuestión de ciencia ficción sino como señales de hacia dónde va el mundo y para ver cuál es nuestra posición como ciudadanos respecto a esos peligros y a esas orientaciones.

“Black Mirror”
“Black Mirror”

—¿La cibervigilancia nos hace menos libres?

— Yo creo que no hay que exagerar, pero tampoco hay que subestimar la posibilidad de que esta cibervigilancia sea otra amenaza respecto a nuestras libertades. Por ejemplo, los drones. En un comienzo era una tecnología secreta militar. Como pasa con casi todo lo tecnológico, surge de un ámbito críptico, encerrado, militar. La propia computación surgió en la Segunda Guerra Mundial como parte de investigaciones secretas para descifrar el famoso Código Enigma de los alemanes; y ahora cada uno tiene una computadora de bolsillo que es el celular. Entonces, lo drones tuvieron ese origen y ahora se están haciendo cada vez más conocidos, podés comprar un drone, jugar con él y demás. Pero se está experimentando cada vez con drones más pequeños, que serían como una suerte de insecto robot, con la posibilidad de vulnerar espacios, en principio, sagrados, para ingresar al ámbito de una casa, a instalaciones diversas, a instituciones, para ejercer cierto tipo de espionaje, de vigilancia, que parece que es algo de ficción. Ya hay experimentación concreta. Si esta cibervigilancia es aplicada en ese sentido, no hay que pensar demasiado para ver que puede ser otra amenaza posible para preservar nuestra intimidad, nuestra privacidad y, por lo tanto, nuestra libertad real.

— Estamos como en un panóptico de Foucault, pero veinticuatro horas y en tiempo real…

— Por ahí no hay que exagerarlo. Como antes te decía, yo trato de evitar los puntos de vista exagerados que lleven a un maniqueísmo que yo no profeso en ningún sentido. Acá está lo absolutamente bueno y por otro lado, lo absolutamente malo. Hay que mantener un punto intermedio. Pero, esto no significa subestimar los peligros potenciales que tiene este tipo de aplicación de la cibervigilancia. Creo que estamos lejos de eso, pero hay ciertos indicios que hablan de que hay un deseo de que se construya una sociedad de ese tipo. Aún estamos lejos de eso, pero es una posibilidad y hay que estar al tanto, conocerla y, como ciudadanos, tener un conocimiento y una actitud de alerta respecto a esto.

—¿Cree que eso se podría resolver el día de mañana con educación, por ejemplo?

— Creo que en ella descansa las libertades de los individuos comunes. Necesitaríamos un nivel de instrucción cívica, de conocimiento de nuestros derechos, que tiene que dar un salto hacia el conocimiento de nuestros derechos digitales. Los derechos digitales van de la mano de los peligros a nuestras libertades. Y, por lo tanto, creo que hace falta una cultura de nuestra realidad como usuarios de las tecnologías digitales que no lo veo claro todavía, y que es un desafío para un nuevo horizonte en la educación. Es decir, una educación no sólo especializada y profesional, sino una educación cívica donde se hable de las amenazas que el exceso del uso tecnológico, en términos de cibervigilancia, puede tener para el ciudadano medio; y por lo tanto creo que es un desafío de la educación del ciudadano en el presente y en un futuro no muy cercano.

En el episodio Nosedive de Black Mirror se plantea un futuro donde la gente recibe una puntuación a través de una app y en función de ese crédito pueden acceder a ciertos beneficios en la vida real, o incluso terminar siendo excluidos por completo de la sociedad.
En el episodio Nosedive de Black Mirror se plantea un futuro donde la gente recibe una puntuación a través de una app y en función de ese crédito pueden acceder a ciertos beneficios en la vida real, o incluso terminar siendo excluidos por completo de la sociedad.

—Cuando se habla del impacto de la tecnología en el empleo se dice que, si bien se están reduciendo muchos puestos, se están generando también muchas oportunidades. Ésa es como la visión más positiva. ¿Qué opinión tiene al respecto?

— Creo, de vuelta, que hay que buscar un punto intermedio. Porque si uno busca la historia, cuando se dio la Revolución Industrial, la aparición de la máquina a vapor, la aparición de los ferrocarriles, también hubo transformaciones laborales. Entonces, un punto intermedio es no caer en posturas totalmente apocalípticas, pero tampoco subestimar el hecho de que la robotización o la automatización va a significar un problema social en cuanto a la recomposición del empleo a escala planetaria. ¿Y cuáles son las soluciones para eso? Es algo que ya tendría que estar siendo discutido a nivel político en los distintos países y los organismos internacionales. Hay que entender cómo la humanidad va a afrontar esa transformación definitiva del empleo como lo entendemos, hacia otro tipo de profesiones que va a imponer la robotización. No veo muy claro que haya una consciencia desarrollada respecto de ese cambio que ya se está dando y que se va a profundizar en un futuro muy cercano. Yo creo que tiene aspectos inquietantes respecto a lo que es la posibilidad de mantener el empleo.

— Claro, porque se tiende más al trabajo freelance, a la flexibilización laboral, a cuestiones que pueden propiciar mayor inseguridad…

— Sin ninguna duda, es por eso también que es un problema social de gran magnitud que ya se perfila y que va a detonar con más claridad en un futuro bastante cercano.

MÁS SOBRE ESTE TEMA:

Thomas Friedman, sobre el futuro del empleo: "Nunca hubo tantos robots, y sin embargo tenemos más empleo que antes"

La policía de China comenzó a usar lentes con reconocimiento facial para identificar a delincuentes

Espionaje digital: cómo saber si te están vigilando