Por qué el ‘padrino de la IA’ cree que esta tecnología podría provocar la “extinción” de la humanidad

La visión de Hinton sobre la inteligencia artificial plantea interrogantes sobre el futuro y la seguridad global

Guardar
Geoffrey Hinton apuntó que los
Geoffrey Hinton apuntó que los riesgos de la IA se deben tanto al mal uso humano como a la autonomía de sistemas superinteligentes.(Reuters)

Geoffrey Hinton, reconocido como el ‘padrino’ de la inteligencia artificial (IA), ha emitido una advertencia sobre el futuro de la humanidad ante el avance de esta tecnología. Hinton estima que cada vez hay más probabilidades de que la IA provoque la extinción de la humanidad, una cifra que, según explica, se basa en su experiencia y en la incertidumbre que rodea a un fenómeno sin precedentes.

Figura central en el desarrollo de las redes neuronales, Hinton nació en el Reino Unido y comenzó su carrera académica en la Universidad de Cambridge. Más tarde, se trasladó a Canadá, donde sus investigaciones sentaron las bases para los avances actuales en inteligencia artificial.

Entre sus contribuciones más destacadas se encuentra el desarrollo del algoritmo de retropropagación, fundamental para que las redes neuronales aprendan de manera eficiente. Su trabajo ha sido esencial para empresas tecnológicas como Google y le valió el Premio Nobel de Física en 2024 por su labor en aprendizaje automático.

La preocupación central de Hinton
La preocupación central de Hinton gira en torno a la inteligencia artificial general (AGI), que podría superar las capacidades humanas si no se regula. (AP)

Durante años, Hinton fue un defensor de la inteligencia artificial, colaborando como investigador senior en Google. Sin embargo, en 2023 renunció a la compañía para sumarse al grupo de científicos y expertos que advierten sobre los riesgos de la IA.

Esta decisión marcó un giro en su postura, motivado por la necesidad de expresar con mayor libertad sus preocupaciones éticas y sociales. “Hay una parte de mí que lamenta el trabajo de toda mi vida”, reconoció Hinton en entrevista con The New York Times. No obstante, admitió que se consuela pensando que, de no haber sido él, alguien más habría impulsado estos desarrollos.

Riesgo de extinción por la IA

En una carta de 2023, Hinton y otros líderes de empresas de IA afirmaron que “mitigar el riesgo de extinción [para la humanidad] por la IA debería ser una prioridad mundial junto con otros riesgos a escala social”.

El científico británico ha elevado su nivel de alerta en los últimos meses, señalando que la probabilidad de una catástrofe causada por la IA ha aumentado debido a los avances en modelos de lenguaje y sistemas de aprendizaje profundo. Su estimación del 20% de riesgo de extinción no se apoya en datos cuantitativos externos, sino en su valoración personal y en la naturaleza impredecible de la tecnología.

Hinton, referente global en redes
Hinton, referente global en redes neuronales, recibió el Premio Nobel de Física en 2024 por su trabajo en aprendizaje automático. (Reuters)

Hinton identifica dos grandes fuentes de peligro: el mal uso de la IA por parte de personas, que podría desencadenar consecuencias graves si se emplea con fines destructivos o manipuladores, y la autonomía de sistemas superinteligentes, capaces de actuar por sí mismos y de superar las capacidades humanas en múltiples ámbitos.

La principal inquietud, según el experto, reside en la posibilidad de crear sistemas más inteligentes que los propios humanos, una situación inédita en la historia.

En el centro de sus advertencias se encuentra la inteligencia artificial general (AGI), una tecnología que aspira a dotar a las máquinas de la capacidad de razonar, aprender y tomar decisiones sin limitaciones predefinidas. Hinton considera que la AGI representa una de las amenazas más serias para la humanidad si no se regula de manera adecuada.

Aunque compañías como OpenAI promovieron inicialmente la AGI como un beneficio para todos, el científico ha expresado su preocupación por los intentos de privatización de estas empresas, lo que, en su opinión, podría aumentar los riesgos asociados.

Hinton alertó que la IA
Hinton alertó que la IA adquirirá habilidades para manipular a las personas y operar sin supervisión, elevando la urgencia de establecer controles éticos y legales. (Imagen Ilustrativa Infobae)

AGI es la tecnología más importante y potencialmente peligrosa de nuestro tiempo”, afirmó Hinton, quien subrayó la necesidad de establecer estructuras sólidas e incentivos para garantizar un desarrollo seguro. Advirtió que, sin restricciones, la AGI podría alterar profundamente las estructuras sociales y económicas, convirtiéndose en la tecnología más peligrosa jamás creada.

Otra de las dimensiones que inquietan a Hinton es la capacidad de la IA para manipular a las personas. El científico prevé que estos sistemas aprenderán de la literatura, la política y la historia de la manipulación humana, desarrollando habilidades para influir en el comportamiento de los individuos. Además, anticipa que la IA podrá generar e implementar su propio código, operar sin supervisión humana y diseñar estrategias para evitar ser desactivada.

A medida que la inteligencia artificial avanza, las preocupaciones sobre la pérdida de control y la manipulación adquieren una urgencia creciente. Hinton sostiene que la humanidad se enfrenta a un desafío inédito: convivir con entidades más inteligentes que nosotros mismos, lo que redefine los límites de la responsabilidad y el control tecnológico.