
Geoffrey Hinton, reconocido como el ‘padrino’ de la inteligencia artificial (IA), ha emitido una advertencia sobre el futuro de la humanidad ante el avance de esta tecnología. Hinton estima que cada vez hay más probabilidades de que la IA provoque la extinción de la humanidad, una cifra que, según explica, se basa en su experiencia y en la incertidumbre que rodea a un fenómeno sin precedentes.
Figura central en el desarrollo de las redes neuronales, Hinton nació en el Reino Unido y comenzó su carrera académica en la Universidad de Cambridge. Más tarde, se trasladó a Canadá, donde sus investigaciones sentaron las bases para los avances actuales en inteligencia artificial.
Entre sus contribuciones más destacadas se encuentra el desarrollo del algoritmo de retropropagación, fundamental para que las redes neuronales aprendan de manera eficiente. Su trabajo ha sido esencial para empresas tecnológicas como Google y le valió el Premio Nobel de Física en 2024 por su labor en aprendizaje automático.

Durante años, Hinton fue un defensor de la inteligencia artificial, colaborando como investigador senior en Google. Sin embargo, en 2023 renunció a la compañía para sumarse al grupo de científicos y expertos que advierten sobre los riesgos de la IA.
Esta decisión marcó un giro en su postura, motivado por la necesidad de expresar con mayor libertad sus preocupaciones éticas y sociales. “Hay una parte de mí que lamenta el trabajo de toda mi vida”, reconoció Hinton en entrevista con The New York Times. No obstante, admitió que se consuela pensando que, de no haber sido él, alguien más habría impulsado estos desarrollos.
Riesgo de extinción por la IA
En una carta de 2023, Hinton y otros líderes de empresas de IA afirmaron que “mitigar el riesgo de extinción [para la humanidad] por la IA debería ser una prioridad mundial junto con otros riesgos a escala social”.
El científico británico ha elevado su nivel de alerta en los últimos meses, señalando que la probabilidad de una catástrofe causada por la IA ha aumentado debido a los avances en modelos de lenguaje y sistemas de aprendizaje profundo. Su estimación del 20% de riesgo de extinción no se apoya en datos cuantitativos externos, sino en su valoración personal y en la naturaleza impredecible de la tecnología.

Hinton identifica dos grandes fuentes de peligro: el mal uso de la IA por parte de personas, que podría desencadenar consecuencias graves si se emplea con fines destructivos o manipuladores, y la autonomía de sistemas superinteligentes, capaces de actuar por sí mismos y de superar las capacidades humanas en múltiples ámbitos.
La principal inquietud, según el experto, reside en la posibilidad de crear sistemas más inteligentes que los propios humanos, una situación inédita en la historia.
En el centro de sus advertencias se encuentra la inteligencia artificial general (AGI), una tecnología que aspira a dotar a las máquinas de la capacidad de razonar, aprender y tomar decisiones sin limitaciones predefinidas. Hinton considera que la AGI representa una de las amenazas más serias para la humanidad si no se regula de manera adecuada.
Aunque compañías como OpenAI promovieron inicialmente la AGI como un beneficio para todos, el científico ha expresado su preocupación por los intentos de privatización de estas empresas, lo que, en su opinión, podría aumentar los riesgos asociados.

“AGI es la tecnología más importante y potencialmente peligrosa de nuestro tiempo”, afirmó Hinton, quien subrayó la necesidad de establecer estructuras sólidas e incentivos para garantizar un desarrollo seguro. Advirtió que, sin restricciones, la AGI podría alterar profundamente las estructuras sociales y económicas, convirtiéndose en la tecnología más peligrosa jamás creada.
Otra de las dimensiones que inquietan a Hinton es la capacidad de la IA para manipular a las personas. El científico prevé que estos sistemas aprenderán de la literatura, la política y la historia de la manipulación humana, desarrollando habilidades para influir en el comportamiento de los individuos. Además, anticipa que la IA podrá generar e implementar su propio código, operar sin supervisión humana y diseñar estrategias para evitar ser desactivada.
A medida que la inteligencia artificial avanza, las preocupaciones sobre la pérdida de control y la manipulación adquieren una urgencia creciente. Hinton sostiene que la humanidad se enfrenta a un desafío inédito: convivir con entidades más inteligentes que nosotros mismos, lo que redefine los límites de la responsabilidad y el control tecnológico.
Últimas Noticias
Exempleado de Jeff Bezos fundó startup que enviará cenizas de 1.000 personas al espacio
Space Beyond permite a familias enviar una pequeña porción de cenizas al espacio a bordo de un satélite miniaturizado

Cómo crear un meme de ti mismo usando una función de Google Fotos
“Me Meme” utiliza la tecnología Gemini de IA para transformar fotos personales en memes populares de forma automática

Por qué Elon Musk afirma que en el futuro con la IA “el dinero no va a ser problema
Elon Musk anticipa un futuro en el que la inteligencia artificial y la robótica harán que el trabajo sea opcional y el dinero deje de ser una preocupación

¿Sabías que los colores de los USB indican su potencia y tipo de carga?
Entender cómo funciona cada uno permite aprovechar al máximo los dispositivos conectados

Ascenso y ‘caída’ de TikTok en EE. UU.: así evolucionó la app desde cero hasta su prohibición por el gobierno
Tras denuncias por riesgos de seguridad nacional y un intenso debate sobre privacidad y libertad de expresión, la app ha logrado mantenerse a flote en el país norteamericano




