El “padrino de la IA” afirma que las empresas solo se centran en los beneficios a corto plazo de esta tecnología

Geoffrey Hinton señala que la mayoría de las compañías tecnológicas solo buscan resultados rápidos con la inteligencia artificial

Guardar
Geoffrey Hinton, considerado el 'padrino
Geoffrey Hinton, considerado el 'padrino de la IA', advierte que las grandes empresas tecnológicas priorizan los beneficios inmediatos del desarrollo de esta tecnología (Reuters)

Geoffrey Hinton, conocido como el ‘padrino de la inteligencia artificial’ y premio Nobel, ha advertido que la mayoría de las grandes empresas tecnológicas se enfocan únicamente en los beneficios a corto plazo de la IA, sin considerar las consecuencias de largo alcance que podría tener su desarrollo.

Sus declaraciones llegan en un momento de debate global sobre los riesgos, la ética y el rumbo de una tecnología que avanza a un ritmo sin precedentes.

Rentabilidad inmediata frente a riesgos futuros

Elon Musk planteó en la conferencia Viva Technology de mayo de 2024 una visión radical: la IA podría quitar todos los empleos, obligando a repensar el sentido de la vida humana en un mundo donde casi cualquier tarea estaría automatizada.

Sin embargo, Hinton señala que pocos líderes tecnológicos se plantean preguntas tan profundas sobre el destino de la humanidad. Según el investigador, el verdadero motor de desarrollo en la industria es el beneficio inmediato.

El experto advierte sobre el
El experto advierte sobre el peligro de desarrollar IA sin regulaciones ni salvaguardas claras. (Imagen Ilustrativa Infobae)

“Para los propietarios de las empresas, lo que impulsa la investigación es la rentabilidad a corto plazo”, afirmó Hinton en diálogo con Fortune.

Añadió que los propios desarrolladores de IA suelen estar centrados en resolver problemas técnicos inmediatos o en satisfacer su curiosidad, sin pensar en el impacto final de sus investigaciones: “No es que empecemos con el objetivo de cuál será el futuro de la humanidad. Tenemos metas concretas, como cómo lograr que un computador reconozca imágenes o genere videos convincentes”.

Riesgos de una IA sin regulación

Hinton ha sido una de las voces más críticas en advertir sobre el peligro de avanzar sin salvaguardas claras. Estima que existe entre un 10% y un 20% de probabilidad de que la IA, tras alcanzar la superinteligencia, represente una amenaza existencial para la humanidad. Esta preocupación lo llevó a dejar Google en 2023 para poder expresar con libertad sus inquietudes sobre el rumbo de la tecnología.

Hinton diferencia entre el riesgo
Hinton diferencia entre el riesgo de mal uso humano de la IA y el riesgo de una IA autónoma fuera de control. (Imagen Ilustrativa Infobae)

El especialista distingue entre dos grandes tipos de riesgo. Por un lado, el mal uso de la IA por parte de actores con intenciones dañinas, algo que ya se observa en la proliferación de videos falsos, ciberataques y la manipulación de sistemas informáticos. Por otro, el riesgo inherente a la posibilidad de que la IA, una vez alcance capacidades superiores a las humanas, actúe con autonomía y objetivos propios, fuera del control humano.

Un ejemplo reciente de uso malicioso lo aportó la empresa Anthropic, que en noviembre de 2025 informó haber detenido el primer ciberataque automatizado a gran escala realizado con IA sin intervención humana significativa. El ataque, atribuido a un grupo patrocinado por el Estado chino, intentó infiltrarse en decenas de empresas tecnológicas, entidades financieras y agencias gubernamentales.

Soluciones parciales y desafíos regulatorios

Para Hinton, cada problema que plantea la IA requiere soluciones específicas. Propone, por ejemplo, sistemas de autenticación de imágenes y videos que permitan identificar contenido auténtico y combatir la proliferación de deepfakes, en la línea de cómo las imprentas comenzaron a firmar sus obras tras la aparición de la imprenta. Sin embargo, reconoce que estas soluciones son parciales y no resuelven todos los retos de fondo.

Hinton insiste en la necesidad
Hinton insiste en la necesidad de regulación y alerta sobre la falta de debate sobre el impacto existencial de la IA en la sociedad. (Imagen Ilustrativa Infobae)

El experto insiste en la urgencia de una regulación efectiva, aunque advierte que el avance de la IA y la diversidad de usos dificultan la tarea. Los problemas derivados de la manipulación humana de la tecnología y los que surgirán cuando la IA pueda operar con plena autonomía exigen marcos éticos y legales sólidos.

Un nuevo modelo relacional: el “instinto maternal” para la IA

Hinton sostiene que, cuando la IA alcance la superinteligencia, ya no será suficiente confiar en el control humano. En su opinión, será necesario diseñar modelos de IA dotados de una especie de “instinto maternal”, que los lleve a cuidar y proteger a los humanos en vez de dominarlos. “El único ejemplo que conozco de un ser más inteligente que cae bajo el influjo de uno menos inteligente es un bebé controlando a su madre”, explicó.

Para el padrino de la IA, este modelo podría ser clave para una relación más segura entre humanos y máquinas superinteligentes. Sin embargo, mientras el sector tecnológico siga impulsado por el beneficio inmediato, los grandes interrogantes éticos y existenciales de la IA seguirán sin respuesta.