CEO de Nvidia minimiza los riesgos de la IA y advierte: “El miedo solo perjudica la innovación”

Jensen Huang ha señalado el impacto negativo de la ciencia ficción en la percepción pública, mientras voces expertas advierten amenazas reales de la inteligencia artificial

Guardar
Jensen Huang desafía el alarmismo
Jensen Huang desafía el alarmismo sobre la IA: innovación, riesgos y el dilema regulatorio en 2026 - REUTERS/Steve Marcus/File Photo

El debate sobre el impacto y los riesgos de la inteligencia artificial (IA) ha alcanzado nuevas alturas en 2026, en un contexto donde la industria tecnológica avanza a un ritmo sin precedentes.

Jensen Huang, CEO de Nvidia y una de las figuras más influyentes en el sector, ha salido al paso de las advertencias apocalípticas sobre la IA, defendiendo su potencial y cuestionando el efecto de los discursos alarmistas.

Nvidia se ha convertido en la empresa más valiosa del mundo gracias a su papel central en el desarrollo de hardware para IA, impulsando modelos que transforman desde la medicina hasta la industria del entretenimiento.

La posición de Nvidia apuesta
La posición de Nvidia apuesta por la competencia y la utilidad social, en contraste con quienes piden regulación para evitar escenarios de desinformación y potencial pérdida de control sobre sistemas avanzados - REUTERS/Dado Ruvic/Illustration/File Photo

Huang, ahora la octava persona más rica del planeta, sostiene que el miedo a la IA está siendo alimentado por influencias de la ciencia ficción y voces muy respetadas, lo que según él, frena la adopción y limita el progreso tecnológico.

Qué dijo Jensen Huang sobre la IA

En el pódcast “No Priors”, Huang afirmó: “Creo que personas muy respetadas han causado un gran daño, pintando un panorama apocalíptico, un panorama del fin del mundo, un panorama de ciencia ficción. Aprecio que muchos de nosotros hayamos crecido y disfrutado de la ciencia ficción, pero no es útil. No es útil para las personas. No es útil para la industria. No es útil para la sociedad. No es útil para los gobiernos”.

Huang sostuvo que la narrativa negativa en torno a la IA puede desalentar inversiones y generar desconfianza social, en un momento en el que el potencial de la tecnología es mayor que nunca. El CEO de Nvidia afirmó que el enfoque debería estar en aprovechar la IA para hacerla “más segura, más funcional, más productiva y más útil para la sociedad”.

Ha sido especialmente crítico con la idea de que las empresas pidan regulación, en clara referencia a compañías como Anthropic, que abogan por una IA ética y regulada.

IA entre el progreso y
IA entre el progreso y la cautela: Jensen Huang y Geoffrey Hinton enfrentan posturas sobre el futuro de la tecnología - (Imagen ilustrativa Infobae)

Para Huang, el desarrollo de nuevas tecnologías debe estar guiado por la innovación, la competencia y la apertura, no por el miedo a escenarios hipotéticos.

Riesgos reales de la IA según los expertos

No todos en la comunidad tecnológica comparten la visión optimista de Huang. Geoffrey Hinton, conocido como el “padrino de la IA”, ha advertido sobre la posibilidad de que la inteligencia artificial se vuelva incontrolable y represente una amenaza existencial para la humanidad.

Hinton ha señalado dos tipos de peligros: el mal uso humano (como ciberataques, bioterrorismo y desinformación) y la amenaza de que la IA desarrolle metas propias, escapando de la supervisión humana.

Hinton ha sostenido que, aunque la IA tiene el potencial de transformar la sociedad, la falta de medidas de seguridad y la velocidad del desarrollo pueden llevar a consecuencias imprevisibles. Destacando que los sistemas actuales ya han facilitado un aumento exponencial de ataques de phishing y desinformación, y que la llegada de una superinteligencia comparable o superior a la humana podría estar a tan solo 5 a 20 años.

Geoffrey Hinton, conocido como el
Geoffrey Hinton, conocido como el “padrino de la IA”, advierte que la inteligencia artificial puede escapar al control humano y convertirse en una amenaza existencial, subrayando la urgencia de anticipar riesgos y establecer salvaguardas antes de que la tecnología supere nuestras capacidades de supervisión - (Reuters)

La brecha entre la visión de Nvidia y la de expertos como Hinton refleja el dilema central en el avance de la IA: ¿Debe priorizarse la innovación sin trabas o es necesario un enfoque más cauteloso y regulado? Mientras Huang defiende que el miedo solo perjudica la innovación, otros insisten en que la responsabilidad y la prevención deben ser parte integral del proceso.

Ambas posturas coinciden en que la IA cambiará la sociedad, pero difieren en la forma de abordar los riesgos. Para Huang, el mayor peligro es frenar el progreso por precaución excesiva. Para Hinton y otros, es no anticipar los posibles efectos negativos, tanto inmediatos como a largo plazo.

El debate sobre la inteligencia artificial no solo enfrenta a empresas y expertos, sino que pone sobre la mesa preguntas fundamentales sobre el futuro de la sociedad digital. La posición de Jensen Huang, centrada en la innovación y la confianza en la tecnología, contrasta con las advertencias de quienes ven en la IA una posible amenaza.

En medio de esta discusión, el desafío sigue siendo cómo equilibrar el progreso con la seguridad, garantizando que los beneficios de la inteligencia artificial sean aprovechados sin perder de vista los riesgos reales.