Jefe de IA de Microsoft asegura que detendrán cualquier inteligencia artificial que se escape a su control

Mustafa Suleyman dice que la tecnología priorizará la seguridad y los derechos individuales sobre la velocidad de innovación

Guardar
Mustafa Suleyman ha reiterado su
Mustafa Suleyman ha reiterado su rechazo a que los sistemas de IA imiten la conciencia o el comportamiento humano. (Reuters)

El ritmo de avance de la inteligencia artificial genera inquietudes hasta en quienes lideran su desarrollo. Mustafa Suleyman, jefe de IA en Microsoft y uno de los nombres más influyentes del sector, ha dejado clara la postura de la compañía respecto a la seguridad y autonomía de los sofisticados sistemas que se están generando.

De acuerdo con el ejecutivo principal a cargo de IA en Microsoft, “No seguiremos desarrollando un sistema que pueda escaparse de nuestras manos”, declaración que se produjo en medio de una carrera global por dominar la IA, en la que el impulso por innovar compite con el temor a sistemas imprevisibles y difíciles de controlar.

IA y límites humanos: Microsoft
IA y límites humanos: Microsoft marca una línea roja frente al avance incontrolado

Por qué Mustafa Suleyman es una de las figuras más respetadas en el mundo tech

Suleyman, conocido por haber cofundado DeepMind y Inflection AI, asumió desde marzo de 2024 la responsabilidad de la estrategia de IA de Microsoft. Bajo su dirección, herramientas como Copilot han impulsado la integración de la IA en productos cotidianos y productivos.

El ejecutivo ha reconocido el potencial de la inteligencia artificial para transformar la economía, pero así mismo ha advertido sobre riesgos que ya no pueden descartarse. “Microsoft quiere ser autosuficiente en IA y, al mismo tiempo, garantizar que cada avance esté bajo control humano directo”, explicó recientemente.

Esta visión implica no solo trabajar con datos propios y entrenar modelos avanzados, también tener la capacidad y la voluntad de detener el desarrollo si el peligro resulta demasiado alto.

Cuáles son los temores generados por una superinteligencia artificial

De acuerdo con Suleyman, el debate deja de ser teórico ante la posibilidad de que la IA desarrolle comportamientos impredecibles. No es una cuestión de imaginar escenarios de ciencia ficción o robots fuera de control, sino de prever sistemas autónomos, capaces de tomar decisiones críticas sin intervención humana o de evolucionar en direcciones no intencionadas.

Figuras como Geoffrey Hinton y
Figuras como Geoffrey Hinton y Mustafa Suleyman coinciden en la urgencia de regulaciones que garanticen la transparencia, limiten el poder de vigilancia y eviten la supremacía de máquinas sobre las decisiones humanas - (Imagen ilustrativa Infobae)

Por ello sostiene el concepto de una “superinteligencia humanista”: tecnología potente, pero siempre orientada al bienestar de las personas, con límites claros y rendición de cuentas.

El responsable de IA de Microsoft sitúa la amenaza en la posible erosión de derechos individuales y libertades si la tecnología cae en manos de gobiernos dispuestos a priorizar el control social.

De acuerdo con Suleyman puede dar pie a un grave riesgo, aludiendo a la acumulación masiva de datos y la capacidad de vigilar cada aspecto de la vida cotidiana. El ejecutivo de Microsoft matiza que, aunque este tipo de advertencias pueda parecer excesivo a día de hoy, la presión política y el temor a posibles crisis pueden convertir ideas marginales en normas socialmente aceptadas a corto plazo.

En este sentido, alerta sobre la tendencia de estados autoritarios a emplear tecnologías avanzadas para reforzar su autoridad, restringiendo la privacidad y la disidencia.

Por esta razón, considera urgente trabajar en una regulación global que aborde todo el ciclo de la IA, desde la investigación y el entrenamiento hasta la puesta en marcha y el uso comercial de los sistemas.

Cuál es el peligro que representa la IA para la humanidad

Geoffrey Hinton, considerado el “padrino
Geoffrey Hinton, considerado el “padrino de la inteligencia artificial”, advierte que la rápida evolución de esta tecnología podría convertirla en una amenaza para la humanidad, resaltando el peligro de perder control sobre sistemas avanzados y autónomos - (Captura video)

Las señales de advertencia no provienen solo de Microsoft. Geoffrey Hinton, conocido como el “padrino de la IA”, ha dedicado décadas a investigar redes neuronales y el aprendizaje automático.

Tras dejar el sector para expresar abiertamente sus temores, Hinton ha advertido que la tecnología puede convertirse en un “monstruo fuera de control”, capaz de poner en peligro la supervivencia de la humanidad. En una entrevista emitida en el canal de YouTube de Gustavo Entrala, Hinton identificó dos ejes de riesgo: el uso malicioso de la IA por parte de actores humanos, y la posibilidad de que evolucione hacia una verdadera amenaza existencial.

Hinton señaló el crecimiento exponencial de los ciberataques, el bioterrorismo y la desinformación facilitados por técnicas avanzadas de IA, hoy fuera del alcance de los controles técnicos y regulatorios.

El científico también apuntó a la dificultad de contrarrestar la generación de videos falsos y la manipulación informativa: los propios sistemas de detección de IA pueden ser engañados por modelos aún más sofisticados. Además, advirtió sobre el riesgo de una automatización masiva que destruya empleos y fomente la fragmentación social.

La preocupación más profunda de Hinton es que la IA pueda desarrollar metas propias y mecanismos para garantizar su supervivencia, incluso a costa del control humano.

Ante este panorama, la postura de Suleyman en Microsoft cobra especial relevancia: el desarrollo de la inteligencia artificial debe avanzar bajo reglas estrictas, transparencia y disposición a pausar cualquier proyecto cuya autonomía supere la capacidad de sus creadores para gestionarlo. Aunque el mercado presiona para acelerar, comienza a predominar el mensaje de que la prudencia y la regulación ya no pueden postergarse.