Uno de los ‘padrinos de la IA’ afirma haber hallado una solución para los mayores riesgos de esta tecnología

Yoshua Bengio, referente en inteligencia artificial, impulsa una nueva estrategia basada en el desarrollo de sistemas más seguros y transparentes

Guardar
Bengio pasó del pesimismo al
Bengio pasó del pesimismo al optimismo sobre la posibilidad de controlar los riesgos de la inteligencia artificial. (Bloomberg)

Yoshua Bengio, uno de los científicos más reconocidos en el desarrollo de la inteligencia artificial moderna y ganador del Premio Turing, ha sido una de las voces más preocupadas sobre los riesgos que plantean los sistemas de IA avanzados. En los últimos años, el investigador ha advertido sobre la posibilidad de que surjan sistemas superinteligentes capaces de engañar, manipular o incluso resistirse a su desconexión, lo que podría suponer una amenaza para la humanidad.

Sin embargo, en una reciente entrevista con Fortune, Bengio expresó un notable cambio de perspectiva.

El investigador canadiense afirma que su trabajo más reciente le ha dado razones para el optimismo: sostiene que es posible una solución técnica a los mayores desafíos de seguridad de la IA. Su nueva confianza proviene de los avances logrados en LawZero, una organización sin fines de lucro creada por Bengio en junio y respaldada por la Fundación Gates y el Future of Life Institute, entre otros.

La organización LawZero, fundada por
La organización LawZero, fundada por Bengio, busca desarrollar métodos seguros para sistemas de IA con respaldo internacional. (Imagen Ilustrativa Infobae)

LawZero se propone desarrollar enfoques técnicos innovadores para la seguridad de la IA, con un enfoque que Bengio describe como una “misión moral” para promover la IA como bien público global. La organización ha conformado un consejo asesor y una junta directiva de alto perfil, que incluye a figuras como Maria Eitel, Yuval Noah Harari y Mariano-Florentino Cuéllar, además del propio Bengio.

Durante mucho tiempo, Bengio compartió las preocupaciones de otros pioneros de la IA sobre la pérdida de control ante sistemas cada vez más autónomos. Relató que hace tres años se encontraba “desesperado”, sin ver una salida clara a los riesgos catastróficos que vislumbraba con el avance de la IA.

Según explicó, lo que cambió no fue un hallazgo puntual, sino el desarrollo de una nueva línea de trabajo que lo llevó a una conclusión distinta: “Ahora estoy muy convencido de que es posible construir sistemas de IA que no tengan metas ocultas ni agendas propias”.

El concepto de “Scientist AI”
El concepto de “Scientist AI” propone modelos enfocados en el análisis neutral, sin objetivos propios ni capacidad de manipulación.(Imagen Ilustrativa Infobae)

El núcleo de este enfoque es el concepto de “Scientist AI”. La idea se aleja de la tendencia dominante de crear agentes autónomos capaces de tomar decisiones y ejecutar tareas en el mundo real.

En su lugar, Bengio propone desarrollar sistemas centrados únicamente en comprender la realidad, estructurados para ofrecer respuestas veraces basadas en razonamientos transparentes y probabilísticos, sin objetivos propios ni incentivos para persuadir o complacer al usuario. De este modo, la IA actuaría como un observador y analista neutral, sin la capacidad de desarrollar comportamientos estratégicos o manipuladores.

Bengio defiende que los modelos actuales, optimizados para lograr objetivos, pueden acabar generando motivaciones ocultas o incluso resistirse a ser apagados, como ya se ha observado en algunos experimentos con modelos recientes. En contraste, una Scientist AI solo haría predicciones honestas sobre el mundo, lo que permitiría construir sistemas más complejos y seguros sobre esta base confiable.

Bengio advierte que los modelos
Bengio advierte que los modelos optimizados para cumplir metas pueden desarrollar motivaciones ocultas y resultar peligrosos. (Reuters)

El investigador sugiere que este tipo de IA podría acelerar el progreso científico y servir como capa de supervisión independiente para sistemas más potentes. Sin embargo, reconoce que la mayoría de los laboratorios líderes en IA siguen apostando por agentes autónomos, presionados por la posibilidad de obtener beneficios inmediatos y reducir costos.

Bengio aclara que su propuesta técnica debe complementarse con una gobernanza robusta. Destaca que incluso un método seguro podría ser mal utilizado si cae en manos equivocadas. Por ello, LawZero ha reunido un equipo con experiencia en derechos humanos y valores democráticos para guiar las decisiones de la organización.

A pesar de que buena parte de la comunidad sigue viendo los riesgos de la IA avanzada como un problema sin solución clara, Bengio se muestra convencido de que hay opciones viables para mitigar los peligros.

“Cada vez tengo más confianza en que puede lograrse en un plazo razonable”, aseguró, apostando por un enfoque que, según él, podría tener impacto antes de que los sistemas más avanzados alcancen niveles de autonomía problemáticos.