
El debate más reciente sobre la inteligencia artificial no solo se ha centrado en su regulación o los usos potenciales que tiene, sino también en los riesgos que supondría para la humanidad y su supervivencia. En el pasado algunos expertos se mostraron preocupados y en un pronunciamiento público indicaron que las IA podrían ser tan peligrosas como una pandemia o una guerra nuclear.
Sin embargo, otro grupo de expertos consideran que esta es una advertencia sobredimensionada y que las inteligencias artificiales no representan un riesgo para la humanidad, sino un beneficio. Aunque sí aceptan que estas no están libres de ser usadas de formas inadecuadas.
Según Adnan Masood, Jefe de inteligencia artificial en UST y Director Regional en Microsoft, “la IA como la conocemos actualmente no representa un riesgo existencial. Aún no hemos creado nada que se acerque al nivel de consciencia de un perro y mucho menos a la inteligencia humana”.
Además, Masood aseguró que la humanidad no está a un nivel de sofisticación que permita crear “máquinas que causan un apocalipsis” pese a que incluso Sam Altman, cofundador y CEO de OpenAI, responsable de programas como ChatGPT, piensa de esta forma.

El experto considera que en lugar de las inteligencias artificiales, los riesgos para la existencia humana son el cambio climático, la extrema pobreza y las guerras. “Sugerir que las IA, en su estado actual, son un riesgo comparable, es una falsa equivalencia”, afirmó.
Pese a ello, sí reconoció que no existe una inteligencia artificial que suponga un riesgo en algún nivel. El sesgo en su programación puede causar campañas de desinformación es solo un ejemplo de ello, aunque hay muchas formas de usar incorrectamente un programa de este tipo. Aún así, Masood cree que esto no es motivo de catalogar a la IA en sí misma como un peligro.
“Son riesgos que se pueden manejar y mitigar por medio de un diseño cuidadoso, pruebas concretas y un despliegue responsable (...) son parte del proceso de la integración de una nueva tecnología en nuestra sociedad”, aseguró.
Al igual que Masood, Altman indicó en una entrevista con ABC News en marzo del año 2023 que es necesario que esta tecnología se encuentre al alcance de las personas aún en sus etapas tempranas y cuando pueden cometer errores pequeños para corregirlos antes de que se generen otros más grandes.

“Debemos tener cuidado y al mismo tiempo entender que no sirve tenerlo todo en un laboratorio. Es un producto que debemos difundir y que haga contacto con la realidad y tener errores mientras los riesgos son bajos. Habiendo dicho eso, creo que la gente debería estar feliz de que estemos algo asustados de esto. Si pudiera decir que no me asusta, no deberías confiar en mi (...)”, afirmó Altman.
Por otro lado, la regulación de las inteligencias artificiales estaría llegando a su punto más alto en Europa luego de que Altman asistiera presencialmente a reuniones con diferentes líderes de la Unión Europea para discutir algunas propuestas de los legisladores para proteger a los ciudadanos de posibles riesgos de seguridad y privacidad durante el uso de ChatGPT y otras tecnologías similares.
El CEO de OpenAI indicó que intentará cumplir con los estándares europeos que se aprueben en la medida de lo posible, pero si no se consigue, tendría que dejar de operar en esa región. Posteriormente aseguró que su compañía no tiene planes de dejar de funcionar en este continente.
Últimas Noticias
El 58% de los padres en Estados Unidos está en contra de que sus hijos busquen apoyo emocional en la IA
La expansión de los chatbots y asistentes virtuales entre los adolescentes genera tensiones familiares: mientras su función educativa convence, persisten dudas sobre su acompañamiento

Adiós a la nube: Microsoft permite usar su IA y Office sin internet para evitar filtraciones
El modelo permite ejecutar servicios críticos y soluciones de IA en entornos aislados, reduciendo la dependencia de la conectividad externa
Códigos de Free Fire para hoy jueves 26 de febrero de 2026: cómo reclamar recompensas
Garena libera cada día una lista de combinaciones que permite obtener skins, diamantes y otros objetos que permiten mayor personalización en el videojuego

Alerta médica con ChatGPT Health: falla en el 52% de las emergencias y pone en riesgo al usuario
Investigadores advierten sobre lagunas de seguridad en la IA de OpenAI, particularmente al fallar en guiar a pacientes con ideación suicida hacia servicios de urgencias
Jeff Bezos asegura que ser perezoso y no trabajar provoca ansiedad: “El estrés desaparece cuando doy el primer paso”
La filosofía del empresario propone transformar la preocupación en tareas concretas y abordar los desafíos de forma inmediata



