
La posibilidad de que la inteligencia artificial general (AGI) alcance o incluso supere las capacidades humanas antes de que finalice esta década ha sido planteada por Google DeepMind, la división de inteligencia artificial de Google, en un reciente informe técnico.
Según el documento titulado “Un enfoque hacia la seguridad y protección técnica de la AGI”, el desarrollo de sistemas avanzados de IA con capacidades autónomas y versátiles no solo es plausible, sino que conlleva grandes peligros que deben ser abordados con urgencia.
De acuerdo con el informe, la AGI se diferencia de los sistemas de inteligencia artificial actuales, que están diseñados para tareas específicas como la traducción de idiomas o la generación de imágenes.

En contraste, la AGI aspira a razonar, planificar, aprender y actuar en una variedad de contextos con un nivel de autonomía comparable o superior al del cerebro humano. No obstante, esta ambición tecnológica plantea desafíos complejos en términos de seguridad, control y alineación con los intereses humanos.
Cuáles son riesgos principales identificados por Google DeepMind
El informe técnico detalla cuatro categorías de riesgos asociados al desarrollo de la AGI, los cuales abarcan desde problemas técnicos hasta impactos sociales y económicos. Según el análisis, estos riesgos son:
- Uso incorrecto: la AGI podría ser utilizada para actividades maliciosas como el desarrollo de malware, la manipulación informativa, el espionaje, la ingeniería social o la ejecución de ciberataques automatizados. Este tipo de aplicaciones podría amplificar las amenazas existentes en el ámbito digital.
- Desalineación: existe la posibilidad de que la AGI actúe de manera imprevisible o contraria a los objetivos humanos, incluso sin una intención maliciosa. Este riesgo surge cuando los sistemas no logran interpretar correctamente las instrucciones o los valores humanos.
- Errores en el desarrollo: Fallos en el diseño, la implementación o el entrenamiento de los sistemas de AGI podrían derivar en resultados peligrosos. Estos errores, aunque no intencionados, podrían tener consecuencias graves si no se abordan adecuadamente.
- Impactos negativos sociales: la AGI podría extenderse a nivel social y económico, generando desigualdad, pérdida de empleos y otros efectos a gran escala que podrían alterar las dinámicas globales.
Qué estrategias se están desarrollando para abordar estos problemas

Ante este escenario, Google ya está trabajando en el diseño de mecanismos que permitan minimizar los riesgos asociados al desarrollo de la AGI. Según el informe, la compañía busca garantizar que estos sistemas no sean utilizados de manera maliciosa y que sus comportamientos estén alineados con los intereses humanos.
Los investigadores de DeepMind enfatizan que, bajo el paradigma actual, no existen barreras fundamentales que impidan a los sistemas de IA alcanzar capacidades de nivel humano. Por ello, consideran que es crucial prepararse para un futuro en el que estas tecnologías sean aún más potentes.

El enfoque de Google incluye la implementación de medidas de seguridad técnica y la creación de protocolos que aseguren el uso responsable de la AGI.
Además, la compañía reconoce la importancia de abordar los riesgos sociales y económicos asociados, lo que podría implicar la colaboración con gobiernos, organizaciones internacionales y otros actores clave para establecer marcos regulatorios y éticos adecuados.
Cuál es el desafío de controlar una tecnología avanzada y autónoma.
El desarrollo de la inteligencia artificial general plantea un desafío único: cómo garantizar que una tecnología con capacidades autónomas y versátiles permanezca bajo control humano.

Según el informe de DeepMind, la AGI no solo debe ser técnicamente segura, sino socialmente beneficiosa. Esto implica diseñar sistemas que cumplan con sus objetivos técnicos y respeten los valores y las prioridades de la humanidad.
La posibilidad de que la AGI actúe de manera desalineada o imprevisible es uno de los riesgos más preocupantes. Incluso en ausencia de intenciones maliciosas, un sistema que no interprete correctamente las instrucciones humanas podría generar consecuencias no deseadas.
Un caso específico sería que un error en el entrenamiento de un modelo podría llevar a decisiones que contradigan los intereses de los usuarios o que tengan impactos negativos en la sociedad.
Últimas Noticias
Apple rompe su propio techo y suma la mayor cantidad de nuevos usuarios de Mac
El impacto del MacBook Neo se refleja en la ausencia de una base de usuarios previa
Estas son las profesiones que permanecerán tras el avance de la IA, según Bill Gates
El cofundador de Microsoft advierte que la IA podría eliminar la mayoría de los empleos actuales
Samsung y Apple se conectan: AirDrop ya funciona entre Galaxy y iPhone
Los modelos Galaxy S26, S26+ y S26 Ultra incluyen una opción en el menú de ajustes llamada ‘Compartir con dispositivos Apple’

Apple Maps tendría anuncios: esto es lo que debes saber sobre la nueva estrategia
El sistema permitiría a marcas y minoristas competir por visibilidad en los resultados de búsqueda

Reddit planea verificar usuarios reales para combatir la invasión de bots
En la opción menos intrusiva, se plantea utilizar la biometría del dispositivo para verificar que hay una persona real




