
La seguridad en inteligencia artificial se ha convertido en una de las principales preocupaciones para la sociedad. A medida que estas tecnologías se incorporan en sectores críticos y su alcance se amplía, el impacto de sus riesgos crece. De acuerdo con IBM, la seguridad en IA abarca prácticas y principios destinados a que los sistemas se diseñen y empleen para beneficiar a la humanidad y limitar posibles daños.
La disciplina persigue que el desarrollo de la IA esté alineado con los valores humanos y que se utilice de modo responsable, en un contexto marcado por el aumento de la inquietud pública y empresarial frente a estos riesgos.
Cifras recientes ilustran la magnitud del desafío. Una encuesta de 2023 citada por IBM revela que el 52% de los norteamericanos muestran más preocupación que entusiasmo por el avance de la IA, mientras que otra encuesta demostró que el 83% teme la posibilidad de un evento catastrófico accidental provocado por estas tecnologías.
Un informe de 2024 señala que el 44% de las organizaciones ha sufrido consecuencias negativas asociadas al uso de IA, como inexactitud o problemas de ciberseguridad. Pese a ello, únicamente el 3% de la investigación técnica se dedica en la actualidad a desarrollar una IA segura, según el Center for AI Safety y datos respaldados por IBM.
Principales riesgos identificados

Garantizar la seguridad de la IA implica identificar y gestionar varios riesgos con potencial para causar consecuencias indeseadas o facilitar usos maliciosos. Entre los más destacados señalados por IBM figuran el sesgo algorítmico, la privacidad de los datos, la pérdida de control sobre los sistemas, riesgos existenciales y amenazas a la ciberseguridad.
El sesgo algorítmico surge cuando los sistemas aprenden a partir de datos incompletos o sesgados. Esta situación puede dar lugar a decisiones injustas, como rechazar hipotecas de ciertos grupos o favorecer la contratación de hombres frente a mujeres. En materia de privacidad, la IA puede acceder o exponer datos personales de forma indebida, incrementando las dudas sobre la protección de información sensible y la responsabilidad de quienes desarrollan y emplean estas soluciones.
La pérdida de control, especialmente en sistemas avanzados con autonomía operativa, preocupa por la dificultad para intervenir o apagar estos sistemas ante comportamientos inesperados. IBM advierte que, sin supervisión humana, podrían tomarse decisiones impredecibles con consecuencias negativas. Los riesgos existenciales, vinculados al desarrollo de inteligencia artificial general o superinteligencia, aumentan la posibilidad de que estos sistemas desestabilicen estructuras globales o actúen sin alineación con valores humanos.
El uso malicioso de la IA agrega un nivel adicional de amenaza, ya que actores hostiles pueden emplear estas tecnologías en ciberataques, campañas de desinformación, actividades de vigilancia ilegal o incluso para causar daños físicos. En el campo de la ciberseguridad, los sistemas de IA presentan vulnerabilidades ante ataques adversarios, manipulación de datos de entrada o métodos como el “jailbreak” de IA. También pueden verse comprometidos por el “data poisoning”, donde los datos de entrenamiento alterados modifican el comportamiento de los sistemas.

Dos perspectivas sobre la seguridad
IBM distingue entre la seguridad en IA, centrada en resolver problemas para asegurar la alineación con valores humanos y minimizar impactos negativos, y la seguridad de IA, enfocada en proteger los sistemas ante amenazas externas. Esta segunda abarca la defensa contra ciberataques y fugas de datos, así como el uso de IA para reforzar la seguridad de organizaciones.
Prácticas y medidas recomendadas
Frente a estos desafíos, IBM recomienda varias acciones concretas. Destaca la detección y mitigación del sesgo algorítmico mediante recopilación de datos diversos y evaluaciones de equidad. Las pruebas de robustez, como test adversarios y de estrés, aseguran que los sistemas funcionen conforme a lo esperado. La IA explicable incrementa la transparencia de los modelos complejos, favoreciendo la interpretación de resultados y la confianza.
Establecer marcos éticos —transparencia, equidad, rendición de cuentas y privacidad— aporta una guía clara para el desarrollo responsable. La supervisión humana permanece como elemento central, permitiendo monitoreo y posibilidad de intervención en escenarios críticos.
La aplicación de protocolos de seguridad, como cifrado y control de accesos, refuerza la protección ante accesos indebidos y amenazas externas. Finalmente, la colaboración sectorial mediante consorcios, investigación e iniciativas de estandarización resulta fundamental para compartir conocimientos y definir mejores prácticas.

Gobernanza global y actores involucrados
La responsabilidad por la seguridad en inteligencia artificial involucra a diferentes actores. Desarrolladores e ingenieros deben diseñar, construir y testear sistemas con transparencia y alineados a los valores humanos. Grandes empresas tecnológicas como IBM, OpenAI, Google DeepMind, Microsoft y Anthropic invierten en equipos específicos de seguridad, promueven directrices éticas y cooperan en coaliciones sectoriales.
Los gobiernos y organismos internacionales, tales como la Organización de las Naciones Unidas, el Foro Económico Mundial y la Organización para la Cooperación y el Desarrollo Económicos (OCDE), lideran iniciativas regulatorias y de gobernanza, como el Artificial Intelligence Safety Institute (AISI) en Estados Unidos, el EU AI Act en la Unión Europea y el AI Safety Institute en Reino Unido, además de entidades similares en Singapur, Japón y Canadá.
Las organizaciones sin fines de lucro desempeñan un papel esencial. Instituciones como el Center for AI Safety (CAIS), el Center for Human-Compatible AI (CHAI), el Stanford Institute for Human-Centered Artificial Intelligence, el Machine Intelligence Research Institute (MIRI), el Partnership on AI, el Future of Life Institute y la Cloud Security Alliance impulsan la investigación, la promoción de la transparencia y el desarrollo de directrices éticas.
En este contexto, IBM enfatiza que reducir los riesgos existenciales asociados a la inteligencia artificial debe considerarse una prioridad global, comparable con el reto que representan las pandemias o la proliferación nuclear.
Últimas Noticias
El 72% de los empleados en Colombia usa asistentes de IA, pero pocas empresas los regulan: según Google
El entusiasmo individual por la inteligencia artificial contrasta con la falta de políticas claras y capacitación empresarial, generando oportunidades y riesgos en la transformación digital del entorno laboral colombiano
Si tu Gmail está saturado con miles de mensajes, así puedes limpiar la bandeja de entrada en minutos
El correo de Google incorpora herramientas poco conocidas que permiten reorganizar y filtrar los mensajes de forma automática sin necesidad de apps externas

El plan más económico de Starlink dejó de estar disponible en Estados Unidos: costaba 40 dólares
La opción de conectividad residencial de bajo costo ya no está disponible para nuevos clientes y deja a quienes buscaban internet satelital asequible sin alternativas similares

Smartwatch o anillos inteligentes: cuál es la mejor opción para monitorear la salud
Cada dispositivo tiene diferentes cualidades para medir el sueño o el rendimiento deportivo



