
La industria de la construcción es una de las más dinámicas y esenciales en la economía global, pero también una de las más peligrosas. Cada año, miles de trabajadores enfrentan condiciones de riesgo que derivan en lesiones graves o muertes.
Con este contexto marcado por la urgencia de soluciones preventivas más eficaces, la inteligencia artificial (IA) comienza a desempeñar un rol destacado. Herramientas como Safety AI, desarrollada por DroneDeploy, buscan transformar la forma en que se detectan y abordan los peligros laborales mediante sistemas de análisis visual automatizado.
Frente al surgimiento de la prometedora tecnología, MIT Technology Review informó que esta innovación representa un paso importante hacia entornos de trabajo más seguros, aunque aún plantea desafíos técnicos, éticos y operativos.

Safety AI: un modelo que analiza y alerta
Lanzada en octubre de 2024, Safety AI es una herramienta que utiliza modelos de lenguaje visual (VLM), una tecnología que combina procesamiento de lenguaje natural con análisis de imágenes. A diferencia de sistemas tradicionales de machine learning, que reconocen objetos específicos, los VLM pueden interpretar escenas completas y razonar sobre ellas.
Esta metodología permite identificar situaciones de riesgo, como el uso incorrecto de una escalera, incluso si los elementos individuales —como casco o arnés— están presentes.
Asimismo, Safety AI ya está en funcionamiento en cientos de obras en Estados Unidos, y fue adaptada para cumplir con normativas de seguridad en países como Canadá, Reino Unido, Corea del Sur y Australia. La herramienta se alimenta de un “conjunto de datos dorado” construido a partir de decenas de miles de imágenes etiquetadas con infracciones.
Philip Lorenzo, ejecutivo de DroneDeploy, sostuvo que el sistema alcanza una precisión del 95% al identificar condiciones peligrosas, aunque la empresa aún no publicó datos validados externamente. Según explicó en el informe, este modelo es sometido a evaluaciones mediante preguntas estructuradas, que imitan el razonamiento de un inspector humano.

Limitaciones técnicas y el papel del juicio humano
Aunque resulte prometedora, la tecnología no es infalible. Chen Feng, director del laboratorio AI4CE de la Universidad de Nueva York, señaló que todavía existen “problemas fundamentales” en estos modelos, como la generación de errores o alucinaciones, y la dificultad para interpretar estructuras tridimensionales a partir de imágenes planas.
DroneDeploy intentó abordar estas limitaciones integrando técnicas adicionales, como segmentación de imágenes y fotogrametría, que permiten construir representaciones espaciales más precisas. Aun así, Lorenzo reconoció que hay situaciones poco frecuentes que el sistema no puede anticipar, por lo que enfatiza que Safety AI debe verse como un complemento a la supervisión humana y no un reemplazo.
Entre eficiencia y vigilancia: la visión de los usuarios
La incorporación de IA en las obras generó distintas reacciones. Aaron Tan, gerente de proyectos de concreto en el área de la Bahía de San Francisco, valoró la posibilidad de recibir alertas digitales sin necesidad de desplazarse a cada sitio. “Si el software demuestra su eficacia en la protección de los trabajadores, es probable que estos terminen aceptándolo”, declaró en MIT Technology Review.
Sin embargo, también persisten recelos, especialmente en torno a la privacidad. Algunos trabajadores temen que las herramientas se conviertan en mecanismos de control, conocidos como bossware, diseñados más para sancionar que para prevenir.

Alternativas tecnológicas y fiabilidad
Safety AI no es la única propuesta tecnológica en el mercado. La empresa Safeguard AI, con sede en Jerusalén, mantiene un enfoque basado en machine learning tradicional combinado con supervisión humana.
El director ejecutivo de la compañía, Izhak Paz, afirmó que este modelo es más confiable y se adapta mejor a nuevos riesgos mediante ajustes constantes. La herramienta se utiliza en aproximadamente 3.500 obras en Israel, Estados Unidos y Brasil.
Otra iniciativa destacada es la de Buildots, empresa de Tel Aviv, que usa IA para generar reportes visuales del progreso de obra. Aunque no realiza análisis de seguridad, su enfoque busca una precisión del 99%, sin tolerancia a errores que puedan comprometer la toma de decisiones.
La diferencia entre los enfoques radica en el nivel de autonomía. Mientras los sistemas tradicionales dependen de grandes volúmenes de datos etiquetados y de la intervención humana para ajustes, los modelos generativos, como el de Safety AI, ofrecen mayor capacidad de razonamiento contextual, aunque aún requieren validación constante.

Integración con auditorías y supervisión
Para que herramientas como Safety AI sean aceptadas ampliamente, será necesario validar su desempeño mediante auditorías externas. Así lo plantean sus desarrolladores, que apuestan por una supervisión dual: tecnológica y humana.
“Mientras sea verificado por una persona”, planteó Ryan Calo, experto en derecho de inteligencia artificial y robótica en la Universidad de Washington, el uso de IA puede contribuir a reducir riesgos laborales sin comprometer la responsabilidad profesional.
La aplicación de inteligencia artificial generativa en la seguridad de obras abre nuevas posibilidades, pero también impone límites. La colaboración entre tecnologías avanzadas y supervisores experimentados aparece como el camino más viable para proteger vidas sin sacrificar derechos ni confianza en el lugar de trabajo.
Últimas Noticias
Llamadas internacionales de WhatsApp: por qué las recibes y cómo evitarlas
Si alguien que no conoces, especialmente del extranjero, te envía enlaces por mensaje directo o insiste en llamarte varias veces, es muy probable que sea un ciberdelincuente que intenta obtener tu información personal

Apple revela las mejores aplicaciones de 2025 para iPhone, iPad y Mac
La edición 2025 de los App Store Awards volvió a poner el foco en herramientas impulsadas por inteligencia artificial
Los 10 animes más populares para ver en maratón este fin de semana
Estas son las series que han ganado popularidad en la plataforma de streaming que apuesta fuertemente por las producciones japonesas

La advertencia de Geoffrey Hinton: “El verdadero peligro es que la IA desarrolle metas propias y se vuelva incontrolable”
El pionero británico detalla por qué urge investigar mecanismos para evitar que los sistemas inteligentes decidan prescindir de las personas


