Cómo la IA militar nos invita a ocupar el campo de batalla ético

Esta tecnología de la era moderna se despliega en ámbitos tan diversos como la defensa, la salud o el medio ambiente, trayendo consigo una inquietante dualidad

Compartir
Compartir articulo
Philippe Prince Tritto Universidad Panamericana
Philippe Prince Tritto Universidad Panamericana

En un mundo saturado de innovación, la inteligencia artificial (IA) promete milagros al tiempo que coquetea con los límites éticos y de seguridad. La IA, titán de la era moderna, se despliega en ámbitos tan diversos como la defensa, la salud o el medio ambiente, trayendo consigo una inquietante dualidad: una fuerza creativa por un lado, una fuente potencial de destrucción por otro. En este contexto, se están produciendo acalorados debates que ponen de relieve la necesidad de una forma de gobernanza que pueda aprovechar este poder y democratizar sus beneficios.

Dilemas éticos de la autonomía artificial: la IA en el campo de batalla

Frente a estos retos, los principios éticos propuestos para regir la IA , aunque útiles, presentan importantes deficiencias. La reducción de la intervención humana, objetivo central de la IA según el IEEE, contradice la idea misma de IA fiable, que promueve la supervisión y la agencia humanas. Esta contradicción plantea la cuestión de qué nos hace humanos y qué lugar damos a la IA en nuestra sociedad.

En Israel y otros países, la IA ha entrado en el campo de batalla, encarnada en sistemas como Cúpula de Hierro, un dispositivo de defensa antimisiles, y Habsora, una plataforma que orquesta la danza macabra de la guerra proporcionando objetivos en tiempo real . Estas herramientas, fruto de la tecnología punta, ilustran la capacidad de la IA para servir a objetivos militares, planteando la espinosa cuestión de la automatización de los conflictos y sus implicaciones morales.

En esta imagen de archivo, el sistema de defensa antiaérea israelí Cúpula de Hierro dispara para interceptar cohetes lanzados desde la Franja de Gaza, en Ashkelon, Israel, el 20 de octubre de 2023. (AP Foto/Avi Roccah, archivo)
En esta imagen de archivo, el sistema de defensa antiaérea israelí Cúpula de Hierro dispara para interceptar cohetes lanzados desde la Franja de Gaza, en Ashkelon, Israel, el 20 de octubre de 2023. (AP Foto/Avi Roccah, archivo)

En busca de una regulación internacional de la IA

Al mismo tiempo, en los silenciosos pasillos de instituciones académicas y organismos internacionales, se libra una batalla completamente distinta: la de la regulación de la IA. Pensadores como la Dra. Jimena Viveros advierten de la necesidad de regular el uso de los sistemas de armas autónomas para evitar que los Estados se deslinden de responsabilidades por actos ilegales cometidos por estas máquinas . Esta reflexión forma parte de un movimiento más amplio para desarrollar un marco jurídico internacional para la IA, en el que primarían los principios de responsabilidad, equidad y respeto a los derechos humanos. Primarían, aunque no sepamos muy bien cómo en concreto. En efecto, a escala mundial, nos andamos por las ramas y las negociaciones sobre el tema de las armas letales autónomas tienen la costumbre de fracasar .

No obstante, entidades como las Naciones Unidas están profundizando en estas cuestiones, buscando vías para una gobernanza mundial de la IA que asegure un reparto justo de los recursos y conocimientos. La propuesta de un “CERN de la IA”, sugerida en un informe preliminar del Órgano Asesor sobre IA, apunta hacia la creación de una infraestructura global de colaboración en investigación y desarrollo de la IA. Este enfoque advierte del riesgo del “armamentismo de la IA”, mencionado en el informe, subrayando la importancia de una visión compartida, como la que defiende la Dra. Jimena Viveros, miembro destacado de dicho Órgano Asesor y única mexicana en su composición .

El sistema de defensa aérea israelí Cúpula de Hierro dispara para interceptar un cohete lanzado desde la Franja de Gaza, el jueves 19 de octubre de 2023, en Ascalón, Israel. (AP Foto/Tsafrir Abayov)
El sistema de defensa aérea israelí Cúpula de Hierro dispara para interceptar un cohete lanzado desde la Franja de Gaza, el jueves 19 de octubre de 2023, en Ascalón, Israel. (AP Foto/Tsafrir Abayov)

La UNESCO y el marco ético de la IA

La UNESCO, por su parte, puso en marcha el 5 de febrero de 2024 un observatorio para que los países miembros informen de sus esfuerzos desde que se firmó la Recomendación sobre la Ética de la AI, en noviembre de 2021. Como señala la Mtra. Gabriela Ramos, el objetivo es “alinear esos desarrollos tan impresionantes con nuestros objetivos como sociedades y seres humanos”. Entre ellos, según la recomendación de la UNESCO, 194 países han suscrito la prohibición de que un sistema de IA pueda tomar una decisión de vida o muerte en aplicación del principio de proporcionalidad e inocuidad. Por tanto, parece paradójico que el debate sobre las armas letales autónomas siga teniendo lugar en este contexto.

Sin embargo, la paradoja es real. El artículo 2 del Reglamento sobre Inteligencia Artificial de la UE establece explícitamente que las normas que contiene no se aplican a los sistemas de IA si se comercializan con fines militares. La exclusión se podría justificar porque los asuntos militares no son competencia de la UE. Pero la comercialización sí lo es, al relacionarse con el mercado interior.

Es innegable que todas estas iniciativas se enfrentan a grandes retos, en particular la fragmentación de los esfuerzos reguladores a escala internacional y la falta de consenso sobre los riesgos y oportunidades de la IA. El espectro de una carrera armamentística de la IA entre las potencias mundiales también se cierne sobre ellas, alimentando el temor a una escalada militar incontrolable.

Fotografía facilitada por la UNESCO de Gabriela Ramos, subdirectora general de Ciencias Humanas y Sociales, la organización lanzó un observatorio para monitorear cómo regulan los países la ética en la IA EFE
Fotografía facilitada por la UNESCO de Gabriela Ramos, subdirectora general de Ciencias Humanas y Sociales, la organización lanzó un observatorio para monitorear cómo regulan los países la ética en la IA EFE

Los límites del Derecho Internacional en materia de armas autónomas

Con todo, es sabido que el uso de robots asesinos autónomos es incompatible con el derecho internacional, que exige un juicio humano contextual, como ha demostrado la Mtra. Maya Brehm en un estudio clarísimo y contrariamente a lo que afirman, por ejemplo, las Fuerzas de Defensa israelíes .

Si textos como las Convenciones de Ginebra, que promueven los principios de humanidad, distinción, proporcionalidad, precaución y cadena de mando, no han bastado para prohibir explícitamente la creación de armas letales autónomas, cabe preguntarse si nuestro enfoque normativo está a la altura de los desafíos. La respuesta a esta pregunta crucial marcará el futuro de nuestra sociedad, determinando si la IA se convertirá en una herramienta de emancipación o en un instrumento de dominación aún más pronunciado que en la actualidad.

Marc Raibert, CEO de Boston Dynamics demuestra los avances de los robots en Tokio
Marc Raibert, CEO de Boston Dynamics demuestra los avances de los robots en Tokio

SEMBLANZA: Philippe Prince Tritto tiene una formación académica que incluye un título en Ingeniería Eléctrica y Computación Industrial por el Instituto Universitario Tecnológico de Troyes y una licenciatura en Derecho por la Universidad de Jean Moulin Lyon 3. Es un experto reconocido en la intersección de la inteligencia artificial y el derecho, con 13 años de experiencia, y ha trabajado tanto en el sector privado en Legaltech como en el sector público en transformación digital.

Es Maestro en Derecho digital por la Universidad Toulouse 1 Capitole. Esta complementando su educación con un doctorado en curso en Inteligencia Artificial en la Universidad Panamericana. Es miembro de la Sociedad Mexicana de Inteligencia Artificial y ha liderado proyectos innovadores sobre chatbots para la abogacía, redes neuronales artificiales para la evaluación de riesgos de privacidad, generación de contratos con inteligencia artificial, detección automática de conceptos jurídicos en textos legales, jurisprudenciales y expedientes judiciales, entre otros.

En la Universidad Panamericana, es investigador docente y cofundador del Laboratorio de Derecho e Inteligencia Artificial, mismo que estudia los retos y oportunidades de la inteligencia artificial en el mundo del derecho, tanto del lado regulatorio como de la automatización de tareas jurídicas.

Su carrera se caracteriza por un enfoque crítico, meticuloso, y firmemente empírico, subrayando la importancia de la formación científica en derecho. Philippe es un defensor de la dignidad humana, la igualdad de género, la protección del medio ambiente, la libertad de expresión y pensamiento, y la agencia humana, temas que frecuentemente vincula con su especialización en inteligencia artificial. Su enfoque pedagógico integra una visión crítica sobre la ética en la tecnología, enfatizando la importancia del derecho y la academia para ofrecer claridad en contraposición a las incertidumbres que plantea la domesticación de la ética.

Es autor de 11 publicaciones tanto académicas como en periódicos de divulgación. Se ha desempeñado como conferencista en numerosos foros nacionales e internacionales, y es consultado tanto por organismos internacionales públicos como empresas de Big Tech para apoyar en la regulación y la ética en el desarrollo de sistemas de inteligencia artificial.

Redes

• LinkedIn: https://www.linkedin.com/in/phprince/

• X / Twitter: https://twitter.com/PhPrince_

• YouTube Channel: https://www.youtube.com/@PhilippePrinceTritto

• Discord Server: https://discord.gg/zphSYqNyQ4

• Telegram Channel: https://t.me/+7MDBgSCv-CAzZmIx

• WhatsApp Channel: https://whatsapp.com/channel/0029VaFPNGKAInPkjublVp2J