
Frente a los potenciales riesgos que la inteligencia artificial podría representar para la seguridad global, un destacado grupo de científicos especializados ha decidido actuar con responsabilidad y visión de futuro.
Este compromiso surge tras las preocupaciones manifestadas el año pasado por Dario Amodei, director general de Anthropic, quien advirtió ante el Congreso estadounidense sobre cómo la avanzada tecnología de inteligencia artificial podría, en manos equivocadas, facilitar la realización de ataques biológicos de gran alcance.
La posibilidad de que individuos poco experimentados, pero con intenciones dañinas, utilicen esta herramienta para dispersar virus o sustancias tóxicas que ocasionen daños masivos a seres humanos, animales o plantas, refleja un escenario alarmante.

Cabe recordar la definición de la Universidad Complutense de Madrid, que describe a las armas biológicas como entidades vivas o sus productos tóxicos empleados con el objetivo de provocar enfermedad, incapacitación o muerte.
Ante esta realidad, la decisión de estos científicos de encaminar sus esfuerzos hacia el bienestar de la humanidad, evitando el desarrollo de herramientas que puedan ser utilizadas para el daño masivo, marca un hito en la ética y responsabilidad en el campo de la inteligencia artificial.
Entonces, ¿la IA es capaz de crear enfermedades?
Si bien la aplicación de la inteligencia artificial en el campo de las ciencias biológicas ofrece un panorama prometedor en términos de avances y soluciones a problemas globales, el manejo inadecuado o el uso malintencionado de esta tecnología podrían derivar en consecuencias negativas significativas a nivel biológico.
La capacidad para diseñar proteínas mediante IA abre la puerta no solo a desarrollos positivos como la creación de nuevos tratamientos médicos y la mejora en la respuesta a brotes de enfermedades infecciosas, sino también a posibles aplicaciones perjudiciales, como la creación de agentes patógenos más letales o resistentes a tratamientos existentes.

El uso no regulado de la IA en la modificación genética podría llevar a alteraciones impredecibles en ecosistemas, afectando la biodiversidad y provocando desequilibrios ecológicos.
Uso responsable de la IA
Ante este escenario con tintes algo apocalípticos, un grupo de investigadores especializados en inteligencia artificial se reunieron en la cumbre del Instituto para el Diseño de Proteínas de la Universidad de Washington el 25 de octubre de 2023, para realizar un acuerdo respecto al uso de la IA en la biología.
144 científicos, incluidos biólogos y expertos en inteligencia artificial enfocados en la creación de nuevas proteínas y hasta Frances Arnold, Premio Nobel de Química del 2018, han establecido un compromiso con el objetivo de asegurar que sus estudios apoyados por la inteligencia artificial continúen de manera que no representen una amenaza significativa para el planeta.

“Como científicos que participan en este trabajo, creemos que los beneficios de las tecnologías actuales de IA para el diseño de proteínas superan con creces el potencial de daño y nos gustaría asegurarnos de que nuestra investigación siga siendo beneficiosa para todos en el futuro”, dice la declaración firmada por esta comunidad científica.
Compromiso de los científicos
Los investigadores que firmaron la declaración acordaron que era necesario fijar una reglas concretas para que puedan encaminar su trabajo hacia un beneficio general de la humanidad.
“Realizaremos investigaciones en beneficio de la sociedad y nos abstendremos de realizar investigaciones que puedan causar daños generales o permitir el uso indebido de nuestras tecnologías”, es el primer compromiso del acuerdo.
Los científicos ejemplifican que esto se puede llevar a cabo a través de investigaciones orientadas a la creación de nuevos conocimientos y al fomento de la salud y el bienestar.

Asimismo, aseguran que apoyaran “los esfuerzos para mejorar los métodos mediante los cuales se evalúa su software de diseño de proteínas para identificar mejor los riesgos”.
“Esto se puede implementar participando en investigaciones para mejorar la comprensión teórica de los riesgos; participando en el desarrollo conjunto de marcos de evaluación; evaluando críticamente el desempeño de los marcos de evaluación actuales”, explican.
Aunque el acuerdo firmado por más de 100 científicos representa un paso significativo, aún queda por determinar cómo se aplicará efectivamente en la práctica.
Últimas Noticias
Identifica desde qué mes de 2026 dejaría de funcionar Netflix en tu TV comprado hace 10 años
Los Smart TV lanzados antes de 2015 presentan limitaciones en sus componentes, como procesadores menos potentes y sistemas operativos desactualizados

Paneles solares sobre cultivos disminuyen el estrés térmico, según estudio
La sombra proporcionada por los paneles reduce las temperaturas extremas hasta en 10 °C

WhatsApp desarrolla una nueva función para liberar espacio en iPhone
La herramienta facilita la organización del contenido almacenado y optimiza el espacio sin eliminar datos importantes

Por qué conviene borrar la caché del celular Android y qué beneficios aporta
La memoria caché almacena archivos temporales que las aplicaciones descargan o generan para funcionar más rápido

The Witcher 3, desarrollado por CD Projekt, tendría un DLC millonario en 2026
La compañía se ha propuesto alcanzar 475 millones de euros en beneficio neto acumulado entre 2023 y 2026




